21世纪经济报道记者雷晨 北京报道
2026年春天,一款名为OpenClaw(龙虾)的智能体应用突然走红,它不再局限于对话,而是试图接管用户的终端操作。
这种能力跃升,也让算力供给的深层矛盾浮出水面。当人工智能从训练为主转向推理与服务为主,背后的算力基础设施,正面临一场系统性重构。
3月26日,中科曙光在中关村论坛现场发布的世界首个无线缆箱式超节点scaleX40。中科曙光高级副总裁李斌对21世纪经济报道等媒体表示,“我们希望填补市场空缺,在高端训练场景与主流8卡服务器之间找到一个最佳收益点,真正让Token产出更加普惠化”。
在他看来,随着智能体应用爆发,算力系统正从传统的“算力工厂”转向以Token产出为核心的标准化服务,算力增长需求将是无限的。
AI产业进入落地期,模型应用从大型机构向中小企业和垂直行业扩散,算力的使用方式也在发生根本性转变。训练场景集中于少数大模型研发机构,而推理场景则覆盖大量行业用户。算力系统的核心任务,正从支撑模型训练,转向提供持续稳定的推理服务。
如今,行业对算力系统的评价不再只看峰值算力和芯片数量,而是更关注单位投入下的Token产出与服务稳定性。Token作为大模型处理信息、响应用户请求的基本单元,直接决定了用户的响应速度和并发访问稳定性。
李斌指出:“算力基础设施正在从算力工厂转向Token工厂,系统的价值由Token产出能力决定。”
他进一步解释道,算力运营机构需要平衡单个Token响应速度与整体并发吞吐量,在硬件投入、电力消耗和服务质量之间找到合理的区间。“普惠算力的直观表现,就是用户以相近成本,获得数倍于传统方案的收益。”
据李斌介绍,传统的算力评价体系以硬件参数为核心,与实际业务收益存在脱节。训练场景需要大规模、高互连密度的算力集群,而推理场景则对成本、部署灵活性和运维难度提出了更高要求。当前市场上,面向顶级训练场景的超节点配置往往过剩,采购与使用成本高昂,并不适用于推理场景;而主流的8卡服务器在互连带宽、显存调度和多卡协同方面存在明显瓶颈。两类产品之间,长期缺少适配大多数行业推理需求的中间方案。
相关专家也指出,推理市场在AI算力支出中的占比持续提升,预计到2028年成为市场主体。大模型进入行业落地阶段,推理算力需求增速已超过训练算力。
Token经济的核心,正是实现算力投入与业务收益的直接挂钩。李斌强调:“算力系统的主要服务对象,已经从支撑模型训练为主,转变为以服务推理为主。AI产业的发展,正在从技术驱动转向商业驱动。”
超节点是通过高速片间互连实现的紧耦合计算单元,早期主要用于解决大规模模型训练的通信瓶颈。传统的超节点以定制机柜为主体,对机房供电、散热和空间都有专门要求,部署流程复杂,运维门槛高,应用场景相对受限。
近两年,随着推理需求的爆发,产业界开始重新思考超节点的产品形态:能否在保持性能优势的同时,降低部署和使用门槛,使其适配更广泛的行业场景?
这一思考体现在中科曙光产品配置的选择上。李斌对21世纪经济报道等媒体解释:“当前主流模型与行业场景,需要在多卡配置中找到性价比平衡点。32卡是行业常用模式,40卡可以在保持部署灵活性的同时,提供额外算力冗余,更适合实际生产环境。”
在技术路径上,行业正在探索更优的互连方案。传统的节点间互连依赖铜缆或光缆,线缆数量多、布线复杂,既增加了散热压力,也抬高了故障概率。何水兵提到:“网络连接是集群部署中的主要故障点之一。”针对这一问题,一些厂商开始尝试无线缆正交架构,取消节点间的外部物理线缆,采用内部总线与正交连接方式,以减少物理连接带来的故障隐患。
互连架构的优化也在同步推进。与传统的二层组网相比,一级全互连架构能够显著缩短芯片间的通信路径,降低时延,提升带宽。更重要的是,这种架构支持内存语义访问,芯片之间可直接寻址交互,无需经过传统网络协议封装和传输。对于大模型推理中的多卡协同、显存共享和KV Cache调度而言,这种架构具备天然优势。
部署方式的变化同样关键。传统超节点往往需要定制机柜和专门的机房改造,周期长、成本高。而中科曙光新型超节点采用19英寸标准设计,尺寸符合通用机柜规范,可直接部署在现有数据中心,使用标准的供电和散热设备。标准化设计让中小规模用户无需改造机房,即可完成私有化部署,缩短上线周期。”
这些技术突破,让超节点具备了低成本、易部署、高性能的普及化能力。而供给端的变革,恰好迎来了需求端的爆发。
2026年,OpenClaw等智能体应用快速推广,AI的使用门槛进一步降低。智能体可自主完成任务规划、信息调用和多轮交互,对算力的需求呈现出全新特征:Token消耗量随任务复杂度上升,交互连续性要求提高,数据安全与隐私合规需求增强,共同推动算力部署模式从集中公共算力,向公共算力与私域算力并存的格局转变。
首先是Token需求规模的指数级扩大。李斌在采访中提到:“OpenClaw(爆火)以来,Token消耗翻了多少倍?算力输出变得标准化之后,增长需求是无限的。”智能体在执行跨平台操作、长流程任务、多轮对话时,需要持续调用模型能力,上下文长度与交互次数大幅增加。
其次是私域算力部署需求的明显上升。曙光信息产业(北京)有限公司副总裁李柳表示:“私域算力是未来重要方向,数据安全是行业选择私有化部署的主要原因。垂直行业的数据量与模型参数规模适中,40卡级超节点既可满足需求,又能保持部署灵活性。”智能体在处理企业内部数据、业务流程和敏感信息时,数据不能外流,公共云服务难以完全满足合规要求。科研、教育、政府、网络安全等行业,对数据私密性有严格要求,更倾向于采用私有化部署的算力系统。
第三是算力易用性要求的大幅提升。李斌指出,超节点普及的重要条件是“降低部署门槛”。中小企业与传统行业普遍缺少专业的AI运维团队,算力设备需要具备开箱即用、低维护、高稳定的特点。
谈及智能体的发展趋势,李斌表示,“智能体技术迭代速度很快,半年到一年的周期就能上来。安全性与普惠性是行业需要解决的核心问题。”他进一步指出,用户既担心权限开放带来的安全风险,又希望使用成本能够下降。“解决这个问题需要两个条件:一是算力普惠降低使用成本,为智能体普及提供基础支撑;二是通过技术优化与规则约束,降低安全风险。”
从行业发展来看,算力需求有望保持长期增长。李柳指出,AI应用正从互联网行业向制造、能源、政务、医疗等传统行业扩散,各行业都有私有化、定制化的算力需求。他同时提到,集中式大型算力中心承担大模型训练与公共服务,分布式私域算力承接行业应用与数据合规需求,两种形态相互补充。而超节点凭借其紧耦合、高集成、标准化的特点,同时适配两种部署模式,正在成为连接训练与推理、公共与私域的关键算力单元。





京公网安备 11011402013531号