文 | 霞光AI实验室
全球瞩目的英伟达GTC 2026大会在昨晚开启,黄仁勋的演讲一如既往地成为核心焦点。
在此次两个多小时的演讲中,黄仁勋表达了一个重要的判断:AI 已从训练时代全面进入推理 + 智能体 + 物理 AI 的工业化时代,Token 成为核心商品,光互联与硅光子是算力突破关键。黄仁勋将英伟达定位为“AI工厂”构建者,称“到2027年将看到至少1万亿美元的营收。
为此,此次大会上,黄仁勋发布了:Vera Rubin AI工厂平台、Groq 3 LPU芯片、CPO交换机与太空数据中心模块,以及推出NemoClaw智能体基础设施,核心在阐述英伟达从一家“芯片公司”向“AI基础设施和工厂公司”蜕变。
以下,我们根据演讲,提炼了核心内容:
![]()
黄仁勋在演讲中明确界定,AI不再是单一的突破或应用,而是必不可少的基础设施。AI产业重心已从“大模型训练”全面转向“推理落地、智能体研发、物理世界交互”,形成“能源→芯片→基础设施→模型→应用”的五层架构。
这其中,Token已成为AI时代核心商品,推理与执行场景将带来Token消耗的指数级增长,英伟达的核心目标是成为“Token之王”,追求全球最低的每Token成本,这一逻辑构成英伟达“Token工厂经济学”的核心内核——数据中心不再是文件仓库,而是生产Token的“工厂”,每瓦Token吞吐量直接决定企业生产成本。
甚至,未来职场也会因此发生变革:未来工程师将标配“年薪+Token预算”模式,Token将成为硅谷及全球科技行业招聘的核心筹码,标志着Token已成为AI时代的核心生产资料。
黄仁勋强调,英伟达的 Token 成本在世界范围内是“不可触碰”的。即便竞争对手的架构是免费的,它也不够便宜。因为建立一个 1GW 的工厂,即便里面什么都不放,15 年的摊销成本也高达 400 亿美元。你必须确保在这个工厂里运行最强的计算机系统,才能获得最低的 Token 生产成本。
数据中心的角色也在发生变化:过去它是存储和计算中心,而未来将成为生产Token 的 AI 工厂。随着 AI 的普及,无论是云厂商、AI 公司还是传统企业,都将开始从“Token 工厂效率”的角度来衡量自己的计算基础设施,因为在 AI 时代,Token 将成为新的数字商品,而计算能力则直接决定企业的价值创造能力。
![]()
本次演讲最重磅的内容为英伟达新一代硬件产品发布,覆盖当前、中期、长期三代芯片架构,同步推进光互联替代电互联、太空计算等前沿布局,所有产品均标注明确量产及交付时间节点,核心参数可直接引用。
Vera Rubin 超级 AI 平台的亮相,掀起了演讲的另一个小高潮。
据介绍,这是一个全新的计算平台,由七款芯片组成, 涵盖计算、网络和存储三大功能,是目前最先进的 POD 规模 AI 平台。以Vera Rubin为代表的“芯片全家桶”,构成了这一代Vera Rubin机架的系统级基础设施,其中包括:Vera CPU、Rubin GPU、NVlink 6 Switch(高速互联)、ConnectX-9 SuperNIC(超级网卡)、BlueField-4 DPU(数据处理单元)、Spectrum-6 以太网交换机。
![]()
该平台目前已全面投产,并得到了包括 Anthropic、OpenAI、meta 和 Mistral AI 以及所有主要云提供商在内的众多客户的鼎力支持,是支撑英伟达2026-2027年营收的核心支柱。
Groq 3 LPU芯片是英伟达专为极致低延迟推理设计的全新处理器。它专为AI推理场景优化,解决实时交互场景的低延迟需求,是英伟达对抗AMD、巩固推理市场优势的关键产品,源于2025年底英伟达斥资200亿美元收购的AI芯片初创公司Groq的技术积淀。
Groq 3 LPU搭载230MB片上SRAM,数据带宽达80TB/s,首Token延迟<0.1秒,推理性能为H100的10倍;采用“确定性执行”模式,给定相同输入,总会在完全相同的时间点产生输出,不受系统负载、温度波动等因素影响,适配智能客服、自动驾驶决策等实时交互场景;未来将以3D堆叠方式直接集成在Feynman芯片GPU核心之上,进一步降低推理延迟。
该芯片预计于2026年三季度开始正式出货。
在本次演讲中,NVIDIA 列出了 Feynman GPU 与下一代 HBM、Vera CPU 以及构成 AI 数据中心基础的其他几个连接芯片。
该芯片架构面向“物理AI/世界模型”,支撑具身智能、通用人工智能、万亿参数模型训练与超大规模推理场景,原定2028年发布,此次在GTC 2026上提前曝光技术原型,是英伟达突破硅基计算物理极限的核心布局。
Feynman芯片采用台积电A16(1.6nm)制程,是全球首款迈入1nm时代的量产级芯片架构,晶体管密度较前代提升1.1倍;搭载GAA全环绕栅极晶体管与超级电轨背面供电(SPR)技术,将供电线路迁移至晶圆背面,同性能场景下功耗降低15%-20%,同电压下运行速度提升8%-10%;采用硅光子光互连技术,带宽密度提升10倍,传输能耗下降90%,打破超大规模AI集群的“互连墙”;采用3D堆叠加混合键合技术,将LPU直接堆叠在GPU核心上,极致缩短数据传输距离;推理性能为Blackwell的5倍,单GPU算力可达50 PFLOPS,能效比达到前代产品的3.2倍,在ResNet-50图像分类任务中,每瓦性能较Hopper架构提升5.8倍;配套推出NVlink-CXL 6.0互联技术,跨节点数据传输带宽突破1.2TB/s。
它的发布,将使万亿参数模型的训练成本较2023年下降87%,首次降至中型企业可承受范围;推理延迟降低40%-85%,Token成本降至Blackwell的1/10,低功耗设计可支持边缘设备部署,实现“端侧智能”;预计将推动AI算力服务订阅模式普及,未来5年90%的企业将不再购买AI芯片,而是订阅AI算力服务。
传统电互联已触及性能与功耗天花板,共封装光学(CPO)是突破算力/功耗墙的唯一路径,2026年定为硅光子技术商用元年,实现“光进铜退”的产业变革。
为此,英伟达推出了全球首个 CPO(Co-Packaged Optics)光电共封装 的 NVIDIA Spectrum-X Ethernet Switch,将光模块直接集成到芯片封装中,实现电子信号与光信号的直接转换,从而显著提升数据中心网络带宽与能效。据介绍,其能耗仅为传统铜缆的5%,大幅降低AI集群的能耗成本与散热压力。
这项技术由 NVIDIA 与台积电共同开发,目前已经进入量产阶段。
大会还发布“Space‑1 Vera Rubin Module”轨道数据中心,标志着其算力布局从地面延伸至轨道,进一步扩大AI基础设施的覆盖范围。
Space‑1 Vera Rubin Module轨道数据中心的AI算力为H100的25倍。Space-1 Vera Rubin 模组可提供大规模数据中心级 AI 能力,使大语言模型和先进基础模型能够直接在太空运行。未来,可以实现太空场景下的AI数据处理、实时分析等任务,这将拓展AI在航天、太空探索等领域的应用场景。
![]()
此次演讲,黄仁勋还发布多款软件产品,聚焦智能体研发、物理AI落地、开源生态建设,打通从模型到应用的全链路,降低企业AI落地门槛。
OpenClaw已经火了两个月,展现大家对智能体的热情。此次,英伟达推出首款全新工具 NemoClaw,重点优化了开源 AI 智能体 OpenClaw 的安全性与输出质量。
为了确保安全,NemoClaw 由多个关键模块构成,首要组件为 OpenShell—— 一款为 OpenClaw 添加隐私保护与网络安全防护机制的工具。它通过在沙箱环境中运行 OpenClaw,阻止智能体访问与任务无关的文件,同时限制其网络访问权限,为智能体打造安全可控的运行边界。
NemoClaw对标Linux,定位为AI智能体的“操作系统”,填补OpenClaw被收购后企业级开源智能体平台的缺口,是英伟达打破自身CUDA硬件绑定、拓展全行业AI软件生态的核心布局,分为企业级与开发者双版本,提供一站式智能体开发工具。
黄仁勋判断,“未来的编程语言就是人类语言”,每一家SaaS公司都将转型为“AaaS(智能体即服务)”,NemoClaw将成为这一转型的核心支撑平台。
针对物理AI,黄仁勋判断,下一波AI浪潮的核心是“AI理解物理规律、与现实世界交互”,他把2026年定为“人形机器人商业化元年”,与全球人形机器人产业的产业化拐点高度契合,英伟达将重点布局具身智能与物理AI落地。
为此,2024年英伟达就发布了Project GR00T 人形机器人基础模型。今年,英伟达进一步升级了Project GR00T通用机器人基础模型,以支撑人形机器人的自主决策与动作执行。
2026年全球人形机器人量产规模将突破3万台,其中工业制造、特种作业等ToB端场景占比超60%,单台工业人形机器人可替代2-3名人工,年节省成本超15万元,终端售价逐步下降,市场接受度大幅提升,2030年全球量产规模有望达到100万台,市场规模突破万亿,年复合增长率超80%。
此外,还升级Omniverse数字孪生训练平台,为机器人、自动驾驶、工业自动化等物理AI场景提供虚拟训练环境,实现“虚拟仿真→真实落地”的闭环,降低物理AI的研发与落地成本,适配比亚迪、极氪等车企智慧工厂的人形机器人部署需求,支撑物流转运、零部件装配等作业落地。





京公网安备 11011402013531号