当前位置: 首页 » 资讯 » 新科技 » 正文

老黄:别叫我卖芯片的,其实我是一个“超级包工头”

IP属地 中国·北京 果壳 时间:2026-03-17 10:22:49

当上万人屏住呼吸,等黄仁勋像往年一样掏出一块巨型 GPU 时,他却在主题演讲时重点讲一颗叫 Vera 的 CPU。

老黄没跑题。恰恰相反,这可能是理解英伟达 GTC 2026 最重要的一把“钥匙”:英伟达正在从“卖全世界最好的 GPU”转变为“承包整座 AI 工厂的所有零件、管线、操作系统,甚至是施工蓝图”。

GPU 仍然是心脏(算力核心),但心脏是无法独活的。

35 倍的提升!

先聊硬件。今年 GTC Keynote 的核心是 Vera Rubin 平台。不是一颗芯片,而是一整套计算系统:七颗全新芯片、五款机架级系统、一台超级计算机。


英伟达 Vera Rubin 平台的所有芯片集合|英伟达官方

数字层面看,它就是一头参数怪兽。

Vera Rubin NVlink 72 的峰值算力达到 3.6 Exaflops,搭载 HBM4 显存(288GB),GPU 之间的 NVlink 互连带宽甚至能飙到 260TB/s。

怎么理解这个带宽?上一代 Blackwell 的 NVlink 就像一条省级高速公路,Vera Rubin 好比是直接在 72 颗 GPU 之间修了一张高铁网,每颗芯片到任何一颗相邻芯片的数据延迟都被拉平。全液冷设计意味着这台机器在满载时依然安静得像一台冰箱,而不是像上一代那样嗡嗡作响。


Vera CPU 渲染图|英伟达官方

但真正让人意外的是 Vera CPU。这颗处理器采用 LPDDR5,通常只出现在手机和超薄笔记本里的低功耗内存。把它塞进数据中心 CPU 是什么意思?

英伟达认为,AI 工厂里 CPU 的角色不再是“通用计算老黄牛”,而是“智能体工作流的调度员”。它不需要暴力堆内存带宽,而是需要用最少的电把数据精准地搬到该去的地方。单线程性能和能效比达到现有主流 CPU 的 2 倍。

对英特尔和 AMD 来说,这一刀捅得很精准。

第三位主角是 Groq 3 LPX,英伟达称之为 LPU(语言处理单元)。它内部堆满了 SRAM(静态随机存取内存),三星代工,只负责一件事:以极低延迟把 Token 一个接一个地"吐”出来。


为英伟达 Vera Rubin 平台打造的低延迟推理加速器 Groq 3 LPX |英伟达官方

如果说 GPU 是负责“想明白”的大脑,LPU 就是负责“说出来”的嘴巴。AI 模型的推理生成环节(decode)正是当前最卡喉咙的瓶颈,LPU 就是为打通这个瓶颈而生的。

这三颗芯片组成了一个微妙的分工三角:GPU 负责重计算,CPU 负责调度编排,LPU 负责极速输出。这套异构推理架构配合英伟达自研的 Dynamo 调度软件,最终实现了惊人的效果:

每兆瓦的 Token 吞吐量相比上一代 Blackwell 提升 35 倍。不是 35%,是 35 倍!

从“一间房”到“一栋楼”

如果芯片是器官,那连接它们的网络就是血管。

Kyber Rack(对应 Rubin Ultra 级别)把单个 NVlink 域从 72 张 GPU 扩展到了 144 张。做到这一点靠的不是更粗的线缆,传统线缆的物理极限已经逼近了,而是一种被称为“后置立式中板”的直连技术,简单说就是把机架的背板变成了一块巨大的芯片间高速公路,让铜缆彻底退场。

这种做法很符合英伟达的工程哲学:如果传统路径走到头时,那就重新定义“路”本身。

黄仁勋甚至预告了更下一代的 Feynman 架构(预计 2028 年推出),其中最值得关注的不是 GPU 本身的代号,而是一个技术细节:铜缆 Scale-up 与共封装光学(CPO)Scale-up 将首次共存。

用通俗的话来说,芯片之间近距离用“电信号高速公路”,远距离用“光纤超级铁路”,两套网络无缝衔接。这会从根本上改变 AI 数据中心的物理布局,把“一个房间”级别的集群扩展到“一栋楼”甚至更大的规模。


NVIDIA 公布了其下一代 AI 数据中心解决方案“Rosa Feynman”的更多细节,该方案采用 3D 芯片堆叠技术构建|英伟达官方

Feynman 架构还引入了一颗全新 CPU,代号 Rosa,为了致敬罗莎琳德·富兰克林(Rosalind Franklin),那位用 X 射线晶体学揭示 DNA 双螺旋结构的科学家。

黄仁勋在台上说,就像富兰克林揭示了生命隐藏架构的密码,Rosa 的使命是编排智能体工作负载的完整结构:在 GPU、LPU、存储和网络之间实现高效调度数据、工具与 Token。

命名里的野心已经写得很明白了。

省电就是省钱

硬件再强,堆在机房里不会自动变成印钞机。黄仁勋深谙此道,他在演讲中抛出了一句让所有数据中心运营者冒冷汗的话:

“AI Factory revenues are equal to Tokens per watt. So with power constraints, every unused watt is revenue lost.(AI 工厂的营收等同于每瓦生成的 Token 数。在电力受限的铁律下,每一瓦被浪费的电能,都是真金白银的流失。)”

这句话的背后站着 NVIDIA DSX 平台。这是一个基于 Omniverse 的 AI 工厂数字孪生系统。它把整座数据中心变成一个可实时模拟、可动态调度的虚拟沙盘。结合 AI 智能体自动分配算力和电网资源,DSX 宣称最高可带来 2 倍的系统级吞吐量提升。

从某种程度上来说,这件事的商业含义比任何一颗芯片都深远。


基于 Omniverse 的 AI 工厂数字孪生系统——NVIDIA DS X 平台|英伟达官方

当前全球 AI 基建面临的最大瓶颈不是芯片产能,而是电力资源的紧缺。北美的 GPU 集群已经在跟电网抢电了,很多新建数据中心的落地周期不是被芯片交付周期卡住,而是被电力审批卡住。在这样的特殊背景下,“软件优化让同样一度电多吐出 Token”几乎等于“凭空变出新的数据中心”。

这正是英伟达“卖系统、不只卖芯片”策略的精髓。

同时发布的 BlueField-4 STX 存储架构,可以被理解为 AI 工厂的安保系统和后勤管线。它负责数据的安全传输、加密和调度,让万亿参数的模型可以在分布式存储中高速读写,而不必担心数据泄漏或拥堵。IBM、Dell 等一线厂商已经表态采用。

英伟达正在把自己从一个“硬件供应商”重新定义为一个“AI 基础设施的全栈方案商”。DS X、BlueField、Dynamo 推理调度器、各种 CUDA-X 库……当客户把这些全部用上之后,切换到 AMD 或其他竞品的成本将变得异常高昂。

这是典型的平台锁定策略。它对英伟达的投资者是好消息,但对整个行业的长期竞争生态而言,值得警惕。

SaaS 已死,AaaS 当立

如果硬件和基建是“路”,那跑在上面的“车”就是 AI 智能体(Agent)。

黄仁勋在台上说了一句判断性极强的话:

“Every single SaaS company will become an AaaS company... an Agentic as a Service company.(每家软件即服务公司都将转型为智能体即服务公司。)”


为了让这个预言尽快落地,英伟达发布了 NemoClaw 参考架构。它在 OpenClaw 的基础上增加了隐私和安全控制,核心是一个叫 OpenShell 的安全网关,负责策略执行、网络隔离和隐私路由。你可以把它理解为企业级 AI 智能体的“安全操作系统”。

当一个 AI 智能体需要在企业内网里帮你查数据库、调 API、发邮件时,NemoClaw 确保它不会越权、不会泄密、不会在生产环境里“搞事情”。黄仁勋甚至说 Nemo Claw 可以成为“全世界所有 SaaS 公司的策略引擎”。

这句话的潜台词是:别自己造轮子了,用我的就好。


开源侧,英伟达同步宣布成立 Nemotron 联盟,聚拢了 Black Forest Labs、Cursor、Mistral、Perplexity 等一批当红 AI 明星公司,围绕六大前沿模型家族——语言与推理(Nemotron)、世界与视觉(Cosmos)、通用机器人(Isaac GR00T)、自动驾驶(Alpamayo)、生物化学(BioNeMo)、气象与气候(Earth-2),构建协作生态。

这套组合拳的战略逻辑非常清晰:英伟达不想只做 AI 的“铲子供应商”,它想做 AI 时代的操作系统层。 就像微软当年通过 Windows 控制了 PC 生态一样,英伟达正在通过从硬件到推理框架到智能体运行时的全栈布局,试图定义“AI 应用应该怎么被构建和运行”。


带着机器人谢幕,又一次

如果前面的一切都是在“数字世界”里打转,那 GTC 2026 下半场的主题就是:AI 如何长出一副“肉身”。

自动驾驶方面,英伟达首发了 Alpamayo 平台,一个专为自动驾驶设计的“思考与推理”AI 系统。与此同时,英伟达的NVIDIA Robotaxi Ready 平台新增了比亚迪、现代、日产、吉利四大车企,合计年产能 1800 万辆。 同时宣布与 Uber 达成战略合作,Robotaxi 将直接接入 Uber 的叫车网络。


1800 万辆的年产能意味着什么?这大约是全球年汽车产量的五分之一。当然,“Robotaxi Ready”不等于“明天就能上路”。从硬件就绪到法规允许再到消费者信任,中间还有漫长的路要走。但英伟达的意图很明确:先把硬件平台铺进去,等自动驾驶的法规窗口一打开,这些车就能通过软件升级变成 Robotaxi。这是一个典型的“埋桩”策略。

机器人领域的动作更大。英伟达全面开源了四大物理 AI 基石:Isaac Lab(机器人训练评估)、Newton(可微分物理引擎)、Cosmos(世界模型)和 GR00T(通用机器人推理基础模型)。展区里摆了 110 台机器人,从人形机器人到工业机械臂,甚至还有个通信基站?!


没错,英伟达和 T-Mobile 合作开发的 Ariel AI RAN 基站,本质上是一个装在基站铁塔上的边缘 AI 推理平台。5G 基站不再只是信号中继器,而是变成了一个能“思考”的节点。ABB、Universal Robots、KUKA 等工业机器人巨头已经在整合英伟达的物理 AI 模型和仿真工具。


有趣的是,今年 Keynote 收尾,又让黄仁勋和迪士尼的机器人玩上了。迪士尼《冰雪奇缘》里的雪人 Olaf 从数字屏幕里“走”了出来,摇摇晃晃地在物理舞台上跟黄仁勋对话。这不是预渲染的动画,而是由英伟达的 Newton 物理引擎和 Omniverse 仿真平台实时驱动的物理 AI 演示。黄仁勋还不忘开玩笑说:“Olaf,你的电脑,Jetson,就在你肚子里。”

尽管英伟达展示的物理 AI 在受控环境中表现惊艳,但从“舞台演示”到“工厂车间大规模部署”之间的鸿沟,远比从 Blackwell 到 Vera Rubin 的算力跃升要难跨越。 传感器的可靠性、边缘计算的能耗、安全冗余的成本,这些工程化难题不会因为模型变大而自动消失。


太空、金句与一万亿美元

最后,黄仁勋还扔出一枚“彩蛋”,透露英伟达正在开发 Vera Rubin Space One,一款通过抗辐射测试的星载计算机,目标是把 AI 数据中心部署到近地轨道。这听起来挺科幻的,但背后的目的很实际的:低轨卫星星座产生的海量数据如果全部回传地面再处理,带宽成本和延迟都不可接受,不如直接在太空就地推理。


黄仁勋在演讲中还给出了一个极其大胆的营收预期:2025 至 2027 年间,英伟达预计将获得至少 1 万亿美元的营收。 他归因于 AI 计算需求在过去几年增长了“一百万倍”,以及 AI 原生公司(OpenAI、Anthropic 等)在过去一年获得了 1500 亿美元的风险投资。

这个数字当然听起来有点令人迟疑。一万亿美元的预期建立在“AI 投资持续高速增长”的假设之上,但我们至今没有看到一个能在 Token 经济上自负盈亏、规模化盈利的纯 AI 应用公司。如果 AI 应用层的商业化不及预期,上游基建的采购热情迟早会冷却。但至少在当下,没有人敢赌黄仁勋是错的。

GTC 2026 的核心叙事不是“我们造了一块更强的芯片”,而是“我们把整座 AI 工厂的每一层都重写了一遍,从晶体管到智能体运行时到物理模拟器,然后打包卖给你”。

英伟达已经不再满足只是当 AI 的军火商,它还想当 AI 时代最大的包工头。

作者:本一

编辑:沈知涵

题图及插图英伟达官方网站及GTC发布会直播截图

点个“小爱心”吧


免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。