当前位置: 首页 » 资讯 » 新科技 » 正文

英伟达不想只卖芯片了

IP属地 中国·北京 虎嗅APP 时间:2026-03-17 22:21:31


本文来自微信公众号:字母AI,作者:苗正,原文标题:《瞄准1万亿美元,黄仁勋把产品从芯片一路铺到太空》,题图来自:视觉中国

黄仁勋又站上了圣何塞SAP中心的舞台。这一次的GTC keynote,他用了将近两个小时,把英伟达的野心从芯片一路铺到外太空。

表面上看,这是一场产品发布会。


Vera Rubin平台正式亮相,七颗芯片全部投产; 收购Groq,其产品首次以“Groq 3 LPX”的身份嵌入英伟达的推理体系; 自研CPU Vera问世,专为agent而设计; 发布DLSS 5,把神经渲染带进游戏画面; 基于爆火的OpenClaw,推出了英伟达自家的NemoClaw; 拉来Mistral、Perplexity、Cursor等一众AI公司,组建Nemotron开源模型联盟; 自动驾驶方面,比亚迪、吉利、日产、五十铃接入英伟达的DRIVE Hyperion平台,Uber宣布2028年前在28个城市部署英伟达全栈自动驾驶车队; 机器人基础模型GR00T N2亮相; 甚至还有太空计划,英伟达也要把算力送上轨道。

但黄仁勋真正想传达的信息,比任何一款产品都大。

他给出了一个数字:从2025年到2027年,AI芯片的营收将要超过1万亿美元。

黄仁勋说,在AI时代,token是新的货币,AI工厂是生产它们的基础设施。

接下来,黄仁勋先讲训练,再讲推理,然后是智能体、物理 AI、机器人、自动驾驶,层层递进。

每一层都对应更大的基础设施需求,而如今的英伟达,每一层都有产品可以卖。

这场keynote看下来不像是一份产品报告,更像一张帝国版图。

Vera Rubin:七颗芯片,一台超级计算机

Vera Rubin是这场发布会的核心硬件。它由七颗芯片组成:Vera CPU、Rubin GPU、NVlink 6交换芯片、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6以太网交换芯片,以及新整合的Groq 3 LPU。

这七颗芯片全部投产,设计目标是组成一台协同工作的超级计算机,从大规模预训练、后训练、测试时推理扩展,到实时的agent推理,这一台机器就可以覆盖AI的所有流程。


核心产品是Vera Rubin NVL72机架,集成72颗Rubin GPU和36颗Vera CPU,通过NVlink 6互联。

黄仁勋称,相比上一代Blackwell平台,NVL72训练大型混合专家模型所需的GPU数量减少到四分之一,推理吞吐量每瓦提升10倍,每token成本降至十分之一。

黄仁勋说,agent的拐点已经到来,Vera Rubin正在开启历史上最大规模的基础设施建设。

同时黄仁勋还预告了Vera Rubin之后的下一代架构Kyber,采用垂直插入的计算托盘设计以提升密度和降低延迟,将搭载在2027年出货的Vera Rubin Ultra上。

Groq LPU 登场

训练是英伟达发家之本,但推理才是接下来真正的战场。

因为训练只是一次性的重活,推理才是永不停歇的日常。

每一次你向AI提问、每一次你让AI帮你写代码,背后都是推理在运转。

黄仁勋提出的方案是把推理拆成两个阶段,分别用不同的芯片来处理。

大语言模型的推理分为两步:prefill(预填充)和decode(解码)。prefill阶段处理你输入的提示词,属于计算密集型任务,GPU擅长这个;decode阶段则是逐个生成回答的token,属于带宽密集型任务,需要极高的内存读取速度。

或者我们换一种方式来理解黄仁勋的话,prefill是“读题”,decode是“写答案”。读题可以一目十行并行处理,写答案只能一个字一个字往外蹦。

Groq 3 LPU就是为decode阶段而生的。


LPU全称Language Processing Unit(语言处理单元),由Groq公司开发。

这家公司由前谷歌TPU团队成员创立,英伟达在2025年底以200亿美元收购了其核心资产。

每颗Groq 3 LPU内置了500MB的SRAM(静态随机存取存储器),带宽达到150TB/s,是Rubin GPU中HBM带宽(22TB/s)的近7倍。

SRAM可以理解为芯片内部的“超高速缓存”,容量小但速度极快,特别适合decode阶段对带宽的极端需求。

英伟达将256颗Groq 3 LPU装进一个LPX机架,与Vera Rubin NVL72机架并排部署。Rubin GPU负责prefill的重计算,Groq LPU负责decode的高带宽输出。

黄仁勋说,这种组合在万亿参数模型上能实现每兆瓦推理吞吐量提升35倍。

NemoClaw

黄仁勋在台上直接点名了Claude Code和OpenClaw,他说Claude Code和OpenClaw引起了agent的拐点。

黄仁勋夸赞OpenClaw,称OpenClaw向所有人打开了AI的下一个前沿,成为历史上增长最快的开源项目。Mac和Windows是个人电脑的操作系统,OpenClaw是个人AI的操作系统。这是整个行业一直在等待的时刻。


英伟达为OpenClaw推出了NemoClaw。

NemoClaw是通过NVIDIA Agent Toolkit优化过后的OpenClaw,一条命令即可完成安装。它的核心组件是OpenShell,这是一个提供开源模型和隔离沙箱的环境,为agent加上基于策略的安全、网络和隐私护栏。

黄仁勋说,OpenShell为OpenClaw提供了下面缺失的基础设施层,让agent在获得执行权限的同时受到安全约束。

NemoClaw的模型调度采用混合架构:本地运行Nemotron等开源模型处理隐私敏感任务,通过隐私路由器(privacy router)调用云端前沿模型处理更复杂的请求。

NemoClaw可以运行在GeForce RTX的电脑和笔记本、RTX PRO工作站,以及DGX Station和DGX Spark AI超级计算机上,提供7×24小时本地计算支持。

Nemotron联盟

英伟达也要在开源模型层上搞点动作。

Nemotron联盟是一个全新的合作机制,首批成员包括Black Forest Labs、Cursor、LangChain、Mistral AI、Perplexity、Reflection AI、Sarvam和Thinking Machines Lab(由前 OpenAI CTO Mira Murati 创立)。

联盟的第一个项目是由Mistral AI和英伟达联合训练一个基础模型,其他成员贡献数据、评估框架和领域专业知识。模型将在英伟达DGX Cloud上训练,开源发布,并成为即将推出的Nemotron 4模型家族的基础。

黄仁勋的潜台词就是,英伟达希望开源模型生态繁荣,因为开源模型的用户最终需要英伟达的硬件来训练和部署。

一个由多家AI公司共同参与的开源模型联盟,既能对抗闭源巨头的垄断趋势,也能确保英伟达的基础设施在开源生态中保持核心地位。

自动驾驶

自动驾驶是英伟达近几年的重点之一。

比亚迪、吉利、日产、五十铃宣布采用英伟达DRIVE Hyperion平台开发L4级自动驾驶车辆。

Uber宣布与英伟达扩大合作,计划到2028年在28个城市、四个大陆部署全栈英伟达自动驾驶软件驱动的自动驾驶车队,首批城市是洛杉矶和旧金山湾区,2027年上半年启动。

Bolt、Grab、Lyft 也在接入 DRIVE Hyperion。


L4级自动驾驶意味着车辆在特定条件下可以完全自主驾驶,不需要人类随时准备接管。

目前大多数量产车上的L2级辅助驾驶仍然要求驾驶员时刻保持注意力,AI只是“辅助”;L4则是AI真正在开车,人类可以不管。

黄仁勋还借此机会发布了Alpamayo 1.5,这是一个可交互、可引导的自动驾驶推理模型,能接受视频、自车运动历史、导航指引和自然语言提示作为输入,输出带有推理链的驾驶轨迹。

开发者可以通过文本提示直接调整车辆行为。

AI 工厂的数字孪生

英伟达推出了DSX Air,一个用于在软件中模拟AI工厂的SaaS平台。

黄仁勋前几年提出过一个叫“数字孪生”(Digital Twin)的概念,是指在虚拟环境中创建一个与真实物理系统完全对应的数字副本。

工程师可以在这个虚拟副本上进行测试、优化和故障排查,而不需要碰真实的硬件。

就像你搬新家之前,先在3D软件里把家具摆一遍,看看哪里不合适。

只不过这里“搬”的是一整座超大规模AI数据中心。


DSX Air允许客户在硬件到货之前,就在模拟环境中搭建完整的 AI 工厂。

计算、网络、存储、编排、安全,全部按照实际部署方案配置。

CoreWeave已经在使用DSX Air来模拟和验证其AI工厂环境。

黄仁勋称,这种方式可以将“从部署到产出第一个token”的时间从数周甚至数月缩短到几天甚至几小时。

配合DSX Air的是Vera Rubin DSX AI工厂参考设计和Omniverse DSX蓝图。

前者是一份关于如何设计、建造和运营 AI 工厂基础设施的完整指南,后者则提供物理精确的数字孪生能力,用于大规模 AI 工厂的设计和仿真。

Cadence、达索系统、西门子、施耐德电气等工业软件巨头都在接入这套体系。

黄仁勋还发布了DSX Max-Q动态功率分配技术,称可在固定电力的数据中心内多部署30%的AI基础设施。

DSX Flex软件则让AI工厂成为电网灵活资产,黄仁勋说可以释放100吉瓦的闲置电网容量。

存储也要重新发明

BlueField-4 STX是英伟达为agent设计的新存储架构。

传统数据中心的存储系统提供大容量通用存储,但缺乏agent所需的实时响应能力。

agent在实际工作中,需要跨多个步骤、工具和会话保持上下文记忆,传统存储的延迟会拖慢推理速度、降低GPU利用率。

STX架构的首个落地产品是CMX上下文记忆存储平台,它在GPU内存之外扩展了一个高性能上下文层,用于可扩展的推理和智能体系统。

黄仁勋称,与传统存储相比,CMX可提供5倍的每秒token吞吐量、4倍的能效提升和2倍的数据摄取速度。

CoreWeave、Crusoe、Lambda、Mistral AI、Nebius、Oracle等计划采用STX用于上下文记忆存储。Dell、HPE、IBM、NetApp、VAST Data等存储厂商正在基于STX参考设计构建下一代AI存储基础设施。

DLSS 5:游戏画面的“GPT 时刻”

游戏才是英伟达的老本行。

黄仁勋在演讲中提到,DLSS 5是自2018年推出实时光线追踪以来最重大的图形突破。

DLSS全称Deep Learning Super Sampling(深度学习超级采样),是英伟达用AI提升游戏画面质量和性能的技术。

此前的版本主要通过AI放大分辨率和生成中间帧来提升帧率。DLSS 5引入了一个实时神经渲染模型,能够为游戏画面注入照片级真实的光照和材质效果。


简单来说,以前的DLSS是“让画面更流畅”,DLSS 5是“让画面更真实”。

它接收游戏每一帧的颜色和运动向量作为输入,用AI模型理解场景中的角色、头发、布料、半透明皮肤等复杂元素,以及正面光、逆光、阴天等环境光照条件,然后生成视觉上精确的增强图像。

Bethesda的《星空》《上古卷轴》、CAPCOM的《生化危机》、育碧的《刺客信条:影》、腾讯、网易等厂商已确认支持。

DLSS 5将于今年秋季推出。

太空计算:最后的边疆

最后,英伟达也宣布进军太空计算。

黄仁勋说,太空计算是最后的边疆,现如今已经到来。

“随着英伟达部署卫星星座、向更深的太空探索,智能必须存在于数据产生的任何地方。太空与地面系统之间的AI处理实现了实时感知、决策和自主运行,将轨道数据中心变成发现的工具,将航天器变成自主导航的系统。与我们的合作伙伴一起,我们正在将英伟达延伸到地球之外——大胆地将智能带到它从未到达的地方。”

于是黄仁勋拿出了Space-1 Vera Rubin Module,这是一个面向轨道数据中心的计算模块。

采用紧密集成的CPU-GPU架构和高带宽互联,专为尺寸、重量和功耗(SWaP)受限的太空环境设计。

黄仁勋称,相比H100,Space-1在太空推理场景下提供25倍的AI算力提升,能够在轨道上直接运行大语言模型和高级基础模型,处理来自太空仪器的海量实时数据流。

配合Space-1的还有两款已经可用的平台:IGX Thor和Jetson Orin。

IGX Thor提供工业级耐久性和功能安全,适合任务关键型边缘环境。

Jetson Orin则是超紧凑、高能效的AI推理模块,已经部署在卫星上用于视觉、导航和传感器数据的实时处理。

在地面端,RTX PRO 6000 Blackwell Server Edition GPU用于地理空间情报的大规模处理,英伟达称其分析海量卫星图像档案的速度是传统CPU系统的100倍。

本文来自微信公众号:字母AI,作者:苗正

本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。如对本稿件有异议或投诉,请联系 tougao@huxiu.com。

本文来自虎嗅,原文链接:https://www.huxiu.com/article/4842734.html?f=wyxwapp

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新