当前位置: 首页 » 资讯 » 新科技 » 正文

熬夜看完GTC 2026黄仁勋的演讲,英伟达这次要把AI送上天?

IP属地 中国·北京 编辑:钟景轩 TechWeb 时间:2026-03-17 12:34:42

3月17日消息,北京时间3月17日凌晨,英伟达GTC 2026大会在圣何塞拉开帷幕。身穿标志性皮衣的黄仁勋再次登上舞台,带来了一场超过两小时的“全栈AI”盛宴。

从全新的硬件平台Vera Rubin,到改变游戏规则的DLSS 5,再到进军太空的算力模块,英伟达正在用一场发布会,描绘从地面到宇宙、从训练到推理、从虚拟到物理世界的完整AI蓝图。

本文为你划重点,一文看懂所有重磅发布。

宏大的新蓝图:万亿美元营收与“代币工厂”新概念

黄仁勋在演讲开场就抛出一个惊人的预测:到2027年,市场对Blackwell和Vera Rubin系统的订单需求将带来至少1万亿美元的营收,这个数字较去年的预测直接翻了一番。英伟达的底气,来自AI算力需求的指数级增长。

黄仁勋指出:AI正在从“模型训练时代”加速迈入“模型推理时代”。过去,人们关注的是训练一个模型需要多少算力;而现在,当模型被部署到实际应用中,每一次对话、每一张图片生成、每一段视频合成,都需要消耗大量的推理算力。这些推理任务产生的“输出”——黄仁勋将其命名为 “智能代币”(Intelligent Tokens)——将成为未来数字经济的基本单位。

“每一个Token都是一次智能的生产,就像工厂里生产出的零件。”黄仁勋解释道。基于这个逻辑,未来的数据中心将不再是简单的计算中心,而是一座座 “代币工厂”。企业的竞争力将不再取决于拥有多少台服务器,而取决于生产这些智能代币的成本与效率。因此,一个新的核心指标诞生了:每瓦特产生的Token数。这不仅考验芯片的绝对性能,更考验整个计算系统的能效比和吞吐量。

这意味着英伟达正在将AI算力从“奢侈品”推向“大众商品”。当算力像电力一样可以被量化、被定价,整个产业的商业模式都将被重塑。

硬件核弹:从Vera Rubin到太空数据中心

如果说去年的Blackwell是英伟达投下的“AI超级芯片”,那么今年的Vera Rubin,则是一座完整的、可落地的 “AI工厂平台”。

1. Vera Rubin AI工厂平台:从芯片到系统的全面革新

Vera Rubin并非单一的产品名称,而是一个由多个组件构成的完整平台,包括:

Vera CPU:这是英伟达自主研发的新一代中央处理器,专为AI工作负载优化。与上一代Grace CPU相比,Vera在核心数量、内存带宽和互连速度上都有大幅提升,能够更高效地为GPU“喂料”,消除数据搬运的瓶颈。

Rubin GPU:作为平台的“心脏”,Rubin GPU采用先进的制程工艺和全新的架构设计,其AI算力预计将达到H100的数十倍。黄仁勋没有透露具体参数,但强调Rubin GPU将全面支持下一代AI模型,包括万亿参数级别的多模态模型。

第六代NVlink:随着GPU数量的增加,芯片间的通信成为新的瓶颈。第六代NVlink将GPU之间的互联带宽推至新高,使得数百块Rubin GPU可以像一个巨大的“虚拟GPU”一样协同工作,大幅提升大规模并行计算的效率。

CPO交换机:为了解决传统铜缆传输在高速下的信号衰减和功耗问题,英伟达推出了集成共封装光学(Co-packaged optics,CPO) 技术的交换机。这种交换机将光学引擎与交换芯片封装在一起,用光信号替代电信号进行数据传输,不仅带宽更高、延迟更低,而且功耗大幅下降。这是构建下一代超大规模AI集群的关键技术。

整个Vera Rubin平台采用全液冷设计,不仅提升了散热效率,还使得数据中心的安装密度和运维效率得到革命性提升。黄仁勋将其比喻为“AI工厂的流水线”,客户只需将平台接入电力网络和数据源,即可快速启动AI生产。

2. 与Groq深度合作:LPU推理架构带来35倍速度提升

大模型推理的速度和成本,一直是制约AI应用普及的关键因素。为此,英伟达与明星初创公司Groq达成深度合作,将后者的LPU(语言处理单元) 架构正式纳入自己的产品矩阵。

Groq 3 LPU是专为顺序计算(如大语言模型推理)设计的芯片,与GPU的并行计算形成完美互补。本次发布的Groq 3 LPX机架集成了256个LPU,可以与Rubin GPU协同工作,通过一种名为 “解耦推理” 的技术,将大模型推理过程中的“预填充”(Prefill,处理输入提示)和“解码”(Decoding,逐字生成输出)两个阶段分开处理。GPU负责高并发的预填充阶段,而LPU则专注于低延迟的解码阶段,从而将整个推理流程的Token生成速度提升35倍。

这意味着,未来用户在使用AI助手时,将几乎感受不到延迟,实现真正的实时对话。这套系统预计在今年下半年出货,将首先面向需要极低延迟的云服务商和大型企业。

3. Rubin Ultra与下一代Feynman架构:未来已来

在演讲中,黄仁勋还罕见地展示了更远期的路线图。用于未来Rubin Ultra平台的Kyber机架首次亮相,它可以连接多达144块Rubin Ultra GPU,构建一个超大规模的AI计算单元。Rubin Ultra将采用更先进的封装技术,将多个芯片组合成一个巨大的逻辑芯片,进一步突破单芯片的物理极限。

黄仁勋预告了下一代架构——Feynman架构GPU。它将采用3D堆叠芯片和定制化的HBM(高带宽内存)技术,标志着英伟达已经将研发目光投向了2030年。。

4. Space-1太空数据中心模块:AI的触角伸向宇宙

如果说地面上的AI工厂已经足够震撼,那么英伟达发布的Space-1 Vera Rubin模块,则将AI的疆域拓展到了太空。

这是一个为极端太空环境设计的、具备抗辐射能力的AI计算模块,可以部署在卫星或空间站上。它的意义在于:未来的卫星不再仅仅是一个“信号中继站”,而可以成为一个在轨运行的“智能节点”。卫星可以直接处理拍摄的图像、分析传感器数据,甚至实时做出决策,而无需将海量原始数据传回地面。

这将彻底改变遥感、通信、科学探测等领域的游戏规则。例如,一颗气象卫星可以实时识别台风路径并直接发布预警,而不必等待地面处理。黄仁勋将其称为“构建从太空到地面的完整算力架构”的第一步,预示着AI基础设施竞赛已经扩展到地球轨道。

软件与应用:从游戏到企业的全面革新

硬件之外,英伟达的软件生态也迎来重磅更新。

1、DLSS 5:图形领域的“GPT时刻”

黄仁勋将DLSS 5称为图形领域的“GPT时刻”。它不再仅仅是超分辨率和补帧,而是通过生成式AI模型实时渲染整个游戏画面,为玩家带来前所未有的电影级画质飞跃。该技术预计今年秋季上线,游戏显卡的竞争将彻底进入AI驱动的新时代。

2、NemoClaw“一键养虾”平台

这并非真的养虾,而是面向企业级AI代理的部署平台 NemoClaw。它允许企业一键安全部署AI代理,补齐了安全、隐私等企业级能力,让AI员工真正走进公司流程。

3、 “Nemotron联盟”与开放模型

英伟达宣布与Mistral AI等全球顶尖实验室合作,共同开发开放的先进基础模型,并发布开源智能体软件套件,构建一个更开放的AI生态。

物理AI:自动驾驶与机器人走进现实

AI正在走出屏幕,开始与物理世界互动。本次GTC,自动驾驶和机器人领域的进展尤为引人注目。

1. 自动驾驶:中国车企全面拥抱,Uber车队明年上路

比亚迪、日产、吉利、现代汽车宣布加入英伟达 “robotaxi ready”平台,这意味着这些品牌将采用英伟达的全栈解决方案来开发自动驾驶出租车。更引人注目的是,Uber也计划从明年起部署基于英伟达Drive AV软件的自动驾驶车队,共享出行与自动驾驶的结合即将迎来大规模落地。

黄仁勋在现场表示:“自动驾驶可能是第一个价值数万亿美元的机器人产业,而英伟达正在为这个产业提供从训练到部署的完整计算基础设施。”

2. 机器人:与迪士尼合作的“雪宝”惊艳亮相

在演讲的最后,一个特别的嘉宾登上了舞台——由英伟达与迪士尼合作开发的机器人 “雪宝”(Olaf)。这个可爱的机器人不仅能够行走、挥手,还能与黄仁勋进行简单的对话互动,展示了其在物理世界中的灵活交互能力。

这背后是英伟达在机器人领域的长期投入:从用于训练的Isaac Sim仿真平台,到部署在机器人身上的Jetson Thor计算模块,再到驱动其“大脑”的AI模型。雪宝的出现,是英伟达“物理AI”战略的一个缩影:让AI不仅能在虚拟世界中回答问题,更能在现实世界中完成任务。

结语:AI的“工业革命”已经到来

三年前,黄仁勋在GTC上喊出“AI的iPhone时刻”已经到来;今天,他用一场近三小时的演讲,描绘了那个时刻之后更宏大的图景——AI的“工业革命”。

从万亿美元的算力工厂,到太空中的智能节点,再到可以互动的机器人伙伴,英伟达正在构建一个前所未有的AI基础设施帝国。

这场革命的核心逻辑已经清晰:算力不再是稀缺资源,而是像电力一样的基础设施;效率将成为企业的核心竞争力;而AI将从“回答问题”进化到“执行任务”,全面渗透进人类社会的每一个角落。

黄仁勋在演讲结尾说:“计算成本正在急剧下降,创新速度正在指数级上升。现在,是开始构建未来的最好时机。”

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。