皮衣战神,又双叒叕来「砸场子」了!在昨天刚刚过去的 GTC 2025 秋季场,黄仁勋的演讲又一次让英伟达坐稳了芯片第一龙头的位置,整场发布会,堪称火力全开。

芯片龙头的实力,战绩可查
英伟达在大会上释放出极其强劲的营收信号,再次巩固了其在全球 AI 计算领域的绝对领先地位。其中,Blackwell 平台无疑是本次 GTC 的绝对焦点,其大规模部署速度前所未有。
黄仁勋透露,Blackwell 平台在开始生产的仅仅五个季度内,预计将出货高达 600 万个处理器单元,增长速度是上一代 Hopper 平台的五倍,标志着全球 AI 基础设施的部署已进入超高速增长期。
![]()
这样惊人的出货量,充分反映了市场对 Blackwell 架构高性能与高能效的迫切需求,尤其是在训练万亿级参数模型和大规模推理应用中。
根据演示,Blackwell 平台在运行推理模型时,相比 Hopper 实现了九倍的速度提升。这一性能飞跃将大型语言模型(LLM)的响应时间大幅压缩,极大提升了用户体验并解放了计算资源。
在 AI 大规模应用的运营成本方面,英伟达承诺通过「极致协同设计」(extreme co-design)来显著降低 AI token 的生成成本,解决 AI 工厂的核心运营痛点。目前,Grace Blackwell NVlink 72 在生成 token 方面,成本是全世界最低的。性能提升10倍,同时成本降低10倍。
![]()
基于 Blackwell 平台及其后续的 Rubin(Vera Rubin 超级芯片平台)的初期加速部署,英伟达预计到 2026 年,这两个新平台的累计营收将有望达到 5000 亿美元。
如此雄心勃勃的财务目标,底气来自于英伟达对于 AI 基础设施的年度更新战略,以每年一代的速度推出计算平台,以应对业界对更大规模、更高性能 AI 模型训练和推理的需求。
![]()
黄仁勋强调,这 5000 亿美元的数字不仅代表着芯片单元的销售,更反映了全球计算基础设施正加速向英伟达的加速计算模型转型,这标志着一个万亿美元计算拐点的到来。
超级芯片的未来计算版图
一方面,Blackwell 平台正在推动 AI 浪潮;另一方面,英伟达的目光已投向更远的未来:下一代 Vera Rubin 超级芯片纳入战略版图。
![]()
Vera Rubin 超级芯片延续了集成 CPU 和 GPU 的超级芯片设计理念,其中 Vera 作为定制的 CPU,而 Rubin 则作为下一代 GPU。
技术细节显示,Vera Rubin 将带来跨越式的性能飞跃:相比 Grace 平台,Vera 组件将提供 4.2 倍的内存容量和 2.4 倍的内存带宽。
![]()
它将容纳 6 万亿个晶体管,能够提供高达 100 Petaflops (PF)的 AI 计算性能,并配备 2 TB 的高速缓存/快速内存。这些核心参数表明,Vera Rubin 在应对万亿级参数模型和极大规模 AI 推理任务时,将实现 Blackwell 代际无法企及的效率和速度。
作为 Blackwell 的继任者,Vera Rubin 和 Blackwell 将共同构成英伟达高达 5000 亿美元的营收,象征着公司对未来计算架构的持续迭代和投入。
在此宏大计算战略下,英伟达同时公布了两项重量级合作。首先是推出了 NVQ link 互联架构,专为量子处理器(QPU)与英伟达 GPU 超级计算机之间的高速混合模拟而设计,实现了微秒级的计算延迟。
![]()
该技术已获得 17 家量子计算机公司和八个美国能源部(DOE)国家实验室的支持,标志着量子计算和经典 AI 计算的深度融合。
6G 来了?给诺基亚重新「抬咖」
另外一项重量级合作,则是在通信基础设施领域:英伟达宣布与电信巨头诺基亚建立深度战略合作伙伴关系,共同开发下一代 6G 技术。
![]()
诺基亚未来将采用英伟达的 ARC 平台 作为其基站核心,该平台兼容诺基亚现有的 AirScale 基站,意味着全球数百万个基站可通过英伟达技术升级至 6G 和 AI 能力。
这项合作聚焦于两大关键方向:其一是 AI for RAN(AI 赋能无线接入网)。诺基亚拥有 7000 项基础 5G 专利,结合英伟达的 AI 技术,将利用人工智能和强化学习实时调整波束成形,优化环境下的频谱效率。
![]()
考虑到无线网络消耗了全球约 1.5%至 2%的电力,提高频谱效率不仅能增加数据吞吐量,同时也是一项至关重要的能源节约举措。
另外,AI on RAN 则将无线网络转变为一个「边缘工业机器人云」。正如 AWS 建立在互联网之上,英伟达和诺基亚正将云计算能力扩展到基站边缘,创造出一个全新的、超低延迟的计算环境。这对于需要实时决策和响应的工业机器人、自动驾驶车辆和边缘 AI 应用至关重要,开启了一个潜力巨大的边缘计算新市场。

AI 即工作,时代在召唤
「如同电力和互联网一样,人工智能是至关重要的基础设施。」
这个观点不新鲜了,但是黄仁勋又强调了一遍。他指出,当前时代的变革始于一个关键观察:Dennard 缩放定律(Dennard scaling)已停止近十年,晶体管的性能和功耗增益受到物理定律的限制,传统摩尔定律的红利正在消退。
![]()
这种现实使得加速计算这一全新计算模型成为必要,它通过 GPU 和 CUDA 编程模型,利用不断增长的晶体管数量来实现并行计算,突破了通用 CPU 的性能瓶颈。黄仁勋强调,CUDA 编程模型的兼容性维护是英伟达的「宝藏」,经过近三十年的发展才得以实现如今的成就。
![]()
「AI 不是工具,AI 就是工作本身」(AI is not a tool. AI is work.),黄仁勋给出了大胆的论断,暗示着, AI 已升级为直接的生产力要素,将注定是驱动经济增长和创新的核心力量。





京公网安备 11011402013531号