在当今快速发展的科技时代,人工智能的浪潮正深刻地改变着世界的面貌。本文将带您走进一场极具前瞻性的对话,揭示人工智能背后的资本逻辑与技术演进。
本月初,在 Citadel Securities 举办的「Future of Global Markets 2025」活动现场,红杉美国合伙人 Konstantine Buhler 与 NVIDIA 创始人黄仁勋展开了一场同台对谈。
黄仁勋回忆起 1993 年那笔来自红杉的早期投资:100 万美元、几乎为零的成功概率,以及一个要“同时发明技术与市场”的想法。三十年后,这笔投资成长为超过 1 万亿美元的市值,回报高达 100 万倍。
Buhler 将这段历程总结为技术复利与资本复利叠加的奇迹,而他将这次对谈的重点分成三个方向:
过去,是从PC到GPU的“加速计算革命”;
现在,是从GPU到AI工厂的“系统革命”;
未来,则是Agentic与PhysicalAI的“智能革命”。
从 0% 概率到第一性原理的信念
1993 年,黄仁勋 30 岁。那一年,硅谷的所有投资几乎都围绕通用处理器和摩尔定律展开,集成微处理器被视为计算革命的核心。英特尔正以指数级速度压缩晶体管尺寸,几乎所有资金都流向这条看似无可替代的路径。黄仁勋选择逆向思考:如果通用处理器注定要遇到物理极限,那么新的计算方式一定会出现。
他和团队观察到一个核心矛盾——CPU 的优点在于通用性,但也正因通用,它对极难问题的效率始终有限。于是他们设想:是否可以用“加速器”的方式,为特定领域设计出更高效的计算架构?这种领域专用的算力能够与通用 CPU 并行存在,形成一种“补全型”的计算体系。这便是 NVIDIA 最初的理论起点——加速计算(Accelerated Computing)。
当时的业界环境几乎没有人相信这种模式能成立。黄仁勋回忆,红杉资本的 Don Valentine 在听完融资故事后问他:“你要做的杀手级应用是什么?”他脱口而出“Electronic Arts”,却没想到对方刚好是 EA 的投资人。Don 回答说:“他们 CTO 14 岁,还得家长接送上班。你确定这就是你的 killer app?” 那时的共识是:“要同时发明技术和市场,成功概率约为 0%。”
NVIDIA 的突破,恰恰来自这种“0% 概率”的赌注。黄仁勋决定自己去创造市场。为了让加速计算有现实需求,他们选择 3D 图形作为落地场景——一方面它具备真实世界的物理复杂度,另一方面又有足够强的视觉反馈能推动硬件升级。从本质上,3D 图形的计算任务就是“模拟现实”,而这背后是一套关于线性代数、光线追踪与动力学的数学体系。黄仁勋意识到,如果能把这套数学在硬件层面加速实现,就不只是做图形,而是开启一条新的计算路径。
公司因此诞生在一个“双重虚空”中——没有市场,也没有前例。NVIDIA 必须在自建生态的同时培养开发者,让“图形加速”从垂直场景变成通用语言。黄仁勋形容那是一次同时“发明技术、发明市场、发明路径”的过程。“我们要做的不只是一个芯片,而是一种新的计算范式。”
他始终坚持从第一性原理推演未来:当一种技术今天运转得极好时,应当回头问,它的基础假设是什么,这些假设是否会改变?这种思维让 NVIDIA 在看似被主流占满的赛道中,看到了拐角后的另一种逻辑。
1990 年代末,NVIDIA 终于等来了一个信号——3D 图形游戏成为消费级现象。Electronic Arts、暴雪、索尼等厂商推动了 GPU 市场爆发,而 NVIDIA 在图形芯片上建立的优势,逐渐积累成庞大的软件生态与开发工具链。黄仁勋把这看作公司第一阶段的闭环:从硬件创新者变成生态平台创造者。
他认为,“能成为通用计算平台的,不只是性能最强的芯片,更是能持续吸引开发者的系统。”
正是这种理念,为后来 CUDA 的诞生埋下伏笔——那是一场真正意义上的“计算解封”,让 GPU 从图形设备变成面向所有科学与 AI 研究者的通用加速平台。
从显卡到“通用计算引擎”
CUDA 的诞生,是 NVIDIA 从硬件公司跃迁为计算平台的关键时刻。最初,GPU 被视为游戏和视觉领域的专用芯片,属于一条狭窄而激烈的赛道。黄仁勋回忆:“我们当时不仅要造一项全新的技术,还得同时让一个不存在的市场被创造出来。” 换句话说,他们必须让一项“不通用”的技术具备通用性。
在 2000 年前后,GPU 市场一度涌现出上百家竞争者。多数公司停留在显卡性能迭代上,而 NVIDIA 选择把“图形运算”中的并行能力,推广到更广的计算问题上。他指出,3D 图形的数学本质是“物理模拟”与“线性代数”,这些结构恰好是许多科研和工程问题的共性。如果能让 GPU 支持通用矩阵运算,那么几乎所有需要高并行计算的任务都可以被加速。
这便是 CUDA 的思想起点——让 GPU 成为通用计算引擎。CUDA 不仅是一套软件工具,更是一种标准语言,它让 GPU 能被科学家、工程师和开发者像调用 CPU 一样调用。此举彻底改变了 NVIDIA 的定位:从芯片设计公司变成计算平台的提供者。黄仁勋称其为“第二次发明”——发明的不只是硬件,而是整套市场扩散机制与开发者生态。
为了让生态真正运转,NVIDIA 推出了一项名为“CUDA Everywhere”的计划。黄仁勋亲自走访全球大学与研究机构,从地震分析、分子动力学到量子化学,把 CUDA 植入科研体系。“我们不只是去卖 GPU,而是去启发人们用新的方式思考计算。” 这种自下而上的传播,让 CUDA 成为高性能计算的通用语言。
真正的爆发点出现在 2012 年。那一年,深度学习在学术界迎来转折,AlexNet 在 ImageNet 竞赛上以压倒性优势获胜,而整个模型正是在 NVIDIA GPU 上训练完成的。黄仁勋当时正试图解决计算机视觉问题,对传统算法的脆弱和复杂感到挫败。与此同时,Geoffrey Hinton、Andrew Ng、Yann LeCun 等研究者也在用 CUDA 加速神经网络。几位研究者之间的“偶遇”,成了这场革命的催化剂。
NVIDIA 团队很快意识到,深度学习的计算需求和图形计算极为相似——都是大规模矩阵乘法。于是他们为神经网络专门开发了 CUDA DNN(CUDNN)库,使模型训练速度成倍提升。黄仁勋回忆:“我们和他们看到的是同一个结果,但我们想的是,如果深度学习能在视觉上奏效,那它还能在哪些领域奏效?”
这次反向推理成为 NVIDIA 的长期转折点。团队得出一个关键结论:深度神经网络是“通用函数逼近器”,能学习任意复杂函数。无论是卷积、循环网络,还是后来加入状态机的 Transformer,本质上都在扩展这种“可学习的函数空间”。于是公司开始以此为前提重新设计整个计算栈——从芯片到系统,从软件到算法。
“当我们意识到这项技术能学习任何函数,我们就明白,计算的每一层都可以被重新定义。” 黄仁勋说。
这一决定让 NVIDIA 走出硬件公司的边界,也奠定了它在 AI 革命中的核心位置。接下来的十年,CUDA 不再是图形接口,而成为新一代智能计算平台的语言底座。
AI 工厂:从数据中心到生产体系的重构
2016 年,黄仁勋发布了世界上第一台专为 AI 设计的计算机—— DGX-1。那是一个完全不同于传统服务器的机器,内部整合了 GPU、CPU、网络与软件栈,构成一个可直接进行模型训练的封闭系统。他在 GTC 大会上展示这台电脑时,台下反应寡淡——没人理解这是什么。直到会后,Elon Musk 对他说:“我可以用一台。” 那时的 OpenAI 还只是一个非营利组织,而黄仁勋笑称自己是“DoorDash 的电脑外卖员”,亲手把 DGX-1 送去旧金山。
这段插曲成了日后产业转折的象征。那台电脑后来成为所有 OpenAI 模型的起点,也定义了“AI 工厂”这一概念。黄仁勋解释,DGX-1 定价 30 万美元,是当时全球最贵的计算节点。“它最初并不成功,所以我得出的结论是——我们做得还不够大。” 下一代产品在规模和集成度上全面提升,很快成为业界标配。
在他看来,AI 工厂的核心不是芯片性能,而是系统整合。NVIDIA 不再只是设计单颗 GPU,而是从建筑供电到机架布线,从交换机、网络协议到软件栈,提供一整套可落地的“算力生产线”。“我们是世界上唯一一家能在给定电力和空楼的情况下,交付完整计算基础设施的公司。” 这种纵向一体化让创新速度成倍提升:所有硬件与软件保持兼容,每年迭代一次,性能提升近 10 倍。
他强调,兼容性带来的不是惯性,而是速度。正如 Windows 生态曾推动 PC 快速演化,统一的软件标准让 GPU 系列得以以系统化方式升级。“我们每年都在重写下一代工厂,而这些工厂彼此软件兼容,这种结构性优势就是创新速度。”
AI 工厂与传统数据中心的区别在于,它不是存储和检索信息,而是“生成智能”。黄仁勋说,“数据中心是被动的,AI 工厂是主动的。” 在相同功率条件下,NVIDIA 的系统能以三倍能效完成推理任务,这意味着客户在同样的 1 GW 能源里,可以生成三倍的智能内容、获得三倍的收入。AI 工厂的计算吞吐率直接决定产出能力,因此他称其为“生产设施”而非“数据仓库”。
他进一步指出,NVIDIA 的快速增长并非泡沫,而是来自真实需求的累积。2000 年的互联网公司大多没有盈利,而今天的 AI 已经深入支撑全球超级平台的核心业务:搜索、推荐、广告、短视频,乃至量化交易。Google、meta、Amazon 每年数千亿美元的营收都在依赖 AI 运行,即使没有 OpenAI 或 Anthropic,这个产业也已存在巨量需求。
同时,新的“AI 制造业”正在出现——大型模型公司如 OpenAI、xAI、Gemini、Claude 正成为“模型制造商”,建设自有的 AI 工厂,为下游企业提供模型和算力服务。这些模型的用途不再局限于生成文本,而是将进入一个更大的市场——劳动。
黄仁勋称之为“Agentic AI”,即数字劳动力。企业的员工队伍将首次同时包含人类与数字员工,后者通过模型执行代码编写、营销、设计、财务等任务。“我们公司内部 100% 的工程师都在使用 Cursor 等工具,它们成为每位员工的第二个大脑。” 他认为,这一产业的潜在市场规模超过 100 万亿美元。
与之并行的是“Physical AI”——把智能嵌入物理世界。自动驾驶是数字司机,未来还会有数字工人、数字机械手、数字助理。所有“能动的事物”都可能成为 AI 的新身体。“这两个市场,一个对应数字劳动力,一个对应物理劳动力,加起来几乎覆盖了人类经济的全部。”
在这一逻辑下,NVIDIA 的产品定义彻底改变:GPU 不再是硬件组件,而是构建智能工厂的最小生产单元。黄仁勋把这种转变概括为一句话——“我们正在制造制造智能的机器。”
Agentic 与 Physical AI:通用智能的“双重具身”
当生成式模型从内容到行动跃迁,AI 的边界被重新划定。黄仁勋指出,AI 工厂不仅在云端生成语言与图像,它们生产的是“可被调用的智能”,并将以两种形态落地——数字劳动力(Agentic AI)与具身智能(Physical AI)。这意味着,AI 第一次在认知和物理两个维度同时进入社会分工体系。
在企业端,Agentic AI 的应用已经开始普及。过去,AI 是人类的“工具”,今天它变成了“数字同事”。软件开发、营销策划、法务审阅、客户支持都在被数字代理部分接管。黄仁勋透露,NVIDIA 内部已经实现“全员 AI 协作”:所有芯片设计师和软件工程师都由 Cursor 等智能体辅助完成任务。“AI 不再只是加速人类工作,而是与人类共同产出。”
他进一步推演了未来企业的形态——人类与数字员工共存,AI 将拥有岗位、层级与培训体系。每个组织都需要学习如何“入职”一名 AI 员工:通过微调与知识注入,让它理解公司的文化、流程与语料。这在他看来,是 CIO 的下一代任务:“未来 IT 部门将成为数字员工的 HR 部门。”
与之对应的另一条路径是 Physical AI。黄仁勋称其为“具身智能”的产业革命。自动驾驶是最典型的例子——数字司机替代人类操作方向盘,而类似逻辑正从车扩展到机械臂、物流机器人、服务机器人等一切能被物理控制的对象。“如果 AI 可以生成一段视频中人类开瓶、喝水的动作,那同样可以驱动一个机械体完成这件事。”
这一推理背后是对“具身学习”的系统性设计。要让机器人具备通用智能,需要三个层次的计算体系:训练它的 AI 工厂、让它试验的虚拟世界,以及支撑它运行的大脑计算机。NVIDIA 在这三层都提供产品——用于模型训练的 GPU 集群,用于仿真的 Omniverse 平台,以及嵌入机器人本体的实时计算芯片。
他将这一过程比作“虚拟世界的孵化”:AI 首先在仿真环境中以游戏角色的方式学习数万次,掌握物理法则和感知—反馈循环,再跨入真实世界执行任务。“虚拟训练的世界和现实之间的差距越来越小,机器人可以在模拟中成长,然后直接进入工厂或街道。”
Omniverse 在这里扮演着关键角色。它是一个可精确复现物理世界的 3D 数字空间,机器人在其中学会抓取、移动、避障等动作。黄仁勋认为,“Omniverse 是 Physical AI 的实验室,是未来机器人文明的操作系统。”
当被问及行业节奏时,他指出,RoboTaxi 已经是现实,而通用型机器人正在迅速接近可用门槛。自动驾驶与人形机器人在架构上高度相似:都是多模态、可泛化、端到端的智能系统,只是具身方式不同。“我能开车,也能操作刀叉,本质上是同一个智能在不同身体里的体现。”
他总结说,未来的智能系统将具备“三重通用性”:多模态(感知多维输入)、多具身(可嵌入多种物理形态)、多领域(适应多类任务)。AI 不再是一种软件,而是一种可以在不同身体间迁移的“能力单位”。
在这种逻辑下,物理世界被重新定义为智能的延伸空间。每一个可被控制的对象——汽车、机械臂、无人机、外骨骼——都可能成为计算的一部分。黄仁勋认为,这是继互联网和移动计算之后最深刻的基础设施变革:“我们终于能制造出能自己制造智能的机器。”
主权 AI 与生成式计算:世界秩序的重写
在谈及未来十年的地缘技术格局时,黄仁勋把“主权 AI(Sovereign AI)”视作新一轮国家竞争的核心主题。他强调,“没有任何一个国家可以把全部数据交出去,再从外部‘进口智能’。” 数据是国家的知识与经验,一旦依赖外部模型生成判断,主权层面的决策能力就会被削弱。因此,每个国家都必须掌握属于自己的 AI 生产力。
他认为,未来的国家 AI 战略将是“进口 + 自建”的混合模式:核心模型可以采购,但底层训练与本地知识体系必须自有。NVIDIA 已经在全球观察到这一趋势——英国、法国、德国、西班牙、意大利、日本、韩国等国家都在建设本地模型公司,从 Mistral、Nebius 到 N-Scale,形成了遍布全球的主权 AI 网络。技术门槛的快速降低,使得这种“国民智能体”的构建变得现实。
当被问及中美关系与出口管制时,黄仁勋选择了审慎的表达。他指出,美国希望在 AI 竞赛中保持领先,但“要警惕让赢得比赛的逻辑变成输掉市场的逻辑”。目前 NVIDIA 在中国市场的份额从 95% 下降至 0%,他直言:“我无法想象这对任何一方都是好主意。” 在他看来,限制政策不仅削弱了美国的出口能力,也阻断了世界最庞大的开发者群体与美国技术的连接。
他提出一种更为平衡的策略:赢得开发者,而不是封锁开发者。 “AI 的胜负关键不在芯片,而在谁的技术栈成为全球标准。我们希望世界建立在美国技术之上。” 中国拥有全球约一半的 AI 研究人员,若他们无法使用美国体系构建模型,长期看反而会促成新的技术分裂。黄仁勋强调,应当以“细腻的策略”在安全与开放之间取得动态平衡。
话题转向安全与生成。黄仁勋认为,未来的 AI 安全将类似网络安全——不是依赖单一防线,而是通过数以百万计的“安全 AI”形成协作网络。“当智能的边际成本趋近于零,安全智能的成本也会趋近于零。” 每个大型模型都会被一群专门监控、修正、过滤的安全模型包围,企业内部外部的系统都将拥有自己的“数字卫士”。
这种演化也带来了新的计算范式。他用一个例子解释这种转变:Perplexity 是生成式的,而 Google 是检索式的。前者基于理解与生成实时构建答案,后者依赖事先存储的网页。视频领域的 Sora、NanoBanana 等产品也遵循相同逻辑——它们不再播放记录,而是直接“生成现实”。黄仁勋说:“以前的计算是去‘读取’,现在的计算是去‘创造’。”
他用一个类比作结:人类的思考过程也是生成式的。每一次对话、每一个判断都在当下被创造,而不是去“检索”记忆库。“你刚刚问的每个问题,我都不是回到办公室找答案,而是即时生成。” 这就是未来计算的样子——“100% 生成式的世界,每一个像素、每一句话、每一个动作都在实时被创造。”
在这一体系下,AI 工厂的作用不再是数据中心,而是人类创造力的底层能源。每一座工厂都在生产智能,所有生成的内容、代码、语言、决策,都是“产出”。黄仁勋估算,目前全球的 AI 基础设施投资不过数千亿美元,而这一曲线将迅速攀升到每年数万亿美元的规模。
“我们正处在旅程的起点。”他平静地说。
从加速计算到 CUDA,从 GPU 到 AI 工厂,从 agentic 到 physical,再到主权 AI,NVIDIA 已经不只是制造硬件的公司,而是构建未来文明“智能能源”的企业。
“未来的计算机,将是诗人、工程师、同事和伙伴。”