当前位置: 首页 » 资讯 » 新科技 » 正文

黄仁勋把Token、智能体和万亿美元周期串起来了

IP属地 中国·北京 科技行者 时间:2026-03-24 18:24:07

作者|Yara

GTC大会前两周的旧金山,在摩根士丹利TMT大会上(Morgan Stanley 2026 Technology, Media & Telecom Conference),黄仁勋与摩根士丹利联合主席Dan Simkowitz进行了一场炉边对话。这场对话值得复盘,不仅因为黄仁勋罕见地回顾了NVIDIA三十三年的演进史,更因为他在对话中抛出了一个足以影响未来十年资本配置逻辑的核心论断:“算力等于收入,算力等于GDP。”

而如果把这场炉边对话放到两周后的GTC主题演讲里再看,黄仁勋的逻辑就更完整了:在摩根士丹利的场子里,他先给出结论——算力会直接转化为企业收入,最终也会转化为国家层面的GDP。到了GTC,他则阐述的更明确:今天的数据中心,已经不再只是存储数据的基础设施,而是专门“生产token”的AI工厂;AI将从生成式走向推理式、再走向能够调用工具、执行任务的智能体阶段,一旦软件开始雇佣数字劳动力、企业开始把token当作新产出,算力就是新的生产资料。这更像他对下一轮产业的定义。


一、从4800万美元IPO到460亿美元季度净利润:33年全栈基因的起源

对话开场,Dan Simkowitz作为提问者,首先回顾了与NVIDIA的渊源。27年前,他和搭档Mark Edelstone在摩根士丹利交易大厅一个小舞台上,向摩根士丹利的销售团队首次介绍了NVIDIA和黄仁勋。

当时的数字放在今天几乎像个笑话:IPO融资4800万美元,年化营收约3000万美元。Dan坦言,如今他经常把"十亿"和"万亿"搞混——从年度到季度、从百万到百亿,NVIDIA的成长轨迹确实让人对数量级产生了某种"数字麻木"。

两年前,黄仁勋曾在NVIDIA总部接待摩根士丹利董事会,当时刚宣布单季营收300亿美元。而上周,这个数字变成了460亿美元的净利润。Dan的问题直奔核心:究竟是什么样的战略、文化和技术要素汇聚在一起,才能在如此规模上实现这种超高速增长?

黄仁勋笑着说,"这个问题大概需要37分13秒来回答,也许还要更久一点。"随后他自嘲式的补充了一个细节:他一直记得NVIDIA上市时股价是13美元,但实际上刚才看到的数据是12美元——"我把它记得比实际更乐观了。"当时公司估值大约3亿美元,而Mark Edelstone把投资者准备工作做得太好了,以至于整个IPO路演实际上只有一个问题,每个投资者都在问同一个问题:"你们什么时候倒闭?"黄仁勋说这不是开玩笑,而且这个问题的难度跟Dan刚才提的差不多。

玩笑之后,黄仁勋回到了正题。他说,NVIDIA从创立之初就抱着一个核心理念:创造一个全新的计算平台,一种全新的计算方式。这并不是说旧的方式有什么错,而是新的方式对于解决某些特定问题是不可或缺的。NVIDIA擅长的是加速算法——在大多数软件中,内循环代码可能只占总代码量的5%,但却消耗了99%的计算时间。在那个年代,能够被加速的算法还很少,而其中最重要的一个就是计算机图形学——模拟光线如何在空间中传播。

黄仁勋回忆道,NVIDIA成立的时候,某本杂志的封面正好是《侏罗纪公园》,计算机图形学正在变得越来越强大,虚拟现实的模拟成为可能。NVIDIA把这项技术应用于一个当时并不存在的全新行业——电子游戏。三维图形技术在他的时代实现了现代化和消费化,整个电子游戏产业也在他的时代被创造出来。他特别强调说,"当我说'在我的时代',我的意思是,是NVIDIA把这一切整合到了一起。"

NVIDIA之所以在游戏行业如此根深蒂固、至今仍然如此,很大程度上是因为他们从底层算法开始,就参与了现代游戏产业的塑造。从图形算法库到游戏引擎中的核心技术,没有RTX的贡献,今天的计算机图形学行业不会是现在这个样子。黄仁勋的叙述在这里引出了一个关键概念——全栈(Full Stack)。

他说,加速计算天然要求全栈能力:从架构设计、芯片设计、到上层的库、再到前向集成。

二、全栈即护城河:从前向部署工程师到重新定义系统架构

黄仁勋提到了一个有趣的对比。他说,"最近好像有个新概念叫'前沿部署工程师'(forward deployed engineers)之类的"——这里他大概是在调侃某些新兴AI公司推崇的模式——"NVIDIA的开发技术工程师33年前就已经在做这件事了。"NVIDIA很早就把工程师部署到全球的游戏公司和游戏引擎团队中,将自家技术深度集成到合作伙伴的引擎里。

这种深度集成的成果是显而易见的:如今打开Epic的虚幻引擎,NVIDIA的技术无处不在;走进任何一家游戏开发商,NVIDIA的技术同样无处不在。这就是为什么所有游戏在NVIDIA硬件上运行效果最好——不是巧合,而是33年持续投入的结果。全球有数亿活跃的GeForce玩家,而其中很多人后来转型成了AI研究人员。

黄仁勋提到了一个经典的AI史:正是GeForce GTX 580这块显卡,促成了深度学习的突破。杰弗里·辛顿(深度学习与神经网络先驱Geoffrey Hinton)告诉他的学生去买这块卡,去发现CUDA,然后Alex Krizhevsky(辛顿的学生,2012年曾参与创建AlexNet神经网络,同年加入Google从事深度学习研究)和Ilya Sutskever(OpenAI联创)才有了AlexNet那个改变历史的时刻。

从这段回忆中,黄仁勋提炼出关于NVIDIA的第一个核心理念:“我们是一家全栈公司”。

紧接着,他引出了有关NVIDIA的第二个核心理念:重新定义系统架构的能力。

他回顾了一段"很多人可能还没出生"的老历史:当年PC架构与现代计算机图形学的需求根本不兼容,NVIDIA创造了一种叫"Direct NVIDIA"的技术,让应用程序能够直接与NVIDIA的API通信,绕过一大堆让系统变慢的中间软件层。这项技术后来演变成了DirectX。此外,NVIDIA还引入了虚拟化帧缓冲内存到系统内存的概念,最初叫AGP,后来演变成了PCI Express。

换句话说,为了让3D图形和电子游戏能够在PC上运行,大量的系统架构必须被重新发明。而正是这种"既创新全栈技术以集成算法,又改变系统架构以创造全新计算机系统"的能力,最终孕育了DGX-1——全球第一台AI超级计算机。当时这台机器,是黄仁勋亲手把它送货到了旧金山附近的一家初创公司,而那家公司,就是现在的 OpenAI。

“这是公司33年的文化基因。”黄仁勋说,"整个组织就是为全栈而设计的,整个系统就是为创造新的技术栈和新的系统架构而设计的。"

三、从DGX-1到Azure超算:全栈系统方法论的延伸与验证

黄仁勋讲了个冷知识:NVIDIA今天造AI超级计算机的本事,其实是当年做游戏显卡练出来的。

拿大家熟悉的GeForce显卡来说,它绝不仅仅是一块插在主板上的硬件,它深深融入了电脑的操作系统和底层架构,直接颠覆了电脑的运行方式。因为早就习惯了这种“软硬通吃”的打法,所以后来NVIDIA去造世界上第一台AI超算(DGX-1),以及帮微软Azure云搭建第一台超算,完全是轻车熟路、水到渠成。

他还爆料了有意思的事儿:微软当年的第一台超算,跑分数据和NVIDIA的超算竟然一模一样,“精确到了小数点后的最小单位”。 为什么这么巧?因为微软那台由一万张显卡组成的庞然大物,从头到尾都是NVIDIA一手包办设计的,当时这台机器用的是基于Ampere架构的A100芯片和InfiniBand网络,巧的是,这也是OpenAI最早用来“炼丹”的核心算力神器。

借着这个故事,老黄做出了一个关键论断:如果不具备这种全栈、全系统的能力,就根本不可能站在技术的最前沿。他强调,“NVIDIA每年不是在造一颗芯片,而是在造一整套基础设施。”

为什么NVIDIA敢这么说?因为他们把“命脉”全握在自己手里了:不仅自己造GPU,还自研CPU(并且革新了CPU的设计方式);不仅造芯片,还发明了让芯片们高速沟通的“桥梁”NVlink,以及把所有机器连成一张大网的技术(AI以太网标准Spectrum X)。

老黄的逻辑很简单:当你掌控了整个技术栈,拥有所有的芯片设计,你就能每年进行一次完整迭代。如果你不掌控整个技术栈,不拥有核心芯片,每年创新一次几乎是不可能的——"因为你在试图把一堆各种各样的东西拼在一起,要在一年内协调这么多创新,如果你无法掌控它,就根本不可能做到,因为这本质上是一个全栈问题。"

四、AI的三次拐点:从生成式到推理式再到智能体

Dan Simkowitz指出,在黄仁勋上次出席会议的两年间,AI领域经历了从生成式AI、到推理模型、再到代理式AI(Agentic AI)的飞速演进,企业级应用正在与微软、OpenAI、xAI、Gemini等平台深度结合。他想了解黄仁勋如何看待企业级AI市场的规模、变化和未来的采用路径。

黄仁勋的回答极为系统。他说,仅在过去两年,AI就经历了三个拐点。

第一个拐点是生成式AI。有意思的是,GPT-3这项技术在公众视野里“明晃晃地”摆了好几个月,没人特别在意,直到有人给它写了一个"壳"(wrapper),把它变成了ChatGPT,变成了API,变成了所有人都能轻松使用的产品。生成式AI的核心能力是将信息从一种形式转换为另一种形式,自回归地生成token。但问题在于,生成式AI容易产生幻觉。黄仁勋特别澄清说,这不是因为技术本身有什么根本性缺陷,也不是因为模型没有学到正确的东西,而是因为它的输出没有基于上下文信息、没有锚定在相关的事实基础上。

第二个拐点是o1和推理能力的出现。o1背后不仅仅是推理,还有对研究、对真实信息的锚定,以及将生成能力与语义理解相结合的能力。黄仁勋用一个术语来描述这个过程——"条件生成"(conditional generation):你即将生成的内容取决于上下文和基础事实,取决于你的研究发现。第二代AI引入了推理、自我反思和自我纠错的能力。他打了个比方:有时候话说出口之后,你会想收回来,AI现在有能力在实时过程中做到这一点。o1因此变得更加可靠,生成的信息更值得信赖。

这意味着什么?ChatGPT从一个引发好奇和兴奋的技术玩具,变成了真正有用的工具。但代价是,它消耗的token量远超第一代,可能多出100倍。模型可能大了10倍。综合算下来,计算量大约增长了1000倍。再加上因为实用性提升带来的用量增长,可能又是100万倍。"从o1对比最初的ChatGPT,你把使用量乘以实用性,就能看到下一个增长阶段的来源。"黄仁勋说。

但归根结底,o1做的事情本质上还是提供信息,是一个更加准确的聊天机器人。对很多人来说,它替代了搜索。"我们的目标不是搜索,我们的目标是获得答案。"

第三个拐点,也是当下正在发生的,是代理式AI(Agentic AI)。黄仁勋说,这个能力同样在众人眼前"明晃晃"地存在了很长时间,核心就是AI能够使用文件、访问文件、使用工具。现在AI不仅能推理、能思考,还能使用工具、解决问题、进行搜索、做规划。

五、OpenClaw现象与提示词的范式转移:从"查询"到"执行"

在讨论代理式AI时代时,黄仁勋抛出了一个极具冲击力的数据点。他说,当前AI领域最重要的软件发布可能是OpenClaw,他说“OpenClaw可能是有史以来最重要的软件发布”。他用数据来佐证这个判断:Linux花了大约30年才达到某个采用水平,而OpenClaw仅用三周就超越了它,成为史上下载量最大的开源软件。

"你去看那个曲线,即使用半对数坐标来画,它也是笔直朝上的,是垂直的。它看起来就像Y轴本身。我从来没见过这样的东西。它就是Y轴。"

黄仁勋接着说,在上一代AI中,用户的提示词(prompt)是"什么是""什么时候""谁是"——本质上是查询(query)。而现在的提示词变成了"创建""执行""构建"。上一代是提问,这一代是下达任务。你可以尽可能详细地描述你的意图,也可以只给一个方向让AI自己推断,然后它就去执行了——它思考、做研究、阅读手册、如果需要使用一个从未用过的工具,就先去学习那个工具的使用方法、在网上调研、应用工具、完成任务。

黄仁勋用NVIDIA内部的情况来说明规模变化。从最初的一个生成式提示对应一个生成式回复,到现在代理式AI消耗的token量可能是之前的100万倍。NVIDIA内部称这些代理式AI为"Claws",它们在后台持续运行,为公司写作、开发工具、开发软件。"我们公司里有一大堆Claws,它们全天候不间断地运行着。"

这带来的直接后果是:NVIDIA自身需要的算力急剧飙升,而世界上每一家公司需要的算力也在急剧飙升。

六、AI工厂经济学:Token就是产品,每瓦Token数决定营收天花板

接着话题流向了一个投资者最关心的问题:如此巨大的算力需求如何融资?支撑这些算力所需的资本开支规模惊人,从生态系统顶层来看,AI工厂的经济模型如何运转?

黄仁勋先纠正了一个概念。他说,几年前他就开始把这些设施称为"AI工厂"而非"数据中心"。数据中心是存储数据的地方,但这些新设施的根本目的是“生产token”。一个以生产token为核心目的的设施,就是一座工厂。"当时人们说,'Jensen,这个词听起来好土啊’,但它确实在生产token。没有人愿意建数据中心,因为谁知道数据中心的投资回报率是多少?但所有人都愿意建工厂,因为工厂能赚钱。"

黄仁勋进一步指出:这些工厂直接生产token,token可以变现。算力越大,token产量越高。token产量越高,营收越高。"我们现在确切地知道,公司的收入与算力直接相关,这是事实。"他类比说,这跟奔驰受限于产能没什么区别。如果OpenAI现在有更多算力,它的收入就会更高。

由此引出第一个大判断:算力等于收入。更宏观地说,算力等于GDP。一个国家的GDP也与其算力直接相关。

紧接着是第二个大判断:NVIDIA之所以在这个领域遥遥领先,是因为其系统是从底层开始、端到端全栈设计的,生成token的效率极高。NVIDIA的"每瓦token数"领先竞争对手一个数量级。

黄仁勋把这个技术指标与商业逻辑直接挂钩:你的工厂有1吉瓦的电力供应,如果你的每瓦token数是竞争对手的10倍,那你的收入就是竞争对手的10倍。"这是历史上第一次,一家公司数据中心里选择什么计算架构,必须经过CEO亲自审批,因为公司明年只有1吉瓦或者2.3吉瓦的电力配额,如果放进了错误的系统,来年的收入就会受到影响。我向你保证,我们亲眼见证了这一点。"

他引用了一家名为Semi Analysis的机构所做的基准测试来说(可能是业界最详尽的基准测试),结果是NVIDIA被评为"推理之王"(Inference King),推理性能的衡量标准包括每秒token数、每瓦token数、每美元token数。NVIDIA在所有指标上都大幅领先——"不是稍微领先,是一个数量级的领先。"这意味着NVIDIA生产的token可能是最便宜的。

因此,在所有AI工厂都受到电力限制的现实下,每瓦token数就是决定一家公司营收天花板的最关键指标。决策者必须极其审慎地做出选择。"这不再是PPT上的数字了。你不会拿500亿美元去赌在某人的PPT上。"

七、约束即优势:供应链战略与资产负债表的战略价值

Dan Simkowitz提到,当前算力扩张面临的多重瓶颈:内存短缺、电力许可审批缓慢、德克萨斯州的电工都不够用了,他问黄仁勋如何看待这些约束,以及如果建设周期拉长,对行业是否会产生负面影响。

黄仁勋的回答出人意料地乐观。“我喜欢约束。”他说,"因为在一个资源受限的世界里,你别无选择,只能选最好的,你没法浪费你的选择机会。"如果土地、电力和外壳都是稀缺的,你不会随便放个什么东西进去试试看,你会选择一个你确信能交付最佳每瓦token数的方案,一个你确信从签约的那一刻起就能帮你把整座工厂立起来的合作伙伴。

"我们是全世界唯一一家能够走进你的公司、帮你从零建起一整座AI工厂的公司。"黄仁勋半开玩笑地说,"在座如果有谁需要一座AI工厂,给我们打电话,接下来你就进入了AI工厂这门生意。"

他进一步解释了NVIDIA的供应链战略。NVIDIA用资本来锁定供应链,当微软CEO萨提亚·纳德拉说"帮我建几个吉瓦的算力"时,答案是"没问题"。因为NVIDIA已经确保了所有的存储芯片、所有的晶圆、所有的封装、所有的系统、所有的连接器、所有的线缆——"从铜到多层陶瓷电容器,一切都已锁定。"

黄仁勋由此强调了一个经常被忽视的观点:NVIDIA强大的资产负债表不仅仅是"有用的"(helpful),而是具有"战略性"(strategic)意义的。当你需要设备制造商为你建一座DRAM工厂时,你走进去说"放心建吧,我会用的”,这句话的分量,很多厂商直接拿去当银行担保了。

当一切都是稀缺的时候,约束反而对NVIDIA有利。因为约束意味着客户必须做出最优选择,而最优选择几乎总是指向NVIDIA。

Dan Simkowitz对此评价说,这种格局创造了"久期"(duration),而久期对NVIDIA而言意味着非凡的竞争优势。他进一步指出,NVIDIA可能是"历史上最大的现金流生成器",并且把这些资本用于构建生态系统的稳定性和多样性。

黄仁勋回应说,当年Mark带他上市的时候,他可能没有今天这么激昂,但他相当确定自己说的是同样的事情。加速计算天然要求NVIDIA构建生态系统。通用加速计算系统不存在。加速计算在定义上就是专有的——NVIDIA的指令集、架构、微架构,与任何其他公司都不兼容。NVIDIA的做法是把这些复杂性隐藏在层层抽象之下,让用户感觉一切都在被加速。如今NVIDIA加速的领域涵盖数据处理、分子动力学、流体动力学、粒子系统、生物学、化学、深度学习、机器人、长序列处理、空间计算、3D——你能想到的几乎所有领域。

Dan Simkowitz插了一句:"听起来像个五层蛋糕。"黄仁勋笑着回应:"没错,就是五层蛋糕。但因为我们做了这么久,看起来好像一切都是同时被加速的,其实不是。是我一个一个领域、一步一步做出来的,直到所有重要的计算领域都被完全加速了。"

在上游投资方面,黄仁勋说NVIDIA正在为未来培育新的生态系统。所有投资的AI原生公司、所有合作伙伴,都在扩展CUDA生态。"我们做的每一件事情,100%都建立在CUDA之上。我们每一笔投资,都建立在CUDA之上。"

八、300亿美元投资OpenAI与净新增需求:MSL、AWS与算力大扩张

对话在这里引入了一些重要信息披露。黄仁勋证实,NVIDIA已经敲定了对OpenAI的投资协议,最终金额为300亿美元,而非之前传闻的1000亿美元。他解释说,1000亿美元的投资"可能不太现实",原因很简单,OpenAI将在年底上市。一旦上市,这种规模的战略投资窗口就关闭了。"所以这可能是我们最后一次有机会投资这样一家具有重大影响力的公司。"

接着,黄仁勋分享了几条他希望投资者充分理解的最新进展。

首先,在过去一年左右,NVIDIA将OpenAI的算力覆盖范围从微软Azure扩展到了甲骨文OCI,现在又扩展到了AWS。"我们正在疯狂帮AWS扩容,我们在尽全力提速,让OpenAI能够获得更多的算力。但OpenAI的收入质量非常好,所以我们需要为他们上线的算力规模,就需要给他们更多、更多的容量。"他说。

其次,一个全新的AI实验室横空出世:MSL(meta Superintelligence Labs)。这是meta旗下的新实验室,需要数百万个GPU。关键在于,MSL的需求是在meta原有需求基础上的净新增。"我们跟meta合作了很长时间,MSL是在meta之上的净新增需求。所以我们的需求曲线从极高,变成了比极高更高。"

九、物理AI:建筑之外的万亿美元前沿

Dan Simkowitz接着把话题转向了物理AI。他半开玩笑地说,他想“带着新狗和新机器人一起遛弯”,物理AI会不会把可触达市场和token需求带到一个全新的量级?

黄仁勋对这个方向显然充满热情。他说,目前AI做的所有事情基本上都发生在建筑物内部,但最终,最大的产业是在建筑物外面,这些产业需要AI具备物理感知、物理理解能力、因果关系(你推一个瓶子,它会倒)、引力、碰撞、惯性、物体恒存性(你把一个东西放到椅子后面,你看不见它了,但你知道它没有消失),这些物理直觉对物理行为和物理智能至关重要。

黄仁勋随后列举了一系列进展:

NVIDIA的Cosmos是全球下载量最大的物理AI模型。在自动驾驶领域,NVIDIA的模型Alpamayo排名世界第一。在人形机器人领域,Groot N2是全球下载量最大的人形机器人模型。在数字生物学领域,La Pertina取得了令人瞩目的成功。此外还有Earth 2等用于多物理场模拟的模型。

"我们在物理AI、AI物理学、自主驾驶AI、人形机器人AI、数字生物学AI的前沿,每一个方向上都处于领导地位,"黄仁勋说,而且所有这些模型都是完全开源的:“我们把它们开源,因为我们希望每一家公司,无论是新行业还是传统行业,都能利用这些能力。我们有完整的技术栈和必要的计算设备,帮助你为自己的应用场景推进AI,然后把它部署到机器人里、工厂里、边缘设备上、无线基站上,部署到任何地方。这是下一个前沿。”

黄仁勋预判:"两年之内,我们基本上不会再花大量时间讨论代理式AI了,因为到那时候所有人都已经在用了。两年后如果你们再邀请我来,我们谈论的将是所有这些新公司。"

他提到了一个重要案例:NVIDIA与制药巨头礼来(Eli Lilly)宣布建立联合创新实验室,他说后续还会有更多类似的合作。但关键在于,要为礼来搭建一座AI工厂,如果你没有NVIDIA的能力、没有这套完整的软件栈、没有所有这些模型、没有数字生物学领域的深厚积累,“你怎么做得到?”

“物理AI这个话题,未来两到三年开始,我们会讨论十年。”老黄强调。

十、万亿美元的融资逻辑:软件产业的Token化转型与算力即GDP

说到这里,Dan Simkowitz问到一个现实问题,钱从哪里来?黄仁勋讲了他对整个AI投资周期融资逻辑。

黄仁勋说,首先,你得相信两个前提。第一,软件很重要,“我希望在座的观众都同意这一点,软件驱动着整个世界。”第二,未来不会存在任何不具备智能体能力的软件。“你们同意吗?你怎么可能有一个完全静态的、不会自主行动的软件呢?”

因此,每一家软件公司都将成为一家智能体公司,它们会同时使用开源模型(自己下载、自己微调的模型)和闭源模型。

老黄做了个类比:每家公司既有自己招聘和培养的员工,也有外包的承包商,还有特定领域的专家顾问,公司的任务不是自己做所有的事情,而是确保事情被做成。AI模型也是同理,有些你自己建,有些你租用,这完全合乎逻辑。"就像你对待生物员工一样,你也会这样对待数字员工。"

黄仁勋接着做出了一个对整个软件行业影响深远的预判:未来,每一家软件公司不仅出租工具,还会同时出租使用工具的专家,因为它们的智能体会在使用自家专业工具方面变得极其精通。

"今天的IT产业大概是两万亿美元规模,基本上是工具出租商。"他说。在未来,它们还会出租智能体,使用这些工具的智能体,这意味着未来的软件产业将远大于今天的规模。

他点了几个具体的名字:Cadence会比现在大得多,Synopsys会比现在大得多,西门子会比现在大得多。但它们的商业模式会发生根本性变化,从纯粹的软件许可公司,变成同时出售专业化token的公司。这意味着今天这个几乎不消耗任何token的两万亿美元产业,未来将成为token的超级消费者。

“钱就从这里来。”黄仁勋说,”整个IT产业将要转移巨额的资源去消费云端的token,无论是开源模型还是闭源模型。”

在对话的尾声,Dan Simkowitz抛出了股价相关的问题。黄仁勋说他当然关心股价,关心股东,关心员工,关心在场的每一个人,他提到NVIDIA刚刚交出了“财报历史上最好的一份季报”,有人告诉他这可能是"人类历史上最好的单季业绩",他说"这肯定只是有记录的人类历史,我确信历史上有人的回报率更高"。

然后他回到了他的核心论断,做了最终的预测:"你无法阻止这只股票。原因很简单,算力等于公司的收入。未来,每一家公司都需要算力来创造收入。算力转化为智能,智能转化为数字劳动力,数字劳动力转化为收入。我确信算力等于收入。我也确信算力等于GDP。因此每个国家都会投资算力,未来不会有任何一个国家说'我们决定放弃智能,我们不需要'。如果你需要智能,你就需要AI,你就需要算力。"

他接着阐述了资金来源的完整路径:

第一,所有的云服务商已经将全部资本开支转向了“生成式AI”和“代理式AI”系统,因为它让搜索更好、让购物更好、让广告更好、让社交更好,几乎每一项互联网服务都因为AI而变得更好。meta已经证明了这一点,Google已经证明了这一点,AWS已经证明了这一点。所以整个互联网行业可以将100%的资本开支转向AI。

第二,整个软件行业将变成token驱动的,无论你选哪家软件公司,他都能告诉你它将如何变成token驱动的,要么自己生产token(需要算力),要么转售token(也需要算力)。

"所以,这是历史上第一次,整个IT产业将必须由算力来驱动。这就是这数万亿美元资金的来源。而我们还处在这一切的起点。这就是我的预测。"老黄最后强调。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。