闻乐 发自 凹非寺
量子位 | 公众号 QbitAI
“不是AGI还没到,而是永远到不了。”
CMU(卡内基梅隆大学)教授、艾伦人工智能实验室研究员Tim Dettmers从硬件瓶颈、资源成本、现实应用三重维度论证:
为什么AGI从一开始,就是个违背物理规律的幻想工程?
一篇长文,指出GPU性能峰值停在2018年,机架级优化2027年耗尽潜力,AI每提升1%的能力,资源消耗要翻好几倍……

核心观点
AGI的讨论都在回避“计算的物理枷锁”
智能不是飘在天上的想法,而是得靠电脑、芯片这些实实在在的东西算出来,而这些东西都得遵守物理规律。
计算从不是抽象概念,所有智能都要扎根物理现实。
这也是Dettmers反驳AGI的核心,很多人在聊到AGI时总把它当成抽象的哲学概念,但很多人忽略了硬件实现,而硬件必然受到物理规律限制。
第一个是信息移动成本。
比如有效计算需要平衡全局信息传到局部和局部信息整合,可信息移动的成本会随距离呈平方级上升;芯片缓存也能说明问题,L2、L3缓存比L1 大,但却因物理位置更远而速度更慢。

现在芯片里的晶体管越做越小,虽然能降低计算成本,但内存反而越来越贵,现在芯片上几乎所有空间都给了内存,计算单元占比微乎其微。
就算是现在的主流AI架构Transformer,看似是算法层面的突破,本质上也是对硬件信息处理效率的物理优化,且也已经接近物理最优。
第二个是线性进步需要指数级资源。
想让系统更精准、高效,每多一分改进,需要的资源都会呈指数级增长。
物理层面,资源聚集会因空间、时间限制变慢;理论层面,相关联的想法会导致收益递减,就算是创新,也多是对现有思路的微调,难有突破性效果。
物理学就是典型例子,过去个人能取得理论突破,现在却很难。
实验物理更甚,像大型强子对撞机这样耗资数十亿的设备,也没能解开暗能量、暗物质的谜团。
AI领域同理,想靠堆资源实现AGI的通用能,早晚会超出实际承受范围。
GPU熄火了
而且,支撑AI快速发展的燃料GPU,也进入了熄火阶段。
可能很多人会默认GPU会连续迭代,为AGI提供算力支撑,但Dettmers抛出一组数据:
GPU的性价比在2018年就到了峰值,之后的16位精度、张量核心、HBM内存等改进,都是一次性功能,潜力很快会耗尽。
现在行业寄希望的机架级优化,比如更高效地调度AI需要的键值缓存,但这种优化的思路很简单,本质上只有一种最优设计方式。虽然实现起来要花时间做工程,但整体设计没什么新意。
像OpenAI这样的公司吹自己的基础设施多厉害,但其实大家的差距很小;唯一能拉开点距离的,就是机架或数据中心级别的小优化,但这些优势也撑不了多久,大概2026-2027年就会耗尽。
也就是说,GPU这条算力增长线,已经快走到头了。

有人说把模型规模做大还能提升AI性能,Dettmers并不否认这种规模法则的作用,但问题在于——
过去GPU的指数级进步,能抵消规模扩张的资源消耗,花一块钱就有一块钱的效果;现在GPU不进步了,想再获线性提升,就得投入指数级成本,花几块钱才有一块钱的效果,这在物理上很快会不可行。
结论:AGI是幻觉
AGI的通用,意味着要能处理物理世界的复杂任务。
但物理世界数据的收集成本太高。举个最简单的例子,工厂的机器人要应对零件磨损、天气变化这些突发情况,需要海量数据训练,还得花大价钱做实验。
再看超级智能,它假设AI能自己越变越聪明,但现实是,变聪明需要资源……
想让AI自己优化,刚开始调调参数或许还能进步,但到达一定水平之后,想要多进步1%,可嫩好多花10倍的钱和算力,那么问题来了:
AI又不能凭空造资源,怎么做到无限变强呢?
所以,Dettmers认为AGI不会实现,超级智能也是幻想。

不过呢,在他看来,AI的未来不是超越人类,而是在物理约束内渐进式的改进,靠经济扩散和实际应用创造价值。
比如让算法更省算力、让更多人能用得上开源AI模型,把AI用到看病、种地、造东西这些实处,一点点帮人提高效率。
Dettmers指出,美国那边总想着“赢者通吃”,巨头们砸钱搞超级智能,一门心思想做个啥都会的AGI,却不管这东西到底现不现实,能不能用在实处。
而在这一点上,中国更聚焦落地实用,看的是AI能不能提升生产力,还用补贴推动AI融入各行业,这样就更贴合现实。





京公网安备 11011402013531号