The Fever Dream of Imminent Superintelligence Is Finally Breaking
2025年9月3日
玛丽亚马夫罗普洛为《纽约时报》拍摄的插图
本文作者马库斯先生是两家人工智能公司的创始人,也是六本关于自然和人工智能书籍的作者。
OpenAI 最新的人工智能系统 GPT-5 有望改变游戏规则,它是数十亿美元投资和近三年研发的结晶。该公司首席执行官 Sam Altman 暗示,GPT-5 可能相当于通用人工智能(AGI)——一种与人类专家一样聪明和灵活的人工智能。
相反,正如我所写,该模型未能达到预期。发布后的几个小时内,批评者就发现了各种令人困惑的错误:它无法解答一些简单的数学问题,无法准确计数,有时还会对一些老谜语给出荒谬的答案。与其前辈一样,该人工智能模型仍然会产生幻觉(尽管发生率较低),并且其可靠性也备受质疑。尽管有些人对此印象深刻,但很少有人将其视为一次巨大的飞跃,也没有人相信它是通用人工智能 (AGI)。许多用户要求恢复旧模型。
GPT-5 向前迈进了一步,但距离许多人预期的人工智能革命还相去甚远。对于那些在这项技术上投入巨资的公司和投资者来说,这无疑是个坏消息。这也要求政府重新审视那些建立在过高预期之上的政策和投资。当前仅仅追求人工智能规模扩张的战略在科学、经济和政治层面都存在严重缺陷。从监管到研究策略,许多方面都必须重新思考。其中的关键之一或许是以认知科学为灵感,对人工智能进行训练和开发。
从根本上来说,像奥特曼先生、Anthropic 首席执行官达里奥阿莫迪 (Dario Amodei)以及无数其他科技领袖和投资者这样的人,过于相信一种名为“扩展”的推测性且未经证实的假设:即认为使用越来越多的数据和越来越多的硬件来训练人工智能模型,最终将产生通用人工智能 (AGI),甚至是超越人类的超级智能。
然而,正如我在2022年的文章《深度学习正在遭遇瓶颈》中警告的那样,所谓的缩放定律并非像引力那样的宇宙物理定律,而是基于历史趋势的假设。GPT-5等系统所依赖的大型语言模型,只不过是强化版的统计反刍机器,因此它们将继续在真相、幻觉和推理方面遇到问题。缩放并不能让我们达到通用人工智能的圣杯。
科技界许多人对我的预测持敌对态度。奥特曼先生嘲笑我是“平庸的深度学习怀疑论者”,并在去年声称“没有墙”。埃隆马斯克分享了一个表情包来讽刺我的文章。
现在看来我是对的。大型语言模型通过学习海量人类文本数据库来训练生成文本,而向其中添加更多数据只能在一定程度上提升它们的性能。即使规模大幅扩大,它们仍然无法完全理解所接触到的概念——这就是为什么它们有时会答错问题,或者生成极其错误的图画。
扩展一度奏效;前几代 GPT 模型与前代相比取得了令人瞩目的进步。但在过去的一年里,好运开始耗尽。马斯克先生于 7 月发布的 AI 系统 Grok 4,其训练量是 Grok 2 的 100 倍,但只是略胜一筹。meta 的巨型 Llama 4 模型比其前代模型大得多,大多数人也将其视为失败。正如许多人现在所看到的,GPT-5 明确表明,扩展已失去动力。
通用人工智能 (AGI) 在 2027 年实现的可能性现在看来微乎其微。政府让人工智能公司过着几乎零监管的幸福生活。现在,政府应该制定立法,解决那些不公平地转嫁给公众的成本和危害——从虚假信息到深度伪造、人工智能低劣内容、网络犯罪、版权侵权、心理健康和能源消耗。
此外, 政府和投资者应大力支持规模化以外的研究投资。认知科学(包括心理学、儿童发展、心灵哲学和语言学)告诉我们,智能不仅仅是统计上的模仿,还提出了三个有前景的思路,用于开发可靠到值得信赖、智能更加丰富的人工智能。
首先,人类不断地构建和维护着关于世界的内部模型——或者说世界模型——关于他们周围的人和事物以及事物运作的方式。例如,当你阅读一本小说时,你会在脑海中形成一种数据库,记录每个角色是谁以及他或她代表什么。这可能包括角色的职业、他们之间的关系、他们的动机和目标等等。在奇幻或科幻小说中,世界模型甚至可能包含新的物理定律。
生成式人工智能的许多缺陷都可以归因于未能从训练数据中提取合适的世界模型。这解释了为什么最新的大型语言模型无法完全理解国际象棋的运作方式。因此,无论经过多少场棋局训练,它们都倾向于走非法棋步。我们需要的系统不仅仅是模仿人类语言;我们需要能够理解世界,从而进行更深入推理的系统。如何构建以世界模型为中心的新一代人工智能系统应该成为研究的重点。谷歌DeepMind和李飞飞的世界实验室正在朝着这个方向迈进。
其次,机器学习领域(它为大型语言模型提供了动力)喜欢让人工智能系统通过从互联网上抓取数据,从零开始学习所有东西,没有任何内置机制。但正如史蒂芬平克、伊丽莎白斯佩尔克和我等认知科学家所强调的那样,人类思维天生就具备一些关于世界的核心知识,这些知识使我们能够掌握更复杂的概念。构建时间、空间和因果关系等基本概念,或许能让系统更好地将遇到的数据组织成更丰富的起点,从而可能带来更丰富的结果。(Verses AI在电子游戏中对物理和感知理解的研究就是朝着这个方向迈出的一步。)
最后,当前的范式采取了一种“一刀切”的方法,依赖单一的认知机制——大型语言模型——来解决所有问题。但我们知道,人类思维会使用许多不同的工具来解决不同类型的问题。例如,著名心理学家丹尼尔卡尼曼认为,人类会使用一种思维系统——这种系统快速、反射性和自动化,主要受经验统计数据驱动,但比较肤浅且容易出错——以及另一种系统——这种系统更多地受抽象推理和深思熟虑的驱动,但速度缓慢且费力。大型语言模型与第一种系统有点像,它试图用单一的统计方法解决所有问题,但结果却不可靠。
我们需要一种更接近卡尼曼所描述的新方法。这种方法可能以神经符号人工智能的形式出现,它将统计驱动的神经网络(大型语言模型由此而来)与一些较老的符号人工智能理念连接起来。符号人工智能本质上更抽象、更具审议性;它通过从逻辑、代数和计算机编程中获取线索来处理信息。我一直主张将这两种传统结合起来。我们越来越多地看到像亚马逊和谷歌 DeepMind这样的公司采用这种混合方法。(甚至 OpenAI 似乎也在悄悄地做一些这方面的工作。)到 2020 年,神经符号人工智能很可能会超越纯粹的扩展。
大型语言模型确实有其用途,尤其是在编码、写作和头脑风暴等人类仍然直接参与的领域。但无论我们将它们构建得多么庞大,它们都从未值得我们信任。为了构建我们真正值得信赖的人工智能,并有机会实现通用人工智能 (AGI),我们必须摆脱规模化的束缚。我们需要新的思路。回归认知科学或许是这条征程的下一个合乎逻辑的阶段。
本文作者:加里马库斯是纽约大学名誉教授,曾任 Geometric Intelligence 创始人兼首席执行官。他的最新著作是《驯服硅谷》。 他还出版了一本关于人工智能的简报。