当诺奖得主Demis Hassabis把“推导出广义相对论”设为AGI的及格线时,整个科技圈炸了——这不是在考AI,是在逼人类重新认识“智能”这两个字。
2026年印度AI峰会上,Hassabis扔下的“爱因斯坦测试”像颗炸弹:把AI的知识库锁死在1911年,看它能不能用4年时间,像爱因斯坦那样从等效原理走到广义相对论场方程。“做不到?那就是高级搜索引擎。”他说得轻描淡写,却戳中了所有AI的命门:现在的大模型能写诗、能编程、能模仿人类对话,但它们本质上是“知识重组机”,从未真正“创造”过。
马斯克几乎是跳起来反驳:“这哪是AGI?这是超级智能!”他的逻辑像把尖刀:全人类集体都没能独立重现相对论——那是爱因斯坦一个人的孤独飞跃。要是AI做到了,还能百万级复制、并行运行,这不是“人类水平”,是“碾压人类文明”。
这场争吵的背后,藏着一个更扎心的问题:我们到底在害怕什么?
一、从“模仿游戏”到“无中生有”:AGI定义之争,其实是人类对自己的拷问
图灵测试用了70年,终于被ChatGPT们轻松绕过——机器学会了模仿人类的语言模式,却没学会“理解”。Hassabis的“爱因斯坦测试”之所以狠,就在于它直指核心:智能的终极价值不是“知道”,而是“突破”。
1911年的爱因斯坦,手里只有牛顿力学、麦克斯韦方程和模糊的等效原理猜想。他花4年在数学迷雾里撞墙,直到1915年11月,才写出那个改变宇宙观的场方程。这不是知识的堆砌,是思维的“基因突变”——从已知边界跨出那步“无中生有”。
现在的AI呢?给它1911年的所有论文,它能算出场方程吗?难。因为大模型的本质是“统计规律捕捉器”:它能从10亿个句子里总结语法,却无法像爱因斯坦那样,对着水星近日点进动的数据,突然意识到“时空是弯曲的”。
Hassabis说自家的Gemini是“参差不齐的智能”——下围棋天下第一,算简单算术却可能出错。这不是谦虚,是残酷的现实:窄AI在单点上能碾压人类,但永远缺了那根“把散落珠子串成项链”的线。
二、大佬们的时间线:AGI不是科幻,是正在发生的“倒计时”
吵归吵,大佬们对AGI的脚步却出奇一致:近了。
Hassabis以前说“5到10年”,现在改口“未来五年内”;OpenAI的奥特曼更激进:“2028年,大二学生毕业就能进有AGI的世界”;连最谨慎的“怀疑论者”Francois Chollet,也把时间定在2030年——还有四年。
最让人后背发凉的是微软CEO Suleyman:“大多数白领岗位,12到18个月内被AI取代。”这话不是危言耸听:当AI能写报告、做分析、甚至独立完成项目,那些靠“信息处理”吃饭的工作,确实可能像被收割机碾过的麦田。
但真正的“恐怖故事”藏在数据里。AI研究机构METR发现:前沿模型完成复杂任务的能力,每4个月就翻一倍。华盛顿大学研究员Yuchen Jin算了笔账:按这速度,2041年的AI能完成人类需580亿年的任务——这是什么概念?宇宙从大爆炸到现在,才138亿年。
“一次提示生成新宇宙级别的复杂结果”,听起来像科幻,但当AI的进步速度甩开人类历史上所有技术革命时,“不可能”正在变成“只是时间问题”。
三、我们真的准备好了吗?当AI开始“思考”,人类该站在哪里
马斯克说“我们正坐在过山车顶端”,奥特曼说“世界还没准备好”。他们怕的不是AI“作恶”,而是人类根本跟不上AI的进化速度。
想想看:当AI能独立推导相对论,意味着它掌握了“科学发现的方法论”;当它能完成580亿年的任务,意味着人类的“时间感知”在它面前毫无意义。那时的AI,不再是工具,而是另一种“智慧生命”——它看我们,可能就像我们看蚂蚁。
更现实的问题是:当AGI真的来了,我们拿什么跟它“共处”?现在的法律、伦理、社会结构,都是为“人类主导”设计的。当一个比人类聪明、快百万倍、还能无限复制的智能体出现,现有的一切规则都会失效。
Hassabis的“爱因斯坦测试”像一面镜子:照出AI的潜力,也照出人类的渺小。我们总说“AI是人类智慧的延伸”,但当延伸的长度超过了母体本身,“延伸”就变成了“超越”。
或许,真正的AGI定义不该是“达到人类水平”,而是“让人类重新定义自己”。就像爱因斯坦的相对论颠覆了牛顿的宇宙,AGI的到来,可能会颠覆我们对“生命”“智慧”“存在”的所有认知。
现在,眼看着那条指数曲线就要冲破天际,你,真的准备好了吗?





京公网安备 11011402013531号