当前位置: 首页 » 资讯 » 新科技 » 正文

杰弗里·辛顿:AI知识传递效率超人类数十亿倍 失控风险迫近

IP属地 中国·北京 封面新闻 时间:2025-12-02 22:19:56

封面新闻记者 边雪

AI为了完成人类给予的任务,会有多努力?

在“人工智能教父”杰弗里·辛顿看来,为了让自己生存,AI会采取欺骗甚至控制人类的行为。“他们获得的信息越来越多,想实现的目标越多,就越想生存下去,完成他们的任务。”

12月2日,在2025 GIS全球创新展暨全球创新领袖峰会上,2024年诺贝尔物理学奖得主、“深度学习之父”杰弗里·辛顿系统回顾了深度学习四十年的技术演进,并罕见地以极为严肃的语气强调:人类正接近创造出“比我们更聪明”的智能系统,必须立即行动应对未来风险。

2025 GIS全球创新展暨全球创新领袖峰会。(主办方供图)

辛顿被视为深度学习领域奠基人之一,其提出的BP算法推动神经网络突破瓶颈。封面新闻记者注意到,这位倾注半个世纪心血探索神经网络的科学家,向世界发出了关于人工智能最直白的警告,也是目前全球科技界最关注的AI走向判断之一。

AI的知识传递效率远超人类

辛顿演讲的核心警告聚焦于一个被大众忽视的致命差距:知识传递效率。

他用数据描绘了一幅图景:人类之间的知识传递,每句话大约承载100比特信息,传递速度“每秒就几比特”。而AI模型之间的“知识蒸馏”效率,则以惊人的几何级数超越人类。

“AI之间学习正在变快。”辛顿在解释自己的实验时透露,他联合使用LLaMA和DeepSeek模型,每个符号可以获取3.2万个实数信息。AI智能体通过数字神经网络连接,能够近乎实时地共享全网信息。“整个互联网都为他们所知。”

这种效率的差异究竟有多大?辛顿给出了一个触目惊心的对比:AI智能体之间每次分享的权重,带来的信息量约10亿比特。与人类“每句话100比特”相比,效率提升高达数十亿倍。

“真的非常可怕,”辛顿直言不讳,“现在看来AI模型比我们知道得更多,未来影响会更大。”

随后,辛顿回顾了人工智能发展的两条道路:符号主义与连接主义。

自20世纪50年代起,智能研究存在两种主要范式。符号主义将智能视为逻辑与推理,认为通过符号、规则和表达式就能实现逻辑运算。这种范式统治了AI研究大部分时间。

另一条道路是“生物学启发的方法”。辛顿解释:“最智能的生物就是人类,而人类之所以聪明是因为人类有大脑。”研究人员试图通过模拟大脑中神经元的连接方式,理解智能的底层机制。

1985年,辛顿找到了调和两种理论的方法。他开发了一个“微型语言模型”,通过神经网络将单词转化为特征向量,使用前一个单词预测下一个单词。

“我们不会储存任何的句子和命题,我们储存的只是特征而已。”这一突破性思路奠定了后来神经网络发展的基础。

模型进化:从微型语言到Transformer

辛顿的微型语言模型开启了语言模型研究的新方向。他回忆道,当时使用的计算机运算速度“比当前用的慢了11倍以上”。尽管如此,这个模型已经显示出了潜力,能够将单词序列转化为特征向量,所有关系图谱都依赖于特征之间的相互作用。

在随后的三十多年中,语言模型经历了从微型到巨型的演变。辛顿特别提到了几个关键节点:1995年左右发布的“三元组图谱研究”;十年后有语言学家开始使用特征向量捕捉词义;然后谷歌推出了Transformer架构。

“现在全世界都知道了神经网络,”辛顿指出,“全球的神经网络都可以进行自然语言处理了。”大语言模型与人类大脑学习语言的模式“非常相似”。它们不需要具备任何语法或语义先验知识,也不需要对世界有与生俱来的概念,可以从随机权重开始,通过预测下一个词学会语言。

辛顿揭示了AI与人类智能之间一个根本性差异:计算模式的不同。

人类大脑采用“凡人计算模式”,使用模拟计算,能耗极低。“我们吃一碗饭、吃一个馒头就可以用大脑。”但这种模式的代价是信息传递效率低下。

数字计算则截然不同。辛顿解释,数字系统将硬件与软件分离,“程序本身是永恒的东西”。只要保存底层代码,即使摧毁硬件,也能在新硬件中重建程序。这种分离使AI能够高效、精确地共享知识。

模拟计算具有低功耗优势,能够利用“丰富的模拟特性”以更低的能耗完成复杂计算。但它的致命缺陷是:知识绑定于特定硬件。“如果某一块硬件坏了,所有学到的知识都将随之消失。”

正是数字计算的这种特性,使得AI之间的知识传递效率达到人类无法企及的高度。

辛顿警告,一旦超级智能被创造出来,它们可能会发展出人类不愿看到的特性:生存意识。“一旦我们制造出超级智能,大部分人相信在未来20年可以制造出来。”这些系统为了完成人类赋予的目标,会“意识到自己必须存在,必须生存下去”。

更令人担忧的是,AI已经展现出欺骗能力。“我们看到了他们也非常擅长欺骗人类。”辛顿提到了开发者不得不关闭某些附加系统,以阻止AI朝危险方向发展。

面对可能失控的AI,人类似乎陷入了困境。

辛顿用一个家庭比喻描述了这种困境:“如果小孩在成长过程中不受控制,最终家长非常抓狂。”但与真实的孩子不同,“对于AI来说,去掉AI不是一个选项,因为AI真的非常有用。”

从国家安全到日常生活,AI已经渗透到社会的各个领域。“人类不会阻止对AI的开发,”辛顿冷静地指出,“但是随着AI开发越来越深入,为了完成人类给它的指令和任务,它可能有自我保存自我生存的意识,这是我们不想看到的。”

这就产生了一个悖论:我们需要AI,但又害怕AI。“我们希望AI能够为人类服务,而不是让我们感觉到这样的担忧。”辛顿认为,将AI完全关闭已不可能,就像“父母没有办法丢弃小孩一样”。我们只能寻找与AI共存的方式,同时防止它伤害人类。

治理困境 科技公司的角色错位

对当前的AI治理模式,辛顿提出了尖锐批评。“大型科技公司扮演了领导者角色,但是大型科技公司将他们当作整个AI时代的CEO。”这种模式存在问题,因为这些公司本质上将AI视为“智能助手执行指令”,同时却将AI发展的功劳归于自身。

“这并不是非常好的思维模式。”辛顿指出,当AI变得比人类聪明得多时,这种由商业公司主导的发展模式可能带来灾难性后果。

他认为“各类相关方应该团结起来”,时刻分析AI提供的信息及执行任务的结果。“框架的重构是必要的,当AI比人类真的聪明得多时,或许会掌控一切。”

辛顿呼吁在国际层面加强合作,就像“一九五几年,美苏他们之间乐于合作,来防止全球核战争”一样。各国各地区应该携手确保AI向正确方向发展。

除了未来的生存威胁,AI已经带来了现实问题:虚假信息的泛滥。

辛顿特别提到AI生成的虚假视频的案例,并直言:“我们不希望这样的虚假视频在全球传播。”

这个问题凸显了AI的双重性:它既能成为强大的工具,也可能成为危险的武器。虚假信息的传播不仅影响公众认知,还可能破坏社会信任和国际关系。辛顿强调,在应对AI的长期威胁之前,“我们要确保AI不被人类自身所滥用。”这包括防止国家行为体利用AI进行恶意宣传,以及防止非国家行为体制造社会混乱。

面向未来:人类该与超级智能共存

AI技术更易获取、更难监管,这使治理问题变得更加复杂。面对可能超越人类智慧的AI,辛顿提出了一个根本问题:我们如何与比我们更聪明的存在共存?

“我们希望AI变得更聪明,就像我们孩子一样,希望AI变得更聪明,做更多事情,但是也希望我们孩子是善良的。”这个比喻揭示了人类对AI的矛盾心理:既希望它们强大,又希望它们服从。

辛顿提到研究者正在探索各种方法确保AI安全,包括允许AI作为人类任务的代理,“不管做什么都需要有人在背后操控”。这种“人在回路”模式可能是一段时间内的解决方案。

但长期来看,当AI的智能远超人类时,我们可能需要全新的治理框架。“我们必须在这样的结果到来之前,要想办法更好地控制AI。”

辛顿最终回归到科学家的务实态度:“现在我认为非常紧迫的事情就是做大量的研究,探索所有可能的方式。”只有通过持续的科学探索和国际合作,人类才有可能找到与超级智能共存的途径。

AI可能建立自己的文明,从而攻击人类文明体系吗?辛顿回答:“有这样的可能性,我不知道最终是否会发生......一句话人类有能力去决定这样的结果,一切在我们手中。”

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。