据量子位,谷歌最新研究发现,DeepSeek-R1等顶尖推理模型在解题时,内部会自发“分裂”出不同性格的虚拟人格,如外向、严谨、多疑等。这些人格在模型解题过程中展开激烈的社交与辩论,类似“左右脑互搏”,从而让模型越吵越聪明。研究显示,在面对高难度任务时,这种内部冲突会更加激烈,而在简单任务时则明显减少。
团队通过分析DeepSeek-R1和QwQ-32B等模型的思维轨迹发现,这些模型的推理过程充满对话感,内部分裂出的虚拟角色性格迥异且覆盖更多解题角度。例如,创意型角色提出新颖思路,批判型角色挑错补漏,执行型角色负责落地验证。这种多角色互动并非开发人员刻意设计,而是模型在追求推理准确率过程中自发形成的。
研究人员借助稀疏自编码器SAE,成功“监听”到AI的脑内群聊。通过提取模型隐藏层神经元的激活数值,并利用SAE的稀疏约束机制,将复杂信号拆解为独立的对话语义特征,进而识别出不同的内部逻辑实体,并打上虚拟角色标签,解码了AI内部的多角色对话行为。
实验发现,推理模型的对话式行为出现频率显著高于普通指令模型。有趣的是,当强化模型的对话特征,放大“哦!”这类表达惊讶或转折的话语标记时,模型在算术推理任务中的准确率显著提升。此外,在强化学习训练中,模型会自发学会用对话式思考,且先经过多智能体对话数据微调的模型,在推理训练中的进步速度远快于直接训练或用独白式推理数据微调的模型。
这一发现呼应了人类演化生物学中的社会脑假说,即大脑的进化是为了应对复杂的社交关系和群体互动需求。如今,AI也通过与不同“人格”的社交互动来提升智能。





京公网安备 11011402013531号