前几天,一场由 AI 幻觉引发的舆论风波席卷网络。不少网友发帖称 DeepSeek 因「误将王一博卷入腐败案」而公开道歉,还附带一份看似权威的「刑事判决书」。
很快《演员王一博案,判了》就被不少媒体当作「法院实锤」报道,更是一度冲上微博热搜。
实际上,这份道歉声明与判决书就是 AI 编的——这是一场由「大模型幻觉」和「内容农场拼贴」共同导演的闹剧。
AI 幻觉的本质:不是查找,而是「预测」与「创作」
AI 并非一个拥有庞大数据库的搜索引擎,能像翻书查文献般提供精准答案。生成式 AI 更像是一个沉浸在语料库海洋中的学习者,通过预测「下一个最合理的词」来生成内容。
大语言模型的幻觉源于其概率性生成机制——它们为每个输出挑选最可能的 token,这种方式既是其创造力的源泉,也是幻觉的根源。训练数据偏差、模型局限性以及生成过程的随机性,都可能导致幻觉的产生。
正如 OpenAI 前研究科学家、METR 创始人Beth Barnes在最近的一场访谈中所说:「AI 不是在失控,而是在演戏。」她展示了一张模型能力边界曲线图,揭示了一个令人不安的现象:
随着模型参数增加,基础任务的错误率持续下降,但在涉及人类声誉、价值观等复杂场景时,错误率却出现回弹,形成「幻觉盲区」。
例如,GPT-4.5 的幻觉率高达 37.1%,意味着超过三分之一的输出可能包含事实错误,且这些错误往往包装得极具迷惑性。
原视频