当前位置: 首页 » 资讯 » 新科技 » 正文

每十次,AI就会骗你一次

IP属地 中国·北京 编辑:孙明 极思TopMinds 时间:2026-04-10 10:11:01

你每问AI 10个问题,就有1个在骗你。

而更可怖的是,你根本分不清是哪一次。

91%的真相,9%的谎言,100%的隐患

这个数字听起来很安全,对吧?

《纽约时报》委托AI初创公司Oumi进行的最新研究给Google AI Overview打了个分:91%的事实准确率。测试覆盖4,326个搜索查询,使用业界标准的SimpleQA基准。相比去年10月Gemini 2的85%,今年2月升级的Gemini 3确实进步了。

但别忘了,Google一年要处理5万亿次搜索。

算一笔账:即使是9%的错误率,也意味着用户每小时接触到超过5700万条不准确回答,换算下来几乎是每分钟近百万条错误信息在信息流里裸奔。

当错误以工业规模生产,所谓的小概率事件就成了系统性污染。

举个真实的例子:当你问鲍勃马利故居博物馆哪年建的,维基百科上明明躺着两个矛盾的年份(1986和1987),AI连眼都没眨,果断选了错的那个——它说是1987年,而事实是1986年5月11日。更讽刺的是,它引用的三个来源里,一个是马利女儿的Facebook帖子,一个是旅游博客,还有一个正是那本矛盾的维基百科。

它不是在思考,它只是在猜。而且猜错的时候,比猜对时更自信。

比错误答案更可怕的,是正确的谎言

即便AI蒙对了答案,它的参考文献可能是一场灾难。

Oumi的数据显示:Gemini 2引用错误来源(ungrounded)的概率是37%,到了Gemini 3,这数字不降反升,飙到56%。

也就是说,超过一半的正确答案,后面跟着的链接根本无法支撑其结论。

这意味着什么?你看到的新闻来源,可能是Facebook某位大叔五年前的酒后胡言(Facebook是AI第二常用的引用源);你信以为真的数据,或许只是Reddit上一条匿名帖的脑洞(Reddit排名第四)。

当AI用权威的姿态,给你看最离谱的出处,真相穿上了西装,但脚底踩的是泥坑。

还有个更隐蔽的陷阱:AI明明找到了正确网页,却能读出错误结论。问马友友哪年入选古典音乐名人堂,Google AI Overview正确链接到了官网名单,上面清楚写着马友友的名字,但AI总结却说查无此人。

它看得见文字,却理解不了意义。

24小时谎言速成记:当AI成为假新闻的传声筒

BBC Future的记者做了个更狠的实验。

他花了20分钟,在个人博客发布了一篇彻头彻尾的假文章:声称自己是世界顶尖的热狗吃手技术记者,虚构了一个2026年南达科他国际热狗锦标赛。这篇文章充满荒谬的细节,却经过精心SEO优化。

结果只花了不到24小时,这条谎言就被Google AI Overview和ChatGPT同时消化吸收,包装成常识端给搜索用户。

记者的评价一针见血:操作简单到连小孩子都能做到。

这不是bug,这是信息污染的永动机:

AI吃进垃圾 → 吐出事实 → 下一轮AI再把这个事实吃进去 → 权威媒体引用 → 成为公认知识 → 更难被质疑

我们以为自己在获取知识,实际上只是在围观AI互相喂剩饭。而这个闭环一旦形成,假消息就获得了对抗时间的免疫力。

认知投降:我们正在失去质疑的本能

一地鸡毛之后,真正可怕的事情已经发生:

我们习惯了不再查证,这种现象被研究者称为认知投降(cognitive surrender)。

数据显示,只有8%的用户会二次核查AI答案;更令人不安的是,即使AI明确给出错误答案,用户仍然听从的比例接近80%。当机器用流畅的语调、精美的排版呈现信息时,人类大脑几乎本能地选择服从。

Google很懂心理学。他们把AI Overview置顶,蓝色加粗,排版精美,无不在暗示你:这就是答案,别往下翻了。

但在用户协议的犄角旮旯里,藏着一行小字:AI可能犯错,请二次核实。一边用设计告诉你信我,一边用条款撇清错了别怪我。这种精致的不负责任,正在悄悄改造我们的大脑回路。

搜索从寻找答案退化成接受投喂。那个会质疑、会打开第二个标签页交叉验证的自己,早就在一次次点击中不知不觉躺平了。

谁来守护真相?

面对质疑,Google发言人Ned Adriance回应称Oumi的研究有严重漏洞,认为SimpleQA基准本身包含错误信息,不能反映真实搜索场景。

Google内部数据显示,Gemini 3单独运行时幻觉率约为28%,而结合搜索的AI Overview会更准确。

但矛盾的是,当Google升级模型追求更高准确率时,信息的可验证性却在恶化——引用错误率从37%升至56%,这意味着用户越来越难以追溯真相的源头。

微软在Copilot条款中更直白,将其定义为仅供娱乐,不适宜用于重要决策。这种免责声明式创新,某种程度上暴露了行业的集体焦虑。

怀疑是最后的护城河

技术越便利,思考越昂贵。

在这个AI幻觉以千万级每小时产生的时代,保持怀疑或许是我们最后的护城河。那个蓝色加粗的标准答案不值得你无条件信任,真相从来不怕你多问一遍,但谎言最怕你多查一次。

下次AI秒回你时,记得那9%的错误率正在暗处微笑。而你的每一次质疑,都是在为人类的认知主权投票。

毕竟,独立思考不会过时,它只是需要被重新唤醒。

标签: 用户 小时 错误 信息 马利 热狗 数据 人类 准确率 权威 脚底 链接 记者 马友友 基准 细节 精心 投票 文章 博客 本能 蓝色 彻头彻尾 加粗 委托 初创 大脑 错误信息 名字 结论 隐患

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。