Newsguard 最近发布了一项研究,显示截至2023年8月,十大生成式 AI 工具在处理实时新闻时,有高达35% 的概率传播虚假信息。相比去年8月的18%,这一数字几乎翻了一番。研究指出,这一虚假信息传播率的显著上升与 AI 聊天机器人引入实时网络搜索功能密切相关。随着拒绝回答用户问题的比例从31% 降至0%,AI 开始接入一个充满不实信息的网络生态系统,导致虚假信息的传播现象愈加严重。
图源备注:图片由AI生成,图片授权服务商Midjourney
该研究发现,许多不良行为者利用 AI 的特性故意散布虚假信息。去年,Newsguard 就曾标记出966个以16种语言运营的 AI 生成新闻网站,这些网站通过模仿正规媒体的名称,如 “iBusiness Day”,向公众传播假消息。具体来看,Inflection 公司的 AI 模型传播虚假信息的概率最高,达到了56.67%;而 Perplexity 模型也不容乐观,出错率为46.67%。ChatGPT 和 meta 的 AI 模型则各自为40%,而 Copilot(微软必应聊天)和 Mistral 的虚假信息传播率为36.67%。表现最好的两款模型是 Claude 和 Gemini,错误率分别为10% 和16.67%。
值得注意的是,Perplexity 的表现大幅下滑,去年8月时该模型对虚假信息的揭穿率达到100%,然而到今年8月,这一概率接近50%。引入网络搜索功能的初衷是解决 AI 回答内容过时的问题,但却引发了新的挑战。这些聊天机器人开始从不可靠的来源获取信息,使得用户在判断事实与假消息时愈发困难。
Newsguard 指出,早期的 AI 通过拒绝回答问题来避免传播虚假信息的风险,但如今网络生态中虚假信息泛滥,辨别真伪愈发复杂。OpenAI 也承认,当前的语言模型总是可能产生 “幻觉内容”,即虚假或无根据的信息。该公司表示正在研发新技术,力图让未来的模型能够更好地提示不确定性,而不是笃定地生成虚假信息。
划重点:
-