当前位置: 首页 » 资讯 » 新科技 » 正文

聊天机器人难以识别假视频,OpenAI 自家工具也被蒙蔽

IP属地 中国·北京 编辑:任飞扬 Chinaz 时间:2026-01-26 10:40:08

近日,媒体分析公司 Newsguard 发布的一项研究揭露了当前人工智能领域的一个尴尬现状:尽管 AI 视频生成技术日新月异,但主流 AI 聊天机器人却几乎无法识别这些“深度伪造”内容,甚至连开发者自家的工具也难以幸免。

研究显示,在面对由 OpenAI 视频生成模型Sora制作的虚假视频时,OpenAI 旗下的ChatGPT表现令人失望,其识别错误率竟然高达 92.5%。这意味着,对于大多数由 Sora 生成的视频,ChatGPT 都会将其误认为真实记录。其他巨头同样表现不佳,xAI 的 Grok 错误率更是高达 95%,表现相对较好的是 Google 的 Gemini,但错误率依然维持在 78%。

更令人担忧的是,现有的技术防护手段正形同虚设。虽然Sora会在生成的视频中添加可见水印和不可见的元数据,但研究发现,这些标记可以轻易通过免费工具或简单的“另存为”操作被抹除。一旦水印消失,聊天机器人不仅无法识别造假,有时甚至会“一本正经地胡说八道”,引用虚构的新闻来源来证明虚假视频的真实性。

针对这一问题,OpenAI 方面坦言,ChatGPT目前确实不具备判断内容是否由 AI 生成的能力。由于顶级 AI 视频工具已经能拍出肉眼难辨的素材,而反制手段又滞后于技术发展,这无疑为虚假信息的传播埋下了巨大隐患。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。