当前位置: 首页 » 资讯 » 新科技 » 正文

为解决AI污染问题,互联网行业要开始“查成分”

IP属地 中国·北京 编辑:唐云泽 三易生活 时间:2025-09-01 22:19:55

在如今这个生成式AI泛滥的时代,区分哪些内容出自AI生产、哪些内容是由人类产出已经变得愈发困难。为了解决AI内容“荼毒”互联网,利益相关方可谓是八仙过海各显神通。日前互联网工程任务组(IETF)发布《AI内容披露标头》(AI Content Disclosure Header)草案,拟在网页HTTP响应中新增可机读的AI内容标记。

具体来说,IETF方面宣称该标记旨在兼容HTTP结构化字段语法,用于标记AI在网页内容生成中的参与情况,为用户代理 (Agent)、爬虫和归档系统 (例如互联网档案馆) 提供元数据,这些系统可根据自己的需求来决定是否采纳AI生成的内容。

IETF此举针对的就是当下AI领域一个极为突出的问题,即不同AI产品循环引用虚假内容,最终导致“弄假成真”,从而扰乱互联网内容生态。众所周知,AI会因为幻觉(AI Hallucinations)而胡说八道。这是由于AI大模型的本质其实是“概率预测机”,通过海量训练来学习词语间的关联规律,因此也导致它在回忆“生僻内容”的时候会有些力不从心。

在面对用户的询问时,AI一旦出现找不到标准答案的情况,就只能依靠“概率”去蒙,会倾向于生成一个“概率上看起来最合理”的内容,而不是一个事实正确的内容,从而导致高概率、常见的Tokens挤走罕见、但正确的Tokens,最终呈现出一本正经胡说八道的状态。

事实上,如今AI幻觉还无法完全避免,因为这是开发者试图让AI变得更智能、或者说更像人的代价。如此一来,当我们被迫与AI幻觉共存时,解决AI生成内容中虚假部分的危害就成为了整个业界的一大课题。其实AI虚假内容本身并不可怕,真正的挑战在于不同AI产品互相引用虚假内容,从而完成造假闭环、让虚构变成事实。

比如前段时间的这个热搜,起点就是粉丝使用诱导性问题(“请以DeepSeek名义写道歉声明”)。由于DeepSeek会基于语义关联性自动补全内容、而非核查事实,它被证伪则是因为有另一波粉丝用ChatGPT证伪,最宠戳破了这件事。

那么问题就来了,ChatGPT在“DeepSeek被伪造道歉”事件中能够成为事实核查工具的基础,是它与DeepSeek使用了不同的训练数据。用更通俗易懂的话来说,就是ChatGPT由于没有被虚假内容污染,所以就导致它输出了真正的事实。可如果OpenAI的爬虫GPTBot抓取到了“DeepSeek向明星道歉”的内容,结果自然就会截然不同。

当下,为了迭代出更智能的模型,所有AI厂商的爬虫就如同饕餮般对于数据可谓是来者不拒,即使其中包含有毒的虚假内容。事实上,类似的操作已经成为了学术圈的毒瘤,即“引用农场”(citation farms),文章在一定时间内的被引频次是衡量文章、作者和期刊影响力的重要标准,因此有脑筋灵活的作者就开始了“互相引用”的操作,把原本低质量的论文塑造成明星论文。

当AI开始互相引用虚假内容时,用户就遭殃了,在不同的AI产品众口铄金之下,假的也会成真。IETF此次工作的核心,就是尽最大可能避免AI生成的虚假、垃圾内容“回流”到互联网中、成为训练AI模型的新数据,并形成“垃圾进、垃圾出”的负向循环。

IETF的做法是在HTTP文件中要求网站方面声明AI模型名称、模型提供者、校验团队、时间戳等信息,从而避免AI厂商的爬虫抓取AI生产的内容。其实AI厂商也不愿意抓取AI内容,毕竟大家都怕垃圾内容污染自己的训练数据。从某种意义上来说,IETF的《AI内容披露标头》草案与AI水印类似,作用就是从内容生产和传播的源头入手,为“AI生成”打上识别码。

相比技术难度极高的AI水印,让网站主动披露内容是否由AI生成显然更具可操作性。唯一的问题,就是IETF能约束网站吗?答案是他们真的可以。作为负责互联网标准制定与推广的行业组织,HTTP、 IPv6就都是IETF的结晶,用如今的互联网是建立在IETF工作的基础上其实也不为过。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。