当前位置: 首页 » 资讯 » 新科技 » 正文

互联网的AI腔,该清算了!

IP属地 中国·北京 新智元 时间:2025-11-24 22:15:45


新智元报道

编辑:倾倾

互联网上,越来越多的句子有一股「AI味」。风景永远惊艳,事件永远关键,语言被磨成光滑的模板。于是,Wikipedia在成千上万次巡查里最先察觉,并悄悄发起一场清理行动。

现在互联网上的句子,好像都是一个师傅教的。

风景总是breathtaking,建筑永远modern,随便一个事件都「标志着一个关键时刻」。

这些话听着完美,却轻得像飘在空中。读多了,人会感到恍惚。

Wikipedia的编辑们也受够了这种「广告腔」,开始了一场清理行动。

他们校对大量新增内容后发现,最爱说场面话的,竟然不是人,而是AI。

于是,一本奇怪又实用的《识别AI文风手册》,就在无数次删删改改里被写出来。

同一个模板写出来的互联网

互联网的语言越来越整齐划一,Wikipedia最早察觉到「味道不对」。

每天都有成千上万的新内容被塞进条目里,编辑们一边巡查一边发现:不少新增段落看起来顺滑,但读起来像是套话。

编辑们越看越觉得奇怪。等他们把这些可疑段落攒在一起,真相也浮出水面:

来源模糊、论据空洞、表达统一得异常。这一切都指向同一个可能——越来越多的内容,是AI生成的。


为了避免百科被这种空心句子掏空,一群志愿者在2023年发起了WikiProject AI Cleanup。


传送门:https://en.wikipedia.org/wiki/Wikipedia:WikiProject_AI_Cleanup

他们系统地记录这些异常写法,想弄清楚AI到底在什么地方露出痕迹,哪些句子看似正常,但经不起查证。

维基编辑最先发现「不对劲」

清理行动一开始,编辑们就发现:检测器根本不靠谱。

正管用的,是他们在多年巡查中练出来的「语感」

AI写出来的段落,表面都挺正常,但细看会有三种特别明显的痕迹。

第一种,反复强调「重要性」,却不给现实中的例子。

AI 生成的段落常常会把主题写得很宏大,比如「a pivotal moment」「a broader movement」。

但落到细节时,没有年份、不提来源,也没有可查证的材料。这种写法在百科语境里非常异常。

第二种,句尾挂着体面的现在分词

这种emphasizing… reflecting… highlighting… 的尾句,是目前最明显「AI痕迹」。

TechCrunch的作者也在报道中指出:

这类present participle是区分AI文风的关键线索之一

第三种,是频繁使用互联网式的「营销形容词」。 breathtaking、modern、renowned、scenic这些词在广告里正常,但在百科里使用很不恰当。

维基编辑碰到这种描述时,会立即查来源,结果常常找不到对应证据。

后来,这些规律都被整理进了《Signs of AI writing》。


https://en.wikipedia.org/wiki/Wikipedia%3ASigns_of_AI_writing?utm_source

比起技术指南,它更像一份经验册。记录着编辑们踩过的坑、看到的怪句式,方便更多人一起清理。

AI为什么总写成这样?真相在语料里

当编辑们把可疑句式整理出来后,一个问题也变得清晰了:AI之所以写成这样,根本原因是人类语料。

也就是说,它从哪里学来的语言,就会说出什么样的语言。

因为大型模型训练时吃的是整个互联网的语料。新闻稿、SEO软文、宣传册、社交平台的内容都会混在一起。

而这些地方最常见的表达,就是宏大但空泛、形容词夸张但没事实、评价多于证据的写法。


Wikipedia在把这类现象称为:Vague praise和Marketing language。

换句话说,AI不是故意用「公关腔」,而是这类语料最容易在互联网上抓取。

这也解释了为什么「重要性夸大」「-ing 尾巴」「广告式形容词」会频繁出现——这些是模型在大语料里看到得最多、最容易复制、也最缺乏上下文约束的句式。


Wikipedia的解决方式非常务实。他们知道无法杜绝AI生成内容,于是把重点放在「证据链」上。

他们要求注明来源、核查链接、追溯出处。

这一点在《WikiProject AI Cleanup》的流程说明里写得很清楚:

凡是出现评价性语言、缺乏具体事实,或看上去「像模型写的」,编辑可以先贴上「需要引用」的模板。

如果作者无法补充来源,这段内容就会被移动到讨论页,必要时进入快速删除程序。

这一整套流程相当于「免疫系统」:去掉评价形容词,让句子必须基于事实。

凡是经不起查证的部分,就会被自动拦截。这对于一个完全依赖可验证性运作的百科来说,百利无一害。

真实的句子有骨头,AI的句子一戳就空

维基编辑在清理中发现,最能一眼看出「AI味」的地方,是句子到底有没有「事实」。

AI喜欢用形容词和评价支撑文章结构,而百科写作靠的是年份、数量、地点、报道来源这种能查到的事实。

为了让更多编辑能看懂这种差别,《Signs of AI writing》里特地列出了多类典型句式。

看下面这一组改写,就能感受到两种语言的「骨骼」完全不同:

AI腔写法:

The conference was a pivotal moment, highlighting the continued relevance of the field.

这类句子在指南里被称作“importance inflation + present participle tail”。

「关键」「持续重要」这些判断没有来源,尾巴的 highlighting… 属于典型AI的空转分词。

维基会写成:

The 2023 conference in X City drew about 1,200 attendees. Coverage in Y Newspaper and the Z Journal discussed A and B policy proposals.

年份、人数、媒体报道,全是可以查证的事实。评价不需要说,材料会自己说明事情的重要性。

再看另一个例子,也是编辑们最常遇到的那类广告腔:

The park offers breathtaking views and modern facilities, emphasizing its status as a renowned attraction.

指南把这种叫做「Vague praise / marketing tone」:breathtaking、modern、renowned这些词在广告里再合适不过,但在百科里毫无信息含量。

维基会写成:

The park has two viewing platforms and a 5-km walkway. It recorded about 450,000 visits in 2019 and completed accessible restroom and visitor-center upgrades in 2021.

不夸人、不定性,也不判断价值。只列设施、列年份、列客流量——所有内容都有来源可查。

在维基的世界里,没有来源的评价就是不存在的评价。

当越来越多内容由模型生成,我们读到的语言难免会被模板化的腔调包围。

Wikipedia的做法提醒我们,判断一段文字是否可靠,并不靠某种神奇的检测器,而是靠这句话能否查证、这个判断能否追溯、这条信息是否站得住。

AI也许会写出更流畅的句子,但百科在意的不是好看,而是可信。

当空心句被删掉、广告腔被滤掉、无出处的判断被请出页面,百科页面留下的,就只剩下事实本身。

互联网的未来,大概也会沿着这条路走下去——越是模型生成的时代,越需要人类替语言把关。

参考资料:

https://techcrunch.com/2025/11/20/the-best-guide-to-spotting-ai-writing-comes-from-wikipedia/

https://www.theverge.com/report/756810/wikipedia-ai-slop-policies-community-speedy-deletion?utm_source

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定新智元极速推送!

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。