当前位置: 首页 » 资讯 » 新科技 » 正文

454个词泄露天机,嗅出论文「AI味儿」!Science:部分期刊AI浓度高达40%

IP属地 中国·北京 编辑:孙明 新智元 时间:2025-07-08 16:13:21


新智元报道

编辑:编辑部

大数据已经能闻出AI味儿了!最近,一份席卷生物医学圈的报告发出警告:如果你论文里高频出现delves、underscores等454个特定词汇,就要小心了——这很可能就是AI留下的「指纹」。

如果你在一篇论文里看到下面这454个词,就要小心了。

它,很可能是AI写的。


正所谓:勇敢的人先享受世界。

一些科学家早早就在投稿给期刊的论文中用上了AI,并且率先享受到了泼天的发表数量。

甚至有些人用6个月,就成为了一个全领域「专家」——投稿给各类专业期刊的letter和comment,方向包括但不限于心脏病学、急诊医学、内分泌学、胃肠病学、肝病学、免疫学、重症监护医学、精神病学、外科学、泌尿学等等……

不过,即便他们十分小心地删除了「我是一个大语言模型」等一眼假的内容,也依然会留下大肆使用AI的蛛丝马迹。

来自图宾根大学的Dmitry Kobak团队表示,他们找到了一种方法追踪AI写作论文摘要的频率。


论文链接:https://www.science.org/doi/10.1126/sciadv.adt3813

他们发现,AI特别爱用一些词,比如「深入探讨」(delves)「关键的」(crucial)「潜在的」(potential)「显著的」(significant)「重要的」(important),比人类作者用得勤多了。


具体来说,研究人员分析了2010-2024年间,1510万篇生物医学摘要的用词,注意到一些词的出现频率蹭蹭上涨。

2024年,他们发现有454个词,AI用得特别多。

Kobak团队估算,至少13.5%的生物医学摘要有AI帮忙的痕迹。在一些国家,不太挑剔的期刊摘要,高达40%可能是AI搞定的。

看到如此多AI撰写的摘要令他感到惊讶。他表示,摘要可是论文结论的精华总结,很多人就只看这一块。

「这么重要的内容,居然让AI写?简直难以想象。」Kobak特别声明,他们自己的论文没用AI。

13.5%?还是太保守了!

研究人员分析了2010-2024年这14年间,发表在PubMed上的1510万篇英文摘要。

结果发现,2023年以后,很多词汇出现的频率显著增加。

比如「深入探究」(delves)这个词,2022年之前每年出现次数稳定在几千次,2024年却暴增28倍;「展示」(showcasing)的使用频率也翻了10倍以上。


为了能更好地量化这个增长趋势。研究人员,基于2021和2022年词频的线性外推计算了2024年反事实预期频率。

为衡量超额使用情况,有两个关键指标:超额频率差δ=p−q和超额频率比r=p/q。

前者主要突出高频词的超额使用情况,后者则指向低频词的超额使用。

为什么这些词能暴露AI痕迹?因为它们大多是不涉及具体科研内容的「风格词」。

研究员利用以上方法,分析了两万六千多个词,发现2024年,有些词简直被用烂了

比如一些显得很专业但有点套路化的表达,像delves (深入研究)、underscores (强调) 和 showcasing (展示),出镜率高得吓人。

还有一些老熟人,比如potential (潜力)、findings (发现) 和 crucial (至关重要),也成了重灾区。

如果AI写的论文里,每10篇就有1篇会用「potential」这个词,而正常写作中100篇才出现1次,那么「potential」的超额频率是9%,这就意味着至少9%的论文用过AI。

但科学家找了291个这样的稀有风格词,把它们的影响叠加起来,才得到13.5%这个保守值。


AI参与度高达41%!

来自非英语国家、发在某些「不知名」期刊(如MDPI、Sensors)的论文,最有可能带着一股浓浓的AI写作腔。

计算生物学研究者最敢用AI,估计有20%的论文摘要经过AI处理,而传统临床领域不到5%。

非英语国家的论文中,AI使用率接近20%,英语国家只有5%左右。


最夸张的是发表在Sensors上的深度学习论文,AI使用率估计有41%。这可能和出版周期和审稿严格程度有关。

顶刊审稿严、周期长,AI痕迹有更多时间被修改掉,而快审期刊更有可能保留原始AI写作风格。

亚利桑那州立大学计算机教授Subbarao Kambhampati表示,科学家知道AI偏好某些词语,尽管原因还不清楚。

他说,一些科学家故意避免使用像「深入探讨」(delve)这样的词,以免被怀疑用AI写作。


但也有些人压根不在乎被抓包。

Kambhampati举例,放射学期刊的病例报告里居然写着:「抱歉,我是AI模型,没法访问实时信息或患者数据。」

AI写的letter,该不该发?

Science最近询问了超过5000名研究人员,何时能接受用AI撰写论文,结果大家意见不一。

是撰写摘要、整篇论文,还是编辑、总结,对于不同的情况,大家看法也不同。

有人抱怨:「上周我让ChatGPT写综述,它居然编造了一个不存在的研究结论。」

这正是科学界最担心的问题。

AI会一本正经地胡说八道。比如让AI总结某领域进展,它可能会把相似研究的结论嫁接过来,甚至虚构数据。

如果训练数据里某类研究占比高,AI会进一步强化这种偏见。

当大家都用AI写作,论文的语言风格会越来越像,甚至连讨论部分的逻辑框架都趋同,这会扼杀创新思维。

斯坦福AI医学教育主任Dr. Jonathan H. Chen表示:「现在一切都很模糊。我们处于灰色地带,像是西部荒野。」

这引发了一个问题:要是投稿完全是AI写的,没有人类作者,期刊该不该直接拒搞?

斯坦福精神病学与行为科学教授Keith Humphreys表示,他曾被Addiction期刊的一封letter欺骗。


Letter中评论了一篇刚发的论文,写得挺有道理。按照惯例,他把letter转给了论文作者,让他们回复。

论文作者却说压根没听说过此人,并表示学术圈子不大,没人认识这号人。

他们搜索了letter作者的出版记录,发现了大量出版物,全是各种期刊的读者letter和comment,涵盖心脏病学、急诊、内分泌学、胃肠病学、肝病学、免疫学、重症监护、精神病学、外科和泌尿学等多个领域。

「这些全是在六个月内完成的,他精通每个领域。」Humphreys说。

这八成是把期刊文章丢给AI,让它生成给编辑的letter。他猜想,作者可能是学术岗位,工资跟发表量挂钩。

于是,他回复letter作者,如果使用了AI,必须声明。

作者没有回复。

Humphreys也没有发表这封letter。

但问题是,letter写得不错,也不是传统意义上的欺诈。

但同事认为,既然现在每个人都有聊天机器人,为什么要发表它们写的东西?任何想看此类分析的人都可以自己生成一个。


Humphreys认为,AI生成的社论可能还挺有洞见。

但同事的一句话点醒了他:「我关心一篇社论的原因是署名。顶尖学者敢冒职业风险,敢说刺耳或不受欢迎的话。」

Humphreys深以为然:「AI没有意义,也没有声誉,我对它没有信任,它不具备道德价值。」

当AI开始代笔,我们更需要思考:什么才是科研写作不可替代的核心?

或许不是华丽的辞藻,而是对科学问题的深刻洞察,以及那份探索未知的真诚。

参考资料:

https://www.science.org/doi/10.1126/sciadv.adt3813

https://www.nytimes.com/2025/07/02/health/ai-chatgpt-research-papers.html

https://www.nature.com/articles/d41586-025-01463-8


免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。