只有当使用边界透明、责任归属明确时,AI 才会真正成为学术的工具;人也不会在AI面前进退失据,既不神化它、把一切判断轻易让渡,也不妖魔化它、徒增无谓的防备。
2月24日,药学综合类学术刊物《中国药房》编辑部就近期部分审稿专家使用AI代审的现象发布声明,称学术期刊审稿工作有着科学性、严谨性与保密性等多重特殊要求,若随意采用未经保密性验证的AI平台代为审稿,极有可能无法保障稿件评审质量,更有可能泄露作者的原创学术成果。并要求若收到稿件内容确不属于自身研究专长,及时退审并说明理由;若部分审稿内容采用了外部AI工具作为辅助手段,说明工具名称及其在审稿过程中的具体用途。
![]()
这个声明之所以吸引眼球,是因为它第一次挑明了“用AI审论文”这件事。前不久,舆论还在密集讨论能不能用AI写论文,如何识别、处理AI论文云云,现在则进一步“升级”——别说写论文了,看论文也已经用上AI了。
其实,看论文恰恰是AI最大的擅场。文献梳理、逻辑检查、方法比对、引用核验,在这些相对“机械”的领域,AI作为机器的优势不言而喻。对于审稿人而言,AI 可以迅速帮忙扫清显而易见的结构问题、统计错误或表述漏洞,提示与既有研究的相似之处,从“工具理性”的角度看,它几乎是为审稿量身定做的助手。
这个问题不是国内独有。斯坦福大学曾经发表研究,对一些顶级AI会议的审稿意见进行了分析,发现在ChatGPT出现之后,这些同行评论的“AI含量”大增,最多的高达16.9%,而有ChatGPT之前这个比例大约是2%。
这其实让很多学校“拒绝AI”的声明透出某种无奈。学生完全有理由相信,哪怕自己不用AI写论文,老师也会用AI看论文,AI已经事实上成为学术生态的一环了。
但AI的存在感增强是不是就“不好”,却又另当别论。人的判断一定优于AI吗?人的表达一定强过“AI味重”的语言吗?在AI大发展的当下,只怕很多人已经没有这样的自信了。AI也许不够“大胆”,但至少在逻辑一致性、细节核查和文献覆盖上更稳定、更克制。别说AI写论文、看论文了,用AI来进行分子描述、细胞研究等都已经极为常见。
在这个大背景下,拒绝AI怕是不可能了,重要的是重新找到人的学术生态位。AI把实验做完了,人如何下结论?AI把论文审完了,人如何给出通过与否的结果?某种程度上,人甚至有可能沦为AI的打工者,表面上仍是研究者、审稿人,实际上却只是为 AI 的输出盖章背书。
但是,人在学术中的存在意义,不是为“物种尊严”争口气,而是确保有价值的学术成果能够出现。人作为最后一道关口,也是唯一有可能“担责”的环节。做好最后的仲裁,可能是技术为人留下的最后一块领域。
所以眼下没必要拒绝AI,也没必要因为使用AI而有“耻感”。正像《中国药房》的声明所说的,“若部分审稿内容采用了外部AI工具作为辅助手段,请说明工具名称及其在审稿过程中的具体用途”,关键是明确AI怎么用。
论文要不要保密,人如何对最终结果负责,在哪些环节允许使用AI,这些都不妨清晰标记。只有当使用边界透明、责任归属明确时,AI 才会真正成为学术的工具;人也不会在AI面前进退失据,既不神化它、把一切判断轻易让渡,也不妖魔化它、徒增无谓的防备。
“光明论”微信公号





京公网安备 11011402013531号