当前位置: 首页 » 资讯 » 新科技 » 正文

研究称AI在社交平台发的帖子仍易被识别,只因大模型不擅长情感表达

IP属地 中国·北京 编辑:吴婷 IT之家 时间:2025-11-10 18:08:12

IT之家 11 月 10 日消息,当前的 AI 已经在象棋、数学等领域超越了人类,且正在逐步渗透到编程、广告乃至心理治疗等行业。然而,研究人员认为,AI 仍有一个尚未突破的领域:在互联网上展现真正的恶意。

当地时间 11 月 9 日,据外媒 PC Mag 报道,苏黎世大学、阿姆斯特丹大学、杜克大学和纽约大学的最新研究表明,各种大语言模型生成的社交媒体帖子都“容易被区分”,且准确率达到 70% 至 80%,远高于随机猜测的结果。

IT之家从报道中获悉,研究人员测试了来自六个不同模型家族的九个开源大语言模型,“参赛选手”为 Apertus、DeepSeek、Gemma、Llama、Mistral、Qwen 以及一个大规模的 Llama 模型,分别在 Bluesky、Reddit 和 X 平台上进行对比。

项研究发现,平台上这些帖子显示的“毒性评分”是区分 AI 生成内容与人类生成内容的关键因素。简而言之,如果有人在你发布的帖子下回了一个特别尖锐或搞笑的评论,那很可能是人类写的。

研究人员表示:“这些结果表明,虽然大语言模型可以模仿在线对话的形式,但在捕捉对话的情感本质上存在困难:自发且充满感情的表达是人类互动的特点。”

研究人员指出,模型在某些特定情境下的表现尤其差劲。例如,在马斯克 X 的帖子下表达积极情感,或者在 Reddit 上讨论政治。总体来看,所有测试的 AI 模型在模仿 X 平台的帖子时表现较好,而在 Bluesky 上则稍显逊色,Reddit 则是三者中最具挑战性的,因为该平台的对话规范更加多样。

研究还表明,大语言模型更擅长模仿社交媒体帖子的技术性特征,比如句子长度或字数,而在表达情感方面则显得较弱。在所有三个平台上,AI 的回应“毒性”评分普遍低于人类的回复。

研究人员还发现,Llama-3.1-8B、Mistral-7B 和 Apertus-8B 等未经过人类指令微调的 AI 模型比经过微调的模型表现更好,这一结果表明过度校准训练引入了过于一致的风格,使得文本更机械化。

标签: 模型 人类 帖子 社交 语言 平台 文本 情感 广告 大学 内容 对话 领域 媒体 评分 编程 阿姆斯特丹 心理治疗 杜克大学 毒性 远高于 政治 挑战性 结果 总体 三者 特征 微调 区分 结果表明

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。