当前位置: 首页 » 资讯 » 新科技 » 正文

科学杂志《Science》发文:偏激观点不是算法造成的

IP属地 中国·北京 南方都市报 时间:2025-11-06 18:17:29

互联网快速发展的同时,社交媒体信息茧房、群体极化等现象愈发受到关注。一种声音认为算法是造成这些现象的罪魁祸首,事实或许并非如此。近日,世界权威学术期刊《Science》刊载文章《不要责怪算法:社交媒体可能天生就存在两极分化》,介绍了来自阿姆斯特丹大学逻辑、语言与计算研究所的最新研究论文和成果。论文显示,即便没有算法,社交媒体也会存在极化现象,甚至算法能弱化极端声音。



论文中,研究团队搭建了一个没有个性化算法推荐机制的极简版的社交平台,只保留发帖、转帖和关注三种最基础的功能,并投入了500个带有“人格设定”的聊天机器人。这些机器人基于大语言模型和AI智能体运行,拥有固定的人口学属性,比如年龄、政治立场等,可模拟社交媒体中的发布、转发与关注等行为。

结果显示,这些聊天机器人经过5万次自由互动后,迅速分成了阵营:立场接近的互相关注,不同立场几乎没有交集,中间派被孤立在边缘;小部分“大V”账号获得了大部分粉丝和转帖,注意力分布不均衡;与此同时,立场鲜明甚至偏极端的内容传播得更快更广,越极端的观点越容易扩散。

为了尝试解决这些问题,研究团队测试了六种简单的干预措施,包括仅按时间顺序展示帖子,而非基于参与度展示。他们还测试了所谓的反算法,即向用户展示参与度最低而非最高的帖子,或者向用户展示表达与他们自身相反政治观点的帖子。这些方法都没有完全奏效,有些实际上还加剧了极化程度。

这一实验证明,社交媒体被诟病的三大乱象——信息茧房、影响力集中于少数、极端声音被放大——并非算法推荐导致,而是根植于人们的网络社交行为。“说实话,我有点失望,”该论文研究员之一托恩伯格坦言,“这原本应该是一篇乐观的论文。”

实验结果驳斥了近期国内一些自媒体中流行的“算法离间”“傻子共振”等说法。所谓“算法离间”,指算法给不同群体推荐有偏见的观点内容,如男性用户刷到“顶级家庭男人说了算”,女性用户刷到“男人不交工资卡就是不爱家”,制造家庭成员之间的对立。“傻子共振”则形容一群人因为荒谬的观点聚集在一起,在算法的推荐下彼此认同、相互强化这个观点,逐渐形成了封闭的认知环境,共同传播偏激言论。这些观点,一致将算法认定为社交媒体极化现象的根源,与实验结果相悖。

事实上,这一研究结果并非孤例。来自多所高校的学者,进行了一项针对23377名美国成年Facebook用户的研究,该研究实验通过算法干预,将实验组用户接触的同质立场内容(与自身政治倾向一致的信息)暴露量降低约 1/3,发现实验组与未干预的对照组在所有八项极化指标上均无统计学显著差异,说明算法干预对极化没有影响。

另一篇刊发于《Nature》的论文也显示,社交媒体的极化程度与用户使用时长无关。论文中,来自多伦多大学计算机系的研究团队,分析了社交平台Reddit 14年间共计51亿条评论。研究发现,2012-2015年,Reddit的政治极化程度稳定,但在2016大选年,平台政治极化程度骤升,且主要由当年新增用户的极化带动。这说明用户极化程度与平台使用时长无关,极化受外部现实事件驱动,而非平台内行为累积。

为什么会存在社交媒体极化现象?中国传播学学者刘海龙在为美国杜克大学社会学、政治学与公共政策教授克里斯·贝尔所著的《打破社交媒体棱镜》一书所作的序言中表示,人们会回避相反的观点和个体,这符合经典的认知不协调理论所证明的人类本性。该书还通过实验证明,即便让测试者在社交媒体中接触对立观点,也并不会使其变得更为温和和理性,反而会促使其证明自己是正确的,变得更加极端。

因此,社交媒体茧房、极化等问题并非算法造成,而是古已有之,根植于人性与人类社群。实验证明,即便没有算法,社交媒体同样会存在极化现象,有时还会更加极端。正确看待算法,认清社交媒体极化现象的本质,能够进行有效反思,才是减少社交媒体极化的关键。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新