当前位置: 首页 » 资讯 » 新科技 » 正文

“平台不欢迎有毒的流量”,抖音如何驾驭算法?

IP属地 中国·北京 编辑:杨凌霄 南方都市报 时间:2026-01-22 14:11:23

1月20日,海外社交平台X正式将其推荐算法开源。此前1月10日,特斯拉CEO马斯克发文承诺,X将公开的新算法内容,包括用于确定向用户推荐哪些自然帖子和广告帖子的所有代码,且该流程此后将每四周重复一次。尽管他未解释此举的目的,但这无疑属于社交平台提升算法透明度的一项举措。

在国内,算法公开与治理也已成为各大网络平台的“必修课”。其背景在于,从刷短视频、刷网帖、打车、电商购物到点外卖,算法早已深度嵌入公众的日常生活。然而,用户对算法的了解,远弱于算法对个人特征与偏好的洞悉,于是有了算法“黑箱”之说。为防范算法作恶,监管部门多年来通过法规和专项治理行动开展算法治理。

自2024年11月中央网信办启动“网络平台算法典型问题治理”专项行动后,各平台陆续亮明算法治理的态度。其中,抖音于2025年1月3日推出10项措施,推动平台工作透明化;3月建立“安全与信任中心”网站,不定期公开算法原理与平台治理体系。

时隔近一年,抖音内容运营负责人李翔宇在2026年1月中旬复盘此举时谈到,算法看不见摸不着且十分复杂,容易让公众视其为洪水猛兽,“平台能感受到大家心里的不信任”。按照其说法,抖音公开算法原理与治理体系,目的之一是想通过公开与透明,让外界增进对算法的理解,进而取得用户的信任。

算法是把“双刃剑”。抖音一方面发挥算法作为高效信息匹配的价值;另一方面,也为算法设立“护栏”,推动算法向善。

以算法公开促理解

“算法原理并非公司秘密”

在过去两三年里,每个季度,抖音都会组织一次用户信任感调研,了解平台在哪些方面表现良好,以及哪些地方有待进一步完善。

据李翔宇介绍,调研中常常涉及这些问题:抖音是否在积极承担社会责任?使用抖音的时候有没有沉迷其中的困扰?抖音上的内容是否真实可信?平台氛围是不是足够友善?等等。

信任感与透明度密切相关。抖音在2025年3月上线“安全与信任中心”网站,相当于为用户了解抖音的算法与治理工作开设统一的窗口。上线迄今,该网站累计访问量超150万人次,其中发布了十余条关于抖音算法运作逻辑的科普文章,以相对浅显易懂的表述告诉用户:抖音上的一条视频,是如何推荐给你的?

2025年3月,抖音上线“安全与信任中心”网站,公开算法原理与平台治理体系。

这些科普文章沿着何为推荐算法、抖音的推荐算法如何运作、约束算法作恶的机制三大维度展开。

推荐算法的诞生,意在帮助内容精准找到对其感兴趣的用户。据抖音介绍,当用户打开抖音时,推荐算法会对候选视频打分。决定视频得分或推荐优先级的,大致包含两大要素:一是用户对候选视频进行点赞、关注、收藏、分享等行为动作的概率;二是每项行为对应的价值权重分。将各项行为的概率乘以其权重后加总,即得到该视频的综合得分。根据得分排序,分数最高的视频被推送给用户。

但这套基于用户行为预估的推荐算法也会被“搭便车”:一些博眼球、博流量的内容,甚至植入虚假“弹窗”画面诱导点赞的内容,有可能获得更高的行为预测得分。

内容平台不能交由推荐算法“放任自流”,抖音通过人工参与的平台治理为算法设置“护栏”,相当于用另一套内容识别算法来弥补推荐算法的缺陷。一段视频内容,根据其播放热度,将经历至少三道审核关卡:从初审、复审到三审,平台的审核标准逐渐趋严。在此过程中,内容识别算法会主动对海量投稿进行评估,检测、拦截和过滤掉有问题的内容。

抖音在“安全与信任中心”网站上,发布了一系列算法科普文章。

对以上算法逻辑的科普,抖音不只是自己撰写科普内容,还会联合外部博主合作制作一系列推荐算法深度科普视频。

在李翔宇看来,算法原理并非公司秘密,更多是行业层面的科普。不过算法本身十分复杂,即使是科普文章,对普通公众而言仍有较高的理解门槛。因此,抖音更倾向于让感兴趣的用户主动来了解。

除了增强线上信息公开的透明度,抖音也在线下以开放日、沟通会等多种形式回应关于算法的关切。据抖音介绍,2025年全年,抖音面向媒体、学界、公众举办30余场交流会,听取外部反馈。

李翔宇表示,抖音希望通过算法透明度的披露与加强对外沟通,回应外界对平台算法的质疑,赢得用户的理解。

唯流量至上?

抖音尝试打破对算法的刻板印象

提到推荐算法的负面效果,有一系列标签化的概念正从学术文本深入普通用户的认知。比如:算法黑箱、信息茧房、群体极化、算法造神等等。在2025年底,“愤怒诱饵(Rage bait)”被列为牛津年度词汇,一些声音将该词汇背后现象的成因与算法关联。

根据定义,“愤怒诱饵”指的是一些内容用令人沮丧、冒犯或故意制造分裂的方式,煽动愤怒、冲突和两极分化,以此提升用户的参与度。用中文语境下的话来说,“愤怒诱饵”即为“引战”内容。2025年12月,牛津大学出版社在其官网介绍,在过去的12个月内,“愤怒诱饵”一词的使用频率增长了两倍。

谈及“愤怒诱饵”时,牛津大学出版社旗下牛津语言部门总裁卡斯帕·格拉斯沃尔(Casper Grathwohl)将矛头指向算法的操纵:愤怒引发互动,而算法放大了这种互动。

李翔宇对此表示,“愤怒诱饵”的说法,反映出外界担心算法会不会刻意推荐容易引战的内容,激起用户在评论区的“骂战”,骂得越凶流量越大。

“但这些对平台来讲都是有毒的流量,最终导致平台戾气弥漫,整个舆论场变得很浑浊。”李翔宇说,抖音不欢迎这样的有毒流量,因为这种平台氛围只会引发用户反感。相反,平台希望营造相对理性的讨论氛围。

据其介绍,抖音早在两三年前就已关注到“愤怒诱饵”现象,并自那时起就持续用算法调控开展对应的治理。平台算法如果预估某些内容可能激化矛盾——例如把性别对立或地域对立作为诱饵,将对其赋负分,降低推荐权重。

热点争议事件容易滋生“愤怒诱饵”问题:舆论场中的信息常常混杂不清,为借机炒作、煽动公众情绪的行为提供了空间。2024年的“胖猫事件”即为典型,“胖猫” 跳江离世后,他的姐姐发文指控其弟前女友谭某利用感情操控骗取了“胖猫”大量钱财,导致谭某被不明真相的网友集体讨伐。后经警方调查,“胖猫”的姐姐在当中故意误导舆论。再比如,在2025年7月“武大图书馆事件”一审宣判后,一些账号发布造谣当事人、煽动网暴等攻击性内容,进一步激化不同群体对当事人杨某某或肖某某的不满情绪。

为约束热点事件中出现的极端、煽动、攻击、引战内容,抖音于2025年5月发布了《抖音社区热点信息和账号治理规则》。抖音方面举例介绍,在“武大图书馆事件”中,平台一方面打击谣言、挑动对立的内容,另一方面邀约专业创作者梳理事实、引导理性讨论。

《抖音安全与信任年度报告》显示,过去一年,抖音对包括“武大图书馆事件”在内的多个争议热点开展治理。

这些治理带来的一个客观影响是,平台将面临一定程度的流量损失。但李翔宇称,行业内或许有企业在意此类利益损失,而抖音把社区公约导向的优先级置于这些损失之前,并借助算法改善戾气弥漫的氛围,“这并不是我们包装出来的话术”。面对社交媒体平台流量至上、唯利是图这类甚嚣尘上的指摘,抖音想通过算法和治理工作的公开,告诉公众平台的真实做法,解决复杂问题的思路和难点,以增进理解和互信。2026年1月,抖音在其安全与信任大会上还公布了新的“10项举措”,其中强调,还将多维度治理“愤怒诱饵”、强化争议热点研判。

抖音力求破除的外界刻板印象还有“信息茧房”。这一概念形象化地描述人们只选择自己关注或感兴趣的信息,形成类似“茧房”的封闭信息系统。在公共话语中,个性化推荐算法常常与“信息茧房”问题挂钩。

但站在抖音的角度,平台实际上不愿“作茧自缚”。其逻辑在于,仅推荐单一内容会使用户迅速厌倦,导致用户体验与活跃度下降,因此抖音也想打破“信息茧房”。根据抖音针对内容推送的多样性与用户活跃度的数据实验,内容推送越多元,用户的长期活跃度越高。为此,抖音试图在算法推荐的精准性与多元化之间找到平衡,既避免出现“信息茧房”,又防止因内容精准度变差影响用户体验。

允许用户管理个人兴趣标签,是监管部门治理算法“信息茧房”的一项要点。记者看到,2025年5月升级后的抖音“使用管理助手”,以可视化形式展示了用户浏览内容的类型分布。若用户切换至“探索更多”模式,算法将推荐更多类型的内容。

治理“信息茧房”与治理“愤怒诱饵”的最终目的是共通的,那就是让平台氛围理性而友善。

技术手段升级

但平台治理并非游刃有余

2025年8月,一起医生坠亡事件引爆舆论。河南周口市第六人民医院妇产科主任邵晓蓓坠亡后,家属披露其生前因三起医疗纠纷,在抖音上连续7个多月遭受攻击。

随着事件发酵,抖音官方公布了对涉事账号的核查情况:89条与医疗纠纷相关视频中,有76条视频因违规,在发布后即被平台处置;962条与医疗纠纷相关的评论中,457条同样因违反平台规则,在发布后被处理。

因多个患者的长期“纠缠”,这起医疗纠纷成为了公众眼中的新型“网暴”,也给近年来平台治理网暴带来新的严峻考验。

针对网暴问题,国家网信办等四部门在2024年出台部门规章《网络暴力信息治理规定》,为平台设定了包括网暴预防预警、信息和账号处置、防护机制在内的多重义务。

据抖音介绍,平台在2025年进一步扩大对“用户自述遭遇网暴”的风险识别范围,并借助AI智能体的能力,提升对潜在网暴风险的识别广度,尤其是那些过去可能因未达到明确阈值而被忽略的“低攻击程度”线索。在防护机制方面,抖音新增“谁可以@我”的隐私设置功能,阻断恶意@他人账号实施的攻击行为。

然而,落实监管要求,并不意味着网暴问题就迎刃而解。李翔宇坦言,平台开展网暴治理工作并非游刃有余。

据他透露,平台留意到,医患纠纷之下,医生容易成为被网暴的群体。为此,抖音专门针对医生开展摸排,筛选出140多个存在被网暴风险的医生账号,并逐一研判,按风险高低分为三个等级。针对被网暴风险较高的医生,平台曾对其开展过人工外呼服务,提醒他们可使用的防网暴工具,以及可联系平台寻求法律咨询。

这套处置动作首先遇到的难题是:不同人对网暴的体感差异较大。相似的言论,有的用户视为网暴,另一些用户则觉得能容忍。抖音曾联系一位有被网暴风险的医生,告知如何开启平台的防网暴助手,一键屏蔽陌生人的不友善评论。但这名医生反馈称,已对这类言论习以为常,懒得开启防护功能。

另一项让平台为难之处在于,网暴的界定本身较为模糊。李翔宇介绍,对于明显辱骂攻击的言论,平台能用算法主动识别屏蔽。但许多言论仅仅让人不适,难以明确归类为违规。而且在许多社会热点事件中,是非曲直起初并不清晰。面对这些令人不悦的言论,平台介入干预的手段有限,用户需主动开启防护工具以避免打扰。

例如在周口邵医生坠亡事件中,涉事账号发布的部分内容未上升到攻击、辱骂的程度,而是持续以维权名义哭诉,使医生感到始终被纠缠、精神承压,最终产生类似于网暴的悲剧后果。

除网暴问题外,平台在谣言整治上亦不敢松懈。

长期以来,谣言的识别是“手工活”,依靠外部媒体报道或机构的发现与核实。在此基础上,平台再将谣言信息纳入“谣言库”,去拦截下架相关内容。这一过程效率低,单例谣言的发现和处置时效常以“天”为单位。“造谣一张嘴,辟谣跑断腿”是对这种滞后性的写照。

AI让谣言的发现与管控成为“半自动化”作业。2025年,抖音引入大模型技术治理谣言。AI可以联网检索平台自身积累的历史谣言库样本和公开权威报道信息,鉴别内容是否失实。抖音将失实内容分为“无需核实”(例如明确与权威信源相悖)和“需要核实”两类:AI对前者直接予以管控,对后者则交由人工审核员进一步校验。

引入AI谣言治理后,抖音平台上单例谣言的处置时效已缩短至以“小时”为单位。据介绍,引入“AI治谣”后,抖音谣言内容曝光量下降90%。后续,抖音还将上线在评论区“@抖音求真”的功能,为用户提供自主辨别谣言的工具。

然而,AI治理谣言也不是万能的。首先要有权威的信息源头,否则难为无米之炊。许多热点新闻谣言诞生之初,常常并无可供AI鉴别的依凭,即使是人工也难以辨别传闻真假。抖音将此类情况视作“存疑信息”处理,进行一定程度的流量限制。以“武大杨某某被香港浸会大学取消录取”一事为例,在此信息刚出现时,平台查证发现,事件缺少权威信源来源,随即判定为“存疑”,限制这一信息广泛传播。在此基础上,抖音以“AI求真卡”的形式,汇总介绍事件的来龙去脉,提醒用户谨慎采信。

抖音将“武大杨某某被香港浸会大学取消录取”一事判定为“存疑”,并以“AI求真卡”的形式,汇总介绍事件的来龙去脉。

再者,AI检索的外部数据库本身存在被污染的可能,一些权威的媒体或机构会发布未经核实的虚假信息。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。