当前位置: 首页 » 资讯 » 新科技 » 正文

张喆锐|数据污染的平台治理责任

IP属地 中国·北京 上观新闻 时间:2026-04-20 10:28:55



生成式人工智能和社交媒体的发展加剧了数据污染的现代风险。泛滥的污染数据信息可能会导致个体认知偏差、民主协商失序以及社会信任脆弱等风险。公法应当对数据污染的平台治理加以规制。首先,在义务主体上,对污染数据信息的主要审查义务不应由个体而应由平台承担。其次,在义务内涵上,一方面,应在区分事实逻辑类、价值偏见类以及低价值类污染数据的基础上,对数据的可靠性程度进行类型划分。另一方面,应区分信息智能生成阶段与信息传播阶段,结合模型学习、模型应用、社交媒体平台传播以及具体应用场景的差异,确定不同类型平台的可靠数据保障义务。最后,在不法后果上,应构建合比例的行刑规制体系,以《刑法》第286条之一作为数据污染平台治理的最后法保障。


一、问题的提出

随着21世纪数智技术的发展,人们可能被网络平台中虚假的、片面的和碎片的污染数据信息所裹挟。以deepseek和chatgpt为代表的生成式人工智能(generative artificial intelligence,以下简称genai)在表现出优秀的自然语言“理解”能力的同时,其生产虚假知识的“禀赋”也引起了人们的重视。这一过程既可能是模型的“胡言乱语”,也可能是模型“中毒”所致。有研究显示,当训练数据集中有0.01%的虚假文本时,模型输出的有害内容便会增加11.2%。此前,ai聊天机器人grok因学习社交媒体平台中用户发布的内容,生成了一系列针对特定种族的歧视性言论,引发社会的广泛关注和舆论争议。数据污染无声无形,却能令ai输出结果如受病毒侵染般失序、失真甚至失控。genai由于数据投毒攻击所生成的污染数据信息,若逐渐蔓延至法律、政务、金融等不同应用领域的数据生态体系,则会以更为隐蔽的方式直接或间接引发模型失效、决策偏差和社会信任危机,甚至可能波及国家安全。这种污染数据信息的渗透越是温和,越容易在不觉察间被人们所接受,进而潜移默化地产生结构性影响。因此,如何在网络平台中获取和使用可靠知识成为被密切关注的研究主题。

近年来,我国高度重视对以不实信息为代表的平台数据污染信息的治理,在法律法规层面,我国修订和新增了《互联网信息服务管理办法》《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)以及《互联网信息服务深度合成管理规定》等针对社交网络平台和人工智能虚假信息治理的若干规定,并于2025年出台了《人工智能大模型第1部分:通用要求》《网络安全技术生成式人工智能数据标注安全规范》《网络安全技术生成式人工智能服务安全基本要求》等国家标准,为数据污染治理提供了基本制度框架。在政策上,中央网信办连续多年开展“清朗·整治违规开展互联网新闻信息服务”“清朗·整治ai技术滥用”“清朗·整治‘自媒体’发布不实信息”等专项整治活动,围绕利用ai技术制作发布谣言、自媒体发布不实信息以及虚假不实新闻信息编发等网络乱象展开集中整治。其中,中央网信办有关负责人在“清朗·整治ai技术滥用”专项活动部署中指出,对于ai训练语料管理不严、安全管理措施薄弱以及利用ai制作发布谣言和不实信息等重点问题,各地网信部门应当切实履行管理责任,督导网络平台健全生成合成内容审核机制,提升技术检测能力,引导各方正确认识和应用人工智能技术。根据现代性风险和违法犯罪形势特点的变化而作出及时有效的应对和调整,是国家治理现代化和社会主义法治体系建设成果的重要体现。在理论研究方面,早期关于数据污染的研究主要围绕具体数据造假展开,近些年主要聚焦genai场景下元数据污染对数据或信息生成的影响以及污染数据后续传播造成的风险等方面。

但是,在针对数据污染的法律法规制定与政策施行方面,仍存在规定较为抽象以及判断标准不明确的问题。譬如,关于法律法规以及中央网信办专项活动中所指出的“歪曲”“虚假”“不实”等概念以及数据的“污染性”判断标准有待进一步明确。同时,既有研究对数据污染链条中多方主体责任的依据及其分配的讨论亦存在不足。譬如,民众是否对平台中的污染数据负有认知审查义务,genai平台与社交媒体平台在数据污染进程中所起作用有何差异,两者之间应当如何协同治理等问题,有待进一步展开。

上述问题的症结在于,平台在数据污染治理中的责任地位及其内容尚未明晰。一方面,平台作为数据污染的主要发生场景,数据信息的污染或有害性程度应当结合平台算法和应用领域加以类型化分析。另一方面,平台作为数智时代的社会共治主体,在事实上,起到联系各方主体的重要中介作用。确定平台治理责任的正当性及其边界有助于厘清各方义务内容。为合理、有效地解决数据污染问题,从以下三个方面展开讨论:一是,明确数据污染在平台“助推”下形成的结构性风险;二是,明确数据污染的形成机理及以平台为主的各方主体在数据污染治理中所应扮演的角色地位;三是,明确数据污染的判断标准以及不同平台在数据污染治理中的义务边界及其不法后果。

二、数据污染治理的必要性

以虚假新闻、虚假科普、统计数据造假为代表的数据污染问题由来已久。在数智技术背景下,数据污染所呈现的风险结构与危险后果较以往存在显著差异。人工智能模型的涌现效应与社交媒体平台的算法推送使得数据污染信息泛滥加剧,引发个体认知偏差、民主协商失序以及社会信任脆弱等风险。

(一)

数据污染引发个体认知偏差风险

数据污染信息在社交平台的助推下可能对理性主体的自我决定前提造成侵害。同时,从长期来看也会对主体的自我塑造形成障碍。数据污染信息在人工智能技术的“帮助”下识别难度更大、影响程度更深、复杂程度更高,其不仅可能会被再次用于模型训练而产生更多、更严重的虚假错误信息,同时伴随技术发展、具体领域应用以及用户行为的介入,可能会对人类知识库造成深度影响。

一方面,数据污染信息的严重泛滥使得个体可能基于碎片或虚假的不可靠认知材料作出决定。有效的自治决定是行为人为其行为结果答责的前提基础,这要求尽可能可靠的知识信息素材,以便决定者在此基础上能根据自己的价值标准和喜好规则作出决策。尽管在法律上设想一个掌握所有知识信息的决定者是不可能的,但至少应当保护个人的知识基础免受不正当影响。有观点认为,去中心化多元网络的数字传媒使得数字公众可以接触到更多信息,这有助于发掘和释放后者的主体性潜力,并提升其民主素养和辨别能力。但这一观点忽视了人的理性能力的有限性以及语言、环境、知识圈层等因素对人认识和理解世界的能力的重要影响。中国互联网络信息中心2025年发布的《第55次中国互联网络发展状况统计报告》(以下简称《第55次发展报告》)显示,能够熟练“在互联网上搜索信息并辨别真假”的网民占比仅为28.8%。同时,泛滥的污染信息在算法的作用下可能致使用户陷入信息茧房,使其在不知不觉中从互联互通的信息“世界村居民”成为信息“孤岛原住民”。现实中,通过数据污染实现意识形态渗入的案例已屡见不鲜。2022年8月,美国斯坦福大学网络观察室和社交平台分析公司graphika联合发布的报告《听不到的声音》指出,推定源于美国的虚假信息传播组织正是通过在社交媒体中大量发布虚假信息的方式操纵全球舆论进而影响民众认知。信息的自由流通受到抑制,人们陷入算法社会的“囚徒”风险加剧,正是对人之自治的隐秘侵害。人们自以为基于自我决定所作出的理性决断,实质上可能是在资本运作的影响下,基于受污染的认知材料信息所作出的。这一现象可谓“缸中之脑”思想实验所描绘困境的当代再现。

另一方面,在认知过程中,具有高度仿真性的数据污染信息可能在“回音室”效应的助推下进一步影响受众群体,负面影响数字民众的自我认知建构。有研究表明,在以科学虚假新闻和阴谋论为代表的虚假信息传播过程中,用户对信息“真实性”的接受很大程度上受社会规范或与用户信念体系契合程度的影响。在这个过程中,“回音室”效应对信息内容的传播起到关键性的推动作用。虚假信息一旦获得认可,进而催生错误认知,便极难得到纠正。同时,也应当警惕人工智能生成内容(aigc)信息中所暗含的意识形态偏见。前述ai聊天机器人grok的歧视性言论便是典型事例。意识形态数据污染在互联网中无处不在,由污染数据深度融合的数字认知过程正是在这一方面对人的认知塑造产生负面影响。人的自我形象和价值共识正是在共同体对“我”的反应态度和“我”对他人态度的反应互动中得以形塑。被污染的认知材料和陷入“沉默漩涡”的认知过程,使得人的自我塑造在长期往复的这一过程中受到不可忽视的负面干预。

(二)

数据污染引发民主协商失序风险

数据污染泛滥可能破坏公民间理想的沟通情境。哈贝马斯指出,主体间的共识达成应当在理想的沟通情境当中进行。这就要求言语者完成正确的语言行为、提出真实的命题以及真诚的意见、意图和愿望表达等。建立交往合理性、实现有效的主体间沟通,是克服工具理性膨胀所带来的负面效应的关键。只有在交往合理性的基础之上,才能重建价值合理性和现代文明。理想的沟通情境正是使主体之间能实现有效沟通的重要前提。

然而,在社交平台去权威和去中心化特性的影响下,数据污染正严重威胁这一重要前提。伯克指出,随着信息经济、知识驱动型企业以及知识科技化的持续加速发展,人们彻底进入信息爆炸时代。知识的“民主化”趋势也同时出现。一方面,不同于传统媒体,社交网络平台不制作也不编辑,而是作为“不用负责”的中介在全球网络中建立联系,并以令人吃惊的方式加速接触,以开启和强化不可预测的讨论。另一方面,平台为用户提供了完全平等的交流环境,但这一伟大解放式的承诺如今正被“回音室”效应中的噪声所淹没。身处“回音室”内的个体容易在群体极化氛围当中陷入非理性状态,从而拒绝理性沟通,作出非理性决策。这一过程在虚假信息的影响下往往会导致负面舆情爆发,扰乱网络秩序。譬如,在网络暴力事件中,拥有更多话语权的网络民众通常会通过自我赋权的方式,在片面或虚假的认知材料基础上迅速占据网络舆论事件中的临时至高权利点,并在集体非理性作用下形成“想象的共同体”,对对方进行“道德制裁”。此外,在人工智能技术的加持下,如今虚假新闻对政治公共领域的渗透日益严重,特别是存在向“后真相民主”发展的趋势。这些现象可以间接说明在此基础上所形成的公共领域观点的质量、公民参与舆论形成和决策过程的程度。尽管有批评者认为哈贝马斯与法兰克福学派的后继者们对数字技术的发展过分悲观,并主张数字空间特有的虚拟性、无界性、即时性和交互性,使得这一新型公共领域更具普遍性、平等性、自由度和开放性,但这些批评者们也不得不承认算法操控和信息茧房等问题确实存在。这些问题恰恰使得数据污染风险被无限放大,成为妨碍数字空间特性发挥正常效能的重要阻碍。只有保证或者促进多元可靠信息的正常相互流通,基于数字技术的行动理想沟通情境才是可能的,同时数据的流通价值才得以充分实现。

上述困境普遍存在于民主制度当中。相比于西方式民主,中国式民主以人民当家作主为本质,以全过程人民民主为特征。而要制定出让人民群众都满意的法律,就应当抓住“全过程人民民主”立法这个关键,因为立法在某种程度上是不同利益群体对话和博弈的主阵地。要想实现不同群体间平等、彻底和全面的讨论,上述理想的沟通情境就不可缺少。否则,象征性立法将成为常态。而作为象征性立法典型体现之一的压力型立法就是立法者信息能力不足的产物,这样的立法模式过多地服务于安全情绪的维护而非自由的法治实现。因此,应当对数据污染的泛滥现象予以回应与管理,否则将对民主协商秩序造成损害,使得民众的利益无法得到及时有效保护并影响立法的科学化进程。

(三)

数据污染引发社会信任脆弱风险

数据污染泛滥可能破坏社会信任,在众多领域系统造成负面影响。其一,数据污染泛滥可能破坏民众对信息的信任感,影响日常决策和生活利益。根据世界卫生组织公布的信息,公共卫生中的虚假信息传播目的在于削弱人们对公共卫生机构的信任,这在covid-19大流行期间体现得尤为明显。大流行病期间的虚假信息不仅迅速引起全球恐惧,同时也引发人们对治疗和疫苗安全性、有用性的质疑,进而影响到人们的健康决策,在一定情况下导致死亡率的上升。其二,数据污染泛滥可能影响行业信誉,严重增加信息交流成本。世界经济论坛发布的《2025年全球风险报告》指出,虚假信息和错误信息是未来两年最紧迫的风险,生成式人工智能降低了内容生产和传播的门槛,扩大了虚假信息和错误信息传播的范围,导致公众对媒体的信任度持续下降。路透社发布的《2025年数字新闻报告》中指出,大多数国家的受众群体认为在新闻领域应用人工智能技术会降低新闻的透明度、准确性和可信度,而公众对新闻的总体信任度约为40%。此外,人工智能技术的广泛运用不仅会深刻影响民众对媒体的信任感,同时也明显影响着媒体从业者。新华社研究院发布的《人工智能时代新闻媒体的责任与使命》智库报告指出,67.6%的受访媒体明显感觉到生成式人工智能在传媒领域引发的行业变局,为此他们要抽出更多的精力用来分辨虚假新闻和虚假照片等。其三,数据污染泛滥也可能对领域业态产生根本性影响。譬如,一份虚假研究报告或一段深度伪造的视频可能在直接引发市场价格短期轻微波动的情形下,持续性导致投资者对市场信息产生质疑,进而损害市场整体效能。

尽管虚假信息长期困扰着人类生活,但genai的涌现效应与社交媒体的逐利特性,使得受污染的知识信息识别难度更大、影响程度更深、复杂程度更高。相较于传统的知识生产与传播,数字时代展现出完全不同的底层逻辑。genai不仅能在短时间内生产海量污染数据,还能高速化、全渠道以及高渗透传播,在短时间内大规模侵入社会,进而影响科技创新、冲击数据安全、混淆社会表达。大量知识的生产者,为了获取更多的流量,从“把关人”变成“流量王”。相比于发布更为专业可靠的知识信息,博得受众眼球的、符合受众心理需求与偏好的知识信息更受知识生产者的喜爱。而社交网络平台为了更好地迎合“流量经济”,对用户的偏好信息推送呈现出大量夸张、虚假、极端的倾向,以博得用户的注意力,导致用户陷入算法推送机制下牢固的信息茧房。相比于传统媒介,以自媒体为代表的知识生产者缺乏先天的身份权威,当以“流量至上”为基本追求时,披着知识生产与传播外衣的虚假知识将变得更加隐蔽且不易察觉。数据污染所造成的个体认知偏差、民主协商失序以及社会信任脆弱等风险不仅在现实层面对人的生活利益造成侵害,同时也在意识形态层面产生结构性影响,动摇法治国的自由基础。要实现有效的数据污染治理,不仅应当对数据污染风险、生成机理以及污染数据信息的判断标准进行准确把握,还应当基于各方主体的责任逻辑差异,围绕网络平台展开各方治理义务分配,构建以网络平台为中心的数据污染治理体系。

三、数据污染治理的责任分配

要实现数据污染治理的合理责任分配,首先应当剖析数智技术背景下的数据污染形成机理。genai场景下的数据污染主要发生在模型学习和应用阶段,使用者的再传播构成联系genai平台数据污染和社交媒体平台扩散污染的重要中间环节。对此,私法在数据污染治理上存在功能错位。公法应当在治理过程中弱化普通个体的认知审查义务,确立平台对身份者、有影响力者的认知审查和审慎表达的监管义务以及平台自身的可靠数据保障义务。

(一)

数据污染的形成机制

在前大语言模型时期,数据污染问题主要表现为人工标注、特征选择以及数据收集偏差等方面。这一时期,由于数据量相对较小、人工标注留痕,所以数据污染所影响的范围相对较小,可追溯性也更强。相较于前者,大语言模型不仅在数量规模上存在显著差异,在人工介入程度方面也发生了根本性转变。工程师们不再需要花费大量时间对数据进行手动标注、关键词提取,更多地是对大模型训练进行微调、偏好对齐和指令调优,而无需对模型底层架构进行改动。这一转变不仅极大程度地解放了工程师在琐碎细节方面的劳动力,显著提升了模型的运行效率,同时使得模型能在基于海量数据的预训练中学习如何更加“像人一样”处理信息关联。

然而,大语言模型在实现底层逻辑转变的同时,也面临着不同于以往的数据污染风险。以chat-gpt的transformer架构为例,其采用自注意力机制以捕捉语言序列中不同位置之间的概念关联,并可以将序列中任意两个位置之间的相关性建模,从而提高模型的表达能力。在预训练阶段,chatgpt采取的是一种无监督学习方式。为确保机器回答的安全与妥当性,在监督微调与对齐优化阶段,由人类介入chatgpt的运行,对transformer模型予以完善。数据污染可能发生在这一过程中的各个阶段。在预训练阶段,数据投毒者不仅可以利用大语言模型大规模使用互联网数据进行无监督训练的特性,在各大社交平台、软件、网站等开放资源获取处恶意投放海量碎片、虚假或蕴含价值偏见的低价值和有害数据信息,从而潜移默化地污染训练语料库,间接影响大语言模型,还会以后门攻击、对抗攻击、数据注入等方式,在输入数据中混入不易被发现的污染数据点或操控机制,实现对模型的恶性干扰;在微调和对齐阶段,攻击者只需要通过操纵极少数的污染对齐数据即可显著扭曲模型偏好。除典型的数据投毒行为外,数据污染也可能发生在非人为操控genai的情形之中,其中最为典型的就是ai幻觉现象。

可以发现,无论数据污染的方式、类型如何变化,genai场景下的数据污染主要发生在两个阶段。在模型学习阶段,表现为因恶意篡改、记录错误或数据缺维等原因致使所获取的数据失真,成为被污染的数据;在模型应用阶段,表现为由于原始数据被污染、ai幻觉或软件缺陷等原因导致输出的数据存在问题,其在流入互联网后进一步造成数据污染。在前一阶段,数据污染直接指向的对象是ai模型。被污染的训练数据提供了不可靠的信息关联,而基于该类数据学习形成的模型则会将此种关联当作规律予以确定,引发后续影响产品使用者的潜在风险。在后一阶段,模型缺陷或不可避免的ai幻觉使得genai生成的不可靠数据信息不仅可能直接影响产品使用者,还可能经由使用者的传播而间接影响其他数字民众,具有再次流入genai训练数据集从而使其受到再污染的风险。从整体的数据污染流程来看,genai平台的信息智能生成阶段与社交媒体平台的信息传播阶段同等重要,平台的使用者构成联系两者的中间环节。在信息智能生成阶段,根据污染数据的生成差异,可以将此阶段的数据污染区分为以数据投毒为代表的模型中毒类数据污染、以算法偏见为代表的可避免技术缺陷类数据污染及不可避免的ai幻觉类数据污染。genai的出现使得数据污染的原材料得以无限“提纯”和最大“量产”,而社交网络平台算法则是使得数据污染材料得以无限传播和深度影响的扩散装置。尽管使用者的中介地位极其重要,但无论是提供生成指令还是传播污染数据信息的行为,都无法离开前述平台而实现。因此,为实现数据污染的有效治理,应当重点围绕信息智能生成与信息传播两大阶段,在不同平台的各自领域内讨论污染数据的传播链条治理。

(二)

私法在数据污染治理中的功能错位

在传统公私法二分的法律保护路径上,通过私法对可靠数据进行保护存在本质上的功能错位。首先,在救济力度上,私益诉讼成本远大于利益救济。在可靠数据的私法保护路径中,对利益的保护往往是通过侵权责任加以实现的。然而,在绝大多数的污染数据传播情形中,私主体的利益受损情形并不显著。即便后者决定维护自身利益,所面临的也是相对较大的诉讼成本。这就使得尽管为维护用户消费权益而采取民事私益诉讼遏制虚假新闻具有法律上的依据和基础,但实际上无论是在传统媒体还是自媒体传播虚假信息的情形下,用户通过私益诉讼惩治媒体抑或寻求消费权益救济的案件都极其少见。

其次,在救济实现上,私主体的利益损害往往难以量化。要实现对污染数据的生产者与传播者的责任追究,一方面需要证明私主体所遭受的利益损害,另一方面需要证明污染数据的生产与传播和私主体的利益损害之间具有明确的因果关系。除非如前文所述,用户个体因受污染数据的事实性支配而陷入非理性状态,从而损害自身利益,否则在大多数情形下,污染数据对个体的人格塑造影响以及两者之间的因果关系并不以可视化的方式呈现,对此进行证明的难度较大。

最后,在功能本性上,私法并不服务于共同体维续目的。私法的目的在于提供私主体间的利益救济保障。尽管在污染数据传播过程中不乏存在对用户个体利益造成损害的情形,对此可以通过侵权责任追究进行救济,但是在此过程中更为重要的是,知识的双向过程可能对社会结构以及个体塑造造成不可视的结构性影响。这种结构性影响,不管是针对性地预防还是回溯性地归责,都自始超出了私法所负责的领域范围。因此,从救济力度、救济实现以及私法的功能本性三个方面而言,私法在可靠数据保护上存在整体上的功能错位。

(三)

数据污染治理主体的义务分配

1.国家层面:以平台为中心的数据污染双层监管模式

首先,国家应当通过公法对数据污染进行治理。公法是关于国家的法,公法的独特性在于其公共性,因而对可靠数据获取进行保护是公法的内在要求。其一,从个体发展的维度来看,公法应当保障个体免受他者控制以及基于自我决定塑造自身的自由,以此为个体参与公共生活奠定基础。保证人的自由本性免受侵害,正是自康德以来的实践哲学的根本出发点。其二,从意见形成的维度来看,公法应当保障理想的沟通情境,使得协商民主制度所形成的结论能真实反映集体共识。这一共识在当代实践领域具有重要意义,是使得主体的主观意志获得客观普遍性并关涉人之自由具体实现的重要途径。其三,公法应当保障共同体的存续基础,即主体间的相互信任纽带。以往人与人之间的联系主要靠的是血缘、地缘、精神和彼此之间的相似性。如今社会分工成为现代社会得以存在和可能的前提条件,分工不仅在功能分化上提高了劳动生产率,同时它超出了单纯经济利益的范畴,使得人们相互联系和团结,摆脱彼此孤立的状态。从人类发展历史来看,没有哪个时代能像今天的分工社会一样,将人们紧密地联系在一起。在这个过程中,主体间或系统间的交往与联系靠的不是强迫而是沟通,而信任则是这一过程不可缺少的前提。作为社会性存在的人无法离开共同体生活,主体间的信任关系构成自我实现最基本的要求,也成为实现自由最基本的前提。如前所述,数据污染的生产与传播者不仅对个体的自由认知与自我塑造构成消极影响,破坏主体间的理想沟通情境,也通过其行为否定了其自身先前所认同并参与构建的相互承认和信任关系。公法正是通过对此进行回应,使得前者作为理性之物再一次得到尊重。以上正是公法对可靠数据获取进行保护的内在要求。

具体而言,国家一般通过两种方式履行其监管职责。一种是直接监管,即国家直接针对平台上的个体违法犯罪行为进行管理。另一种是通过确认平台承担的监管义务和权力进行间接监管。后者便是典型的看门人理论的现实化呈现。一方面,平台由于掌握着庞大的信息和技术资源,在深度数字化时代,平台已逐渐成为社会的信息中心和组织枢纽。作为重要的结构性环节,平台既是互联网生态的创建者也是运营者。另一方面,平台所拥有的资源为资源匮乏和技术不成熟的行政机关留下的监管空白提供了监管可能。基于此,“国家管平台,平台管用户”成为如今社会治理中的主要模式,由以往国家对违法个体直接干预的单方面治理模式转向国家通过平台对个体实行间接干预的合作治理模式。这种治理思路早已在以《网络安全法》为代表的互联网信息管理规范中得以体现,有着坚实的规范基础。在具体治理过程中,应当注意避免过多的刑事治理措施介入,更多地通过行政的手段推动数字平台的自我监管和自我治理,实现“以管促技”,进而推动数字经济的有序发展。

2.个体层面:认知审查与表达审慎的义务分配

首先,普通网络民众不应主要承担对污染数据的认知审查义务,原因在于要求个体承担这一义务是对个体审查能力的极大挑战和负担施加。其一,人的理性是有限度的。自近代科学取消了上帝权威之后,人的理性能力被抬入了神殿。西蒙对此提出了有限理性理论,认为人的理性是有限度的,人脑的构成和处理问题的能力远不足以完美解决现实中的复杂问题。在社交平台中,用户面对浩如烟海的知识信息,在不借助知识权威主体帮助的情况下,难以对真假信息进行识别。此外,算法推送所形成的信息茧房与沉默漩涡,使得用户难以接触到各方信息。其二,审查成本过于高昂。要求用户以理性主体身份来审查知识信息的可靠性,意味着要求前者跳出信息茧房,实现对知识信息的全面检索。其三,社交网络平台的用户群体成分复杂,以理性主体标准要求所有用户并不现实。《第55次发展报告》显示,截至2024年12月,我国网民规模达11.08亿人。其中,10—19岁网民约占13%,50岁以上网民约占34.1%。不同年龄段网民的生理状况、知识储备以及生活环境都存在差异,以理性人标准要求所有人既不合理也不现实。其四,从伦理的维度来说,要求个体承担认知审查义务是对个体消极自由的侵害。阿伦特指出,对于古代政治思想而言,城邦与家庭、公共与私人之间的区分具有自明性。在现代化进程中,这一主张似乎遇到了异乎寻常的困难。大众社会不仅破坏了公共领域,也破坏了私人领域,剥夺了人在世界中的避风港位置。在公共领域与私人领域界限愈发模糊的现代背景下,将这种审查义务赋予个体,看似声扬了人自我管理和负责的主体性地位,实则是对个体消极自由领域的不当侵害。以人为本,保障社会公平正义和人民权利是现代法治的内在要求。要求个体花费更多的时间和精力抵抗来自污染数据潜移默化带来的个体认知殖民风险,就如同要求个体在黑夜中承担起更多的自我保护义务一般,是对个体行动自由的极大限制。

其次,普通网络民众应有限地承担表达审慎义务。表达审慎义务的本质是有限的言论自由。在密尔看来,言论自由不仅无害,同时有助于促进真相认知。尽管有观点认为,在互联网时代下,“讨论促进真相认知”的观念很大程度上不再合适。因为“信息茧房”不仅带有对某一类信息的认知局限,也会产生对一类观点的“偏信”,在其中起到主导作用的思想就会演化为类似于意识形态的观念体系。但目的难以实现不能成为限制权利的正当理由。相反,这恰恰表明平台应当为保障这一基本权利的完整实现,负有破除茧房、提供有效理想沟通情境的作为义务。有限的言论自由观念已经成为现代社会最基本的价值共识,而普通网络民众的表达审慎义务边界正是在多元价值目标衡量的过程中予以确定的。

对于普通网络民众而言,表达审慎义务有三大基本内涵。其一,禁止传播法律法规所明确禁止的特定信息。譬如,《刑法》第291条之一规定的关于虚假恐怖信息和虚假信息的内容。其二,对于不属于前类范畴的污染信息,未严重扰乱社会秩序的,应由平台承担主要监管职责。譬如,传播大量同质或过时的污染数据信息,碎片、片面或虚假的新闻信息等情形,当属此类。对于造成严重社会负面影响的,可以将前述行为认定为扰乱社会管理秩序类违法、犯罪行为。其三,对于难以分辨真假的污染信息,不应承担表达审慎义务。这正是前述认知审查义务在信息传播方面的具体体现。若要求民众在未盖然确定信息的可靠性前提下不得予以评论与传播,则是变相要求民众进行彻底的认知审查。这不仅严重侵害民众的言论自由,同时也会对其造成不合理的审查负担。

最后,拥有与传媒相关身份的个体以及有影响力者,对于污染数据信息应当履行更高程度的信息认知审查义务以及表达审慎义务。这一部分群体具有个人性与公共性双重属性身份,在涉及日常事项的表达方面,与普通民众没有区别。但在涉及社会敏感问题时,由于其所具有的身份上的专业性与所享有的一定社会优势地位,应当要求其对污染数据承担更高的认知与审慎表达义务。前者的义务规范依据一般不存在问题。以新闻从业者为例,2017年10月公布的《互联网新闻信息服务单位内容管理从业人员管理办法》第7条规定,互联网新闻从业人员应当“认真核实新闻信息来源,按规定转载国家规定范围内的单位发布的新闻信息,杜绝编发虚假互联网新闻信息,确保互联网新闻信息真实、准确、全面、客观”。有影响力者的义务来源不仅在于影响范围(数量)方面的广泛性,还在于观点引导(质量)方面的代表性。一般情形下,此类群体的影响力来自粉丝认同而非权威身份。在社会热点事件话题中,有影响力者往往以意见代表的身份参与讨论,影响群体共识建构。在这一方面,有影响力者具有不同于网络民众的公共属性,应当对数据信息负有更高的认知审查与表达审慎义务。

3.平台层面:作为看门人的可靠数据保障义务

随着数智技术发展,社交网络平台早已成为并行于政府的社会共治主体,并在一定意义上成为新型“数字利维坦”。与此同时,在数据信息传播方面,平台也早已打破以纸质和电视为主的传统媒体的统治性地位。但如前所述,平台在接过交接棒的同时,在数据信息可靠性审查方面并没有积极承担起新的看门人作用。去中心化技术并不会当然免除平台作为传播中介的管理责任。在此技术背景下,平台有着不同于传统媒体的责任结构。具体而言,相比于传统的实在性结果归责思路,风险预防与管辖理念更加适合风险社会背景下的平台责任确立与归属。

从一般性责任理论而言,在消极义务方面,平台应当对管辖范围内的风险进行合理管理,避免风险现实化进而对平台用户的利益造成侵害,即狭义的交往安全管理义务。消极义务所体现的是法的禁令本质,即禁止对他人造成损害。对于在所属平台中传播的污染数据信息,平台应当积极履行危险消除义务,避免危险扩散。此外需要重视的是,对于在污染数据传播方面可能促成群体极化而形成信息茧房的算法,平台应当根据比例原则进行修改,激活比例原则在算法时代的法治价值。否则在具体的因果认定中,应当认为平台对此具有支配地位,在客观上违反了前述消极义务。在积极义务方面,应当要求平台积极主动作出举措,预防和避免污染数据信息的生成与传播,营造理想的沟通情境,促进社会公益,使得个体能在其中获得更好的自我实现。相比于消极义务,积极义务扎根于团结的伦理土壤之上。这种背景下的积极义务,是指共同体成员为了共同的集体目标,积极地参与集体事业的建设。在有机团结社会中,集体对成员主体的积极义务要求并不是理所当然的,甚至应当在为维持共同体必要的情形下,尽可能少地提出这种积极义务要求。这就使得积极义务的要求应当以更加明确的方式确立。故而,在原则上,所有积极义务均应当来自具有实体法支撑的制度性依据。由于平台所掌握的庞大信息资源所形成的优势地位,使得平台成为现代社会结构中极其重要的一环。平台既是风险制造的参与方,又是相应领域主要的获益方,且具有优势地位的风险预防能力,因此应当承担一定的风险防范义务。而在其成长和运行过程中所享受的社会资源福利也为其积极义务的生成奠定基础。基于消极义务与积极义务两方面的考虑,平台应当在不同的义务生成基础模式下,履行相应的可靠数据保障义务。只要平台履行了相应的结果回避义务,即使结果发生,也不能对平台进行归责。

近些年,国家出台了大量针对人工智能与社交网络平台的法律法规,为前述消极与积极义务的具体履行奠定了坚实的规范基础。《网络安全法》在一般意义上禁止任何个人和组织利用网络编造、传播虚假信息以及侵害他人合法权益,为互联网络的数据污染治理提供了基本的法律支撑。《暂行办法》《互联网信息服务深度合成管理规定》《人工智能生成合成内容标识办法》等规范在此基础上,进一步为人工智能和社交媒体等网络服务提供者明确了相应的一般性污染信息治理义务。对于genai服务提供者而言,在模型学习阶段,应依法开展预训练、优化训练等数据处理活动,在这一过程中不仅要使用具有合法来源的数据和基础模型,还应当采取有效措施提高训练数据质量。对于提供深度合成服务的主体,应当加强内容管理,建立并完善违法和不良信息识别特征库,明确入库标准、规则与程序。服务提供者发现存在违法内容的,应当采取模型优化训练等措施进行整改。对于社交媒体等网络服务提供者而言,监管用户违法信息传播一直是我国立法重点关注的领域。《网络安全法》《科学技术普及法》《互联网信息服务管理办法》等规范明确规定,网络运营者如果发现用户传播法律法规所禁止的虚假错误信息的,应当立即采取处置措施,防止信息扩散。

四、数据污染的平台治理责任展开

针对数据污染,我国已初步建立起信息智能生成与信息传播阶段二分的类型化网络平台治理体系,但在具体应用方面仍需进一步细化相应的判断规则。首先,应当进一步明确数据污染的判断标准。数据信息内容的可靠性判断是实现信息智能生成与信息传播有效治理的关键前提。其次,在信息智能生成阶段,重点需要解决genai训练数据集的质量问题和算法模型的幻觉问题,具体包括污染数据清洗义务、训练数据集的安全保障义务、算法优化义务等方面。再次,在信息传播阶段,需要重点解决污染数据处理(危险消除)、理想沟通环境建构(危险预防)以及用户救济问题,具体包括不同类型污染数据信息处置义务、信息发布主体的身份分类、应对信息茧房的算法优化以及信息发布主体的救济渠道等方面。最后,需要明确数据污染治理义务违反的刑事处罚可能性。

(一)

义务内涵:可靠数据获取的平台保障义务

1.可靠数据的类型化判断规则

对数据信息的可靠性程度进行类型化划分,首先应当明确污染数据的不同类型,并在此基础上确立划分标准。污染数据主要有三大类型:一是事实逻辑类污染数据。最为典型并且相对易被发现的便是这类污染数据,其主要包括虚假新闻、实验数据造假以及“方的圆”式逻辑谬误等。二是价值偏见类污染数据。最为典型的如宣扬恐怖主义、分裂国家和民族歧视等言论。需要注意的是,部分价值偏见类污染数据往往以虚假事实信息的形式传播某种错误意识形态,譬如历史虚无的相关言论。此外,此类污染数据还可能以偏概全,通过放大部分现象的形式进行价值观念宣传,譬如通过比较某一行业中的男女比例来呈现某种性别优势。此类数据往往打着客观事实的旗号,悄然进行意识形态传播。三是低价值类污染数据。此类数据的危害性在genai的场景下尤为突出。此类数据的最大特质在于其对模型无用或低效,从而极大地稀释了训练数据集中的数据质量。譬如,通过向网页投放大量语法混乱、逻辑不通、内容空洞或者时效性极强的过期数据信息,从而对模型学习形成反向干扰。

(1)事实逻辑类数据的可靠性判断标准

从语义内涵上看,事实逻辑类污染数据可以进一步区分为事实类污染数据与逻辑类污染数据。借助康德的术语,上述两类数据可以分别对应综合判断与分析判断。相较于前者,逻辑类污染数据更容易判断。自古希腊以来,巴门尼德的真理之路与意见之路的区分,很大程度上奠定了西方哲学否定以经验归纳为核心的综合判断的可靠性与追寻像数学一样从可靠前提中分析推导出一切知识的理想。从西方哲学史的发展来看,“分析的”意味着“可靠的”这样一种传统得到了广泛的认同。这一结论很大程度上依赖于两个前提:一是,得到普遍接受认可的逻辑前提;二是,得到普遍接受认可的逻辑推导过程。而这两个前提则构成了检验逻辑类污染数据的核心判断标准。

对于事实类信息,传统的理解往往会按照“真—假”二元关系加以理解。而“真”与“假”的概念内涵里已经预设了物自身与对物理解这样的主客二分关系。在从主体性走向主体间性的过程当中,对于“真”的理解也从主体对客体的如实把握转向主体间达成共识的事项。在这种语境下,“真”“假”判断被进一步表达为符合共识的判断。因此,一个知识是否可靠,需要做的是检查该知识是否符合所在共同体的理解共识。

事实性达成共识知识的判断标准为可证伪性。如前所述,西方自古就有否定经验知识可靠性的传统。这一观点至休谟达到顶峰。康德为了给科学知识的可靠性奠基,提出了“不再是认识符合对象,而是对象符合主体认识”这一著名的“哥白尼式革命”。在后续去形而上学的浪潮下,尽管康德这一传统不再被坚持,但为科学知识可靠性奠基的工作仍在继续,并转向了一种主体间共同视其为“真”的客观性确定。其中,关于如何确定可靠的科学理论中最具代表性的便是波普尔的可证伪性理论。波普尔指出,证实和证伪某种判定在逻辑上都是可能的,但是从为经验所证实的单称陈述中推论出一般性理论,这在逻辑上是不被允许的,作为划分经验科学的划界标准不能是可证实性,而只能是可证伪性。而这样一种判断标准延续至今成为自然科学知识得以被普遍接受的根基性共识。据此可以发现,本文所称事实性达成共识的知识并非结果意义上的共识符合性,而是确定知识过程上的共识符合性。即便是违背“常识”的“新”事实知识,只要能经过可证伪性过程的检测,都应当被认为是可靠的知识。因此,若数据生产者所提供的数据信息违背可证伪性检测,那便是不可靠数据信息。对于尚未达成共识的数据信息,其中最为典型的就是关于天道、灵魂和宇宙边界等目前不可证伪的讨论,不应被视作污染数据信息。法律应当保持一种消极的姿态,提供充分的讨论空间,这才是对自由的真正实现。

(2)价值偏见类数据的可靠性判断标准

价值知识在通常情形下都是可靠的。价值知识与言论自由与生俱来的内在关联,使得在确定不可靠价值知识时应当格外谨慎。在现代法治国理念中,言论自由被认为是人之为人所拥有的最为重要的基本权利之一。人只有在表达中才能获得存在。对言论自由理解的价值确定总是与时代同频共振。在网络空间中,安全、发展、秩序、自由等多元价值交叠互补,不同价值目标在网络治理中相互竞逐。言论自由边界的确定,也即可靠价值数据信息的内涵厘清,仍然应当围绕共同体理解共识加以展开。只有那些明显违背作为整体的共同体共识理念的言论内容,譬如,对恐怖主义价值观念的宣扬、对分裂国家和推翻政权的观念传播以及对他人的评价性侮辱,才属于不可靠的价值数据信息。对于那些尚未达成共识的价值信息,为了保护个体言论表达的自由,法律同样应当对此保有消极姿态。

其中值得关注的是蕴含在日常语言之内的意识形态偏见。福柯从社会关系的角度切入,敏锐地捕捉到了话语背后所蕴含的社会意义以及其与权力关系网络之间的密切联系。话语作为一个先于人而存在的社会系统,人必须借助话语才能和他人交流,建构自己的主体身份。而话语必然生成权力,哪里有话语哪里就有权力。意识形态偏见数据往往就是借助日常语言的价值中立外衣而潜移默化地影响话语对象。genai基于无监督的数据预训练技术,如果不对训练数据加以清洗,它就会进一步放大蕴含在日常语言之内的价值偏见。这与算法歧视有着类似的逻辑结构,但两者所产生歧视的阶段不同。此类数据在判断标准上与前述价值偏见类污染数据并无差异,但其困难之处在于需要穿透日常语言的外衣,呈现话语背后的价值形象。

(3)低价值类数据的可靠性判断标准

低价值类污染数据主要指对于模型学习没有正面贡献、无效甚至会产生干扰的劣质数据。这类数据不同于前述“投毒”形式的虚假有害数据,并不涉及内容真假问题,其污染性在于此类数据对于模型学习而言没有任何价值。在genai的情形下,数据的价值完全取决于具体应用场景。譬如,对于生物医学领域类genai而言,文学经典基本没有价值,反而可能影响模型的专业性与准确性。此类数据内容与模型任务目的不匹配,会挤占高质量数据占比份额,从而对模型学习产生负面影响。互联网中存在大量高度重复的网页模板、无意义的日常语言,甚至逻辑混乱的叙述话语,这些数据的污染性不在于其自身的有害性,而在于对模型的不合目的性。因此,该类数据的污染性判断标准在于其与模型目的的符合性程度。

2.可靠数据获取的平台保障义务

(1)信息智能生成阶段的平台保障义务

如前所述,信息智能生成阶段的数据污染类型可以分为三类,即模型中毒类数据污染、可避免技术缺陷类数据污染与不可避免的ai幻觉类数据污染。与此相对,genai服务提供者主要负有保障训练数据质量和优化算法模型的义务。对于不可避免的ai幻觉类数据污染应主要在信息传播阶段予以治理。

在训练数据处理阶段,一方面,服务提供者应当在符合行业标准的情形下重点对事实逻辑类和价值偏见类外部污染数据进行清洗。2025年4月颁布的《网络安全技术生成式人工智能预训练和优化训练数据安全规范》(gb/t45652-2025)第5.2条对服务提供者针对来源数据的安全检验义务、过滤程序义务以及不同模态训练数据预处理义务等方面进行了细化规定。尽管《暂行办法》第7条要求服务提供者开展训练数据处理活动时,应采取有效措施提高训练数据质量,但这并不意味着要求服务提供者应当完全消除污染数据。

数据清洗的目的首先在于降低人工智能模型“中毒”生成虚假有害信息的可能性,其次在于尽可能减少ai幻觉现象的出现。两者的区别在于前者是基于污染数据学习而形成的相对定向生成虚假有害信息的模型的产物,而后者是基于非定向的ai幻觉现象,是genai负面涌现特性的体现。在针对模型的数据投毒中,低价值类污染数据以稀释训练数据集质量的方式增加ai幻觉概率,事实逻辑类和价值偏见类污染数据投放则更多以定向生成虚假有害信息为目的。相比之下,ai幻觉现象不仅不可消除,危险也相对较为有限,其主要通过社交媒体平台的二次传播得以实现,因此应主要在信息传播阶段对此予以治理。在此阶段,降低生成虚假有害信息的可能性更为重要。应当建立系统化的数据清洗和专家标注体系,重点对事实逻辑类污染数据和价值偏见类污染数据进行清理。同时,可以考虑推动优质数据生态的开放与协作,建构人工智能训练数据公共平台和公平性的训练数据供给生态保障体系,从而实现人工智能训练数据的高质量供给。对于由国家机关、法律法规规章授权的具有管理公共事务职能的组织以及公共服务运营单位提供或形成的公共污染数据,genai服务提供者不负有清洗审查义务。其一,根据信赖原则,公共管理服务机构应当对自身所产生和提供的公共数据的真实性负责。其二,公共数据往往具有一定的保密属性,要求genai服务提供者对此进行审查将会造成不合比例的成本负担。此外,对于即时新闻和分析加工数据这类难以轻易核查的数据信息,应当谨慎纳入训练数据,并做好相应数据来源标注。

另一方面,服务提供者应当建立和完善训练数据集保护措施,以防止投毒者对清洗后的数据集进行污染。譬如,可以通过为清洗后的数据集生成哈希密码,并连同其生成过程的记录形成不可篡改的数据链条。综上,通过内部污染清洗与外部攻击防护,可以构建起全方位的训练数据质量保障义务体系。

在优化算法模型阶段,服务提供者应当在区分污染生成信息的社会危害程度基础上,通过指令微调、价值对齐等方式,对数据进行标注,实现对被污染模型的优化。《暂行办法》第14条规定,“提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告”。genai的模型性能与安全性,与人工智能所获取的数据信息密切相关。实践中数据清洗阶段难以完全克服干净标签攻击、后门攻击或数据注入等污染问题,导致基础模型可能习得并放大风险和危害。由于不同类型的污染生成信息的社会危害差异显著,若生成信息属于轻微违法内容,譬如不重要的虚假天气信息,要求服务提供者按照上述规定履行义务,不仅在危险预防方面不必要,同时也将给服务提供者施以极大负担,可能严重阻碍人工智能技术发展。因此,应当根据虚假信息可能造成的法益侵害和负面社会影响设定ai幻觉控制的标准。将可能侵犯重要利益的信息列为“高风险信息”,并要求模型对此保证高水平的准确率。在发现模型污染现象时,服务提供者应当超越单纯的数据清洗,在明确“高风险信息”的基础上,通过指令微调与价值对齐等方式对数据进行标注,实现对受污染模型的修正与价值重塑。若在采取数据清洗与标注的情形下仍无法有效对污染数据的生成予以管制,则应当对模型算法进行优化。

(2)信息传播阶段的平台保障义务

在信息传播阶段,社交媒体平台主要负有污染数据信息处理(危险消除)、理想沟通环境建构(危险预防)和完善用户救济机制三方面义务。首先,平台在处理包括ai幻觉在内的污染数据信息时,应当根据该数据信息类型及其可靠性差异采取不同的处理措施。以事实逻辑类污染数据为例,对于明显违背已达成共识且不属于戏谑言论的反科学知识生产与传播,如声称人类拥有无限寿命或一亩地产万斤粮等反常识信息,平台可以直接删除并采取一定的处罚措施;对于涉嫌违反科学共识的知识,平台应当作出标记,提示该信息可能含有虚假成分,并要求该知识生产者提供知识信息来源。在其无法提供可靠知识来源的情形下,平台应当对此进行删除;对于涉嫌违反科学共识并造成社会重大影响的信息,平台应当建立针对性的专家库,并及时送请专家进行知识可靠性审查。与此同时,平台可以对该信息进行限流,降低推荐权重。若其未通过可靠性审查,平台应当对此进行删除;对于一般的低价值类数据信息,平台一般不负有清理义务。但如果某一用户短期内频繁发布低价值类数据信息,或平台监控到某一时段出现大量同质低价值类数据信息,平台应当对此进行管理。

其次,平台在建构理想沟通环境时,负有预防污染数据流通以及可靠多元数据流通保障义务。在预防污染数据流通方面,平台应当建立包含高风险污染数据信息识别、各领域自媒体博主专业身份识别以及动态信誉系统等预防机制。在建立高风险污染数据信息识别机制时,可以考虑在使用传统关键词库的基础上,引入日常语言模型ai进行配合筛选。对于以知识科普为业,或因长期从事知识科普而拥有大量关注度的自媒体博主,应当要求其上传相应的学历资料、代表性著作或足以证明其在相关领域的专业知识能力资料。同时平台可以考虑对未上传者进行身份标注。此外,平台还可以通过建立动态信誉系统对知识生产者的长期知识生产可信度进行打分,从而为平台用户提供可供参考的信息;在可靠多元数据流通保障方面,平台应当主要通过优化算法设计破除信息茧房壁垒。如前所述,信息茧房是窄化个体认知视野、加剧群体极化、侵蚀公共对话基础的重要因素。社交媒体平台作为数据信息核心负责主体,有责任放弃单纯以用户粘性为导向的算法逻辑,将多元性、平衡性与内容质量纳入核心算法推送机制,从而构建理想的沟通对话环境。

最后,平台应当根据被处理数据信息的可靠性程度,为数据生产、传播者配以针对性的利益救济机制。对于明显违背共识的数据信息,可以要求救济者提供最为充分的证明资料,包括但不限于领域内具有重要地位的权威期刊论文、著作或者相应的实验数据信息等。对于其他具有不同可靠性程度的数据信息救济,则应当提供与此相当的论证材料。

(二)

不法后果:合比例的行刑规制体系

总体而言,国家应当建立包含平台监管责任在内的合比例行刑衔接规制体系。在行政法方面,主要表现为前述赋予平台的监管责任以及主管部门对平台的监管责任。在刑法方面,尤其值得注意的是,以往并不缺乏对污染数据消息传播的规制。在既有的刑法规范体系内,刑法主要从结果的角度介入治理。最具代表性的就是《刑法》第291条之一第1款所规定的编造、故意传播虚假恐怖信息罪以及第2款所规定的编造、故意传播虚假信息罪。对于编造或传播前述虚假恐怖信息或虚假险情、疫情、灾情、警情等信息,严重扰乱社会的,可以追究其刑事责任。诸如此类的还有《刑法》第181条第1款规定的编造并传播证券、期货交易虚假信息罪、第222条规定的虚假广告罪、第377条规定的战时故意提供虚假敌情罪等。换言之,对于在互联网上编造或传播非上述特定信息的,一般情况下不得追究其刑事责任。除非以虚假信息作为手段对他人合法利益进行损害,譬如《刑法》第105条第2款规定的煽动颠覆国家政权罪以及其他通过提供虚假材料以获得不法利益的犯罪。据此可以发现,刑法对污染数据信息的既有规制主要围绕特定利益保护展开。换言之,是国家为了保护某个特定领域或特定对象的合法利益,而连带性地将以污染数据信息传播为手段损害相关利益的行为囊括性地规制在内。

对于未涵括在前述刑法规定中的个体数据污染行为,一方面,由于污染数据信息所形成的现实化危险较为抽象,难以具体对现实社会秩序形成可感的破坏,基于合比例原则和刑法谦抑原则的考量,刑法无需对此进行直接的规制。而对于造成严重现实影响的污染数据传播,则可以被涵盖在前述特定的虚假信息传播类犯罪中。另一方面,根据《刑法》第286条之一,可以通过追究平台责任从而实现对污染数据极具重要性的间接管理。该条款独特的规定模式以及前置具体行政法律法规的空缺,使得该条款打通了行政法的积极性与刑法的消极性之间的屏障。同时,该条款的行政前置条件既有助于实现行政法的公共管理目的,也有助于实现刑法的预防功能和法益保护功能。放弃传统重刑主义管控思维,有助于真正实现共建共治共享的社会治理格局。据此,可以通过积极的行政立法为平台赋予责任,进而实现刑法对相应领域的变相规制。

结语

信息的生产与传播始终是塑造个体理性人格与社会文明秩序的核心环节。在数字时代,互联网解构了传统知识生产与传播的中心化特征。数据污染信息在genai的涌现特性以及社交平台算法推送的影响下,可能引发个体认知偏差、民主协商失序以及社会信任脆弱的结构风险。针对数字时代国家治理对象的领域性、复合性、交叉性,应当通过统筹考虑各种法治资源的属性、功能及其协调关系,促进不同学科的跨领域融合,为领域性问题提供立体化的综合解决方案。面对这场肇始于技术革命的认知危机,未来的治理路径须在数据安全、技术发展与认知自由的价值张力中寻求平衡。在具体解决对策中,应当注意到,将可靠数据信息审查义务强加于个体,并非是对个体自我决定的尊重,而是对其自由的侵犯。因此,应当在区分“信息智能生成阶段”与“信息传播阶段”的基础上,结合模型学习、模型应用、社交媒体平台传播以及具体应用场景的差异,对不同类型平台科以相应的可靠数据保障义务。具体而言,对于genai,重点在于保障训练数据质量和优化算法模型;对于社交网络平台,重点在于处理不可靠数据(危险消除)、建构理想沟通环境(危险预防)和完善用户救济机制。此外,在明晰平台作为“数字守门人”的审查义务框架的同时,也应注意到刑法在污染数据信息治理中的最后手段地位,以此系统性地实现对数字时代下数据污染的合理监管治理。


魏东|污染环境罪的累积犯法理再诠释

金鸿浩|关系刑法学视域下犯罪论体系重构

杨帆|民营企业刑事诉讼程序保护的体系化路径——以《刑事诉讼法》第四次修改为切入点

孙中原|论行政规划的强制性

林树荣|低空空域权利配置的法经济学分析

李鑫|云服务定价模式的垄断风险与梯次监管方案

上海市法学会官网

http://www.sls.org.cn



上观号作者:上海市法学会

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。