当前位置: 首页 » 资讯 » 新科技 » 正文

评论丨引用所谓董明珠言论被格力起诉,轻信AI核实信源要不得

IP属地 中国·北京 编辑:钟景轩 红星新闻 时间:2025-08-05 16:23:17

不能再任由虚假信息摧毁AI产业赖以生存的原料土壤

因发布了一篇关于“董明珠言论帖”,深圳的小程(化名)被起诉了。据报道,格力公司方面表示,董明珠并没有发表“想双休的人,拿不到高薪,更不值得培养”等言论,小程所发内容纯属捏造,且已实际引发公众对格力公司及其产品的抵制言论和负面评价,其行为已造成对格力公司名誉权的严重损害。

法院最终判决,小程道歉并赔偿格力公司经济损失7万元。一起简单的名誉权纠纷案,事实和判决并无多少异议,但此案中的一个关键细节,却仍有警示意义。


据报道,小程表示,“在引用信息时,通过权威信息检索工具、最新一代顶尖大模型人工智能核实来源”,自认为已尽到普通公众的合理注意义务。若此说属实,亦即,其引用的都是网络公开信息,且通过AI核实信源,但还是不慎引用了错误信息。

将真假判断交由AI,当然是人工智能崇拜下的AI迷思所致。AI若得善用,必会是提效助手,但使用者若是本末倒置,放弃独立思考,丧失主观能动性,彻底依赖AI,极易带来灾难性后果。

特别是在AI训练、使用若不规范的语境下,必须警惕“数据投毒”带来的信息污染。国家安全部5日发布安全提示文章称,人工智能的训练数据存在良莠不齐的问题,其中不乏虚假信息、虚构内容和偏见性观点。当训练数据集中仅有0.01%的虚假文本时,模型输出的有害内容会增加11.2%;即使是0.001%的虚假文本,其有害输出也会相应上升7.2%。

可见,训练数据一旦虚假或虚构,其将会影响AI的判断与创造,造成递归污染,形成具有延续性的“污染遗留效应”,并传导至终端使用场景。换言之,用虚假数据训练AI,这种现象就像生物界近亲繁殖导致基因缺陷一样,数据近亲繁殖同样会造成模型性能退化,加剧AI“幻觉”。而为这种认知幻觉买单的,无疑是普通使用者——当小程拿着网络信息向AI核实真假时,得到的就可能是AI自以为真的“幻觉答案”。

不慎侵权者冤,被侵权者也冤,双输格局如何避免?7月24日,中央网信办启动“清朗·整治‘自媒体’发布不实信息”专项行动,从严打击“多种手段歪曲事实”等突出问题,其中就包含“利用人工智能生成合成技术,仿冒他人,或编造社会民生等领域虚假信息”。

其实,不只是格力,涉企AI谣言往往是重灾区。据报道,清华大学新闻与传播学院新媒体研究中心去年发布的一份报告指出,AI谣言量高速增长,近半年信息量增长65%,其中经济与企业类AI谣言量增速甚至高达99.91%。

涉企谣言泛滥,治理还需各方协同合作。具体而言,技术方面,加强末端清洗,定期修复受污数据;政策方面,强化源头治理,实现对于模型、设备、人员的精准溯源和治理。比如,将于下月实施的《人工智能生成合成内容标识办法》就规定,人工智能生成合成内容需添加提示标识。执法层面,加强应急处置和反制机制,集中清理相关违法不良信息,处置处罚违规账号、MCN机构和相关平台。

说到底,不能再任由虚假信息摧毁AI产业赖以生存的原料土壤。AI时代,保留一块非污染的保护区,留下干净的“人类语料”已迫在眉睫

红星新闻特约评论员李晓亮

编辑 汪垠涛

红星评论投稿邮箱:hxpl2020@qq.com

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。