当前位置: 首页 » 资讯 » 新科技 » 正文

AI“造谣”伤人,平台不该免责 | 锋面评论

IP属地 中国·北京 上观新闻 时间:2026-01-09 18:19:16



最近,在北京正常执业的黄贵耕律师遇到了一件糟心事,百度AI把他“关联总结”成了涉嫌伪造印章、威胁法官、介绍贿赂的当事人,而这些情况实际发生在另一名同姓律师身上。AI造谣,被他的委托人看到了,给他带来巨大的困扰和损失,黄贵耕因此向百度提起诉讼,索赔百万元。

而百度公司却认为,生成式AI产生幻觉在技术的发展过程中难以避免,公司不应承担责任。

这也由此引出了一个问题:在明确AI有错的前提下,平台是否应承担责任?值得注意的是,黄律师提到了一个关键点:他在其他AI平台进行同样检索时,并没有出现这样张冠李戴的情况。这至少说明,相关错误并不是完全不能避免的,更可能与具体平台的技术路线、风控机制和输出策略有关。

这一区分非常重要。技术“会犯错”,并不等于“所有错误都应被同等容忍”,尤其是涉及到具体个体权益的内容。如果算法可以给人随意“定罪”,而平台只需一句“技术局限”就能轻易免责,那我们每一个人,都有可能被算法误伤。

目前,中国已经出台了《生成式人工智能服务管理暂行办法》,明确开发者需采取有效措施增强内容真实性的原则,但是,如何细化“AI幻觉”引发的具体民事赔偿标准、平台免责的边界等,仍需要本案给出标杆式的裁决。

有人担心,法律过多介入可能不利于新技术发展,但可以预见,随着生成式AI被广泛嵌入搜索、问答等公共服务场景,这类问题会更加频繁地暴露出来。法律不必干预模型训练和技术路径,却有必要对公共场景中的输出结果划定底线,并向平台传递清晰明确的信号:谁获益,谁负责;谁制造风险,谁治理风险。否则,一旦类似错误频繁发生、责任长期悬空,技术最终将失去公众的信任。

原标题:《AI“造谣”伤人,平台不该免责 | 锋面评论》

栏目编辑:潘高峰

本文作者:新民晚报 陆佳慧

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。