![]()
![]()
最近,在北京正常执业的黄贵耕律师遇到了一件糟心事,百度AI把他“关联总结”成了涉嫌伪造印章、威胁法官、介绍贿赂的当事人,而这些情况实际发生在另一名同姓律师身上。AI造谣,被他的委托人看到了,给他带来巨大的困扰和损失,黄贵耕因此向百度提起诉讼,索赔百万元。
而百度公司却认为,生成式AI产生幻觉在技术的发展过程中难以避免,公司不应承担责任。
这也由此引出了一个问题:在明确AI有错的前提下,平台是否应承担责任?值得注意的是,黄律师提到了一个关键点:他在其他AI平台进行同样检索时,并没有出现这样张冠李戴的情况。这至少说明,相关错误并不是完全不能避免的,更可能与具体平台的技术路线、风控机制和输出策略有关。
这一区分非常重要。技术“会犯错”,并不等于“所有错误都应被同等容忍”,尤其是涉及到具体个体权益的内容。如果算法可以给人随意“定罪”,而平台只需一句“技术局限”就能轻易免责,那我们每一个人,都有可能被算法误伤。
目前,中国已经出台了《生成式人工智能服务管理暂行办法》,明确开发者需采取有效措施增强内容真实性的原则,但是,如何细化“AI幻觉”引发的具体民事赔偿标准、平台免责的边界等,仍需要本案给出标杆式的裁决。
有人担心,法律过多介入可能不利于新技术发展,但可以预见,随着生成式AI被广泛嵌入搜索、问答等公共服务场景,这类问题会更加频繁地暴露出来。法律不必干预模型训练和技术路径,却有必要对公共场景中的输出结果划定底线,并向平台传递清晰明确的信号:谁获益,谁负责;谁制造风险,谁治理风险。否则,一旦类似错误频繁发生、责任长期悬空,技术最终将失去公众的信任。
原标题:《AI“造谣”伤人,平台不该免责 | 锋面评论》
栏目编辑:潘高峰
本文作者:新民晚报 陆佳慧



京公网安备 11011402013531号