当前位置: 首页 » 资讯 » 新科技 » 正文

AI换脸偷声侵权,那么大模型训练呢?

IP属地 中国·北京 澎湃新闻 时间:2026-04-10 08:24:58

近期,配音行业掀起了一场大规模抵制AI声音侵权行动,原因是如今AI仿声、声音克隆等技术滥用愈演愈烈。无独有偶,从撞脸明星,到神似素人,AI短剧“偷脸”问题同样持续引发关注。

从换脸到偷声,技术在奔跑,法治也在补位。不久前,国家互联网信息办公室发布《数字虚拟人信息服务管理办法(征求意见稿)》,向社会公开征求意见,意味着对数字虚拟人这一新兴业态的治理将迈入全面、系统的法治化规范新阶段。

AI侵权的治理有难度,是因为现在AI生成的技术门槛很低,技术发展的速度又很快。目前的AI换脸、偷声,还是直接使用名人或者普通人的肖像、声音,但随着技术的不断成熟,以后的AI生成未必会采用“照搬”的模式。

简单地说,未来AI完全可以从不同个体的肖像、声音中获取素材,但不是原封不动地盗用,而是进行更加细致、复杂的拼凑、混合。比如,AI和某人的声音或肖像不是一模一样,但有百分之六七十相似,又该如何去认定?这里面显然会存在标准不太清楚的地方。这样一来,维权必然会越来越困难。

这就带来了一个重要的提醒:说AI换脸、偷声是侵权,大家都不会有异议,可是AI大模型的训练,又该如何清晰划定使用边界呢?因为我们都知道,AI生产的内容,严格意义上来说并不是凭空生成的,它需要搜集大量的数据材料,从而进行训练和学习。

但在没有得到事先明确同意的情况下,生成式人工智能模型可以使用我们的肖像、声音等“材料”来训练吗?即使AI开发者可以合法获取素材来训练AI,又该不该向素材的所有者支付报酬?更重要的是,我们应该如何建立可参考执行的行业标准来获取、管理和应用这些数据?

2025年,包括理查德·奥斯曼、石黑一雄、凯特·莫斯和瓦尔·麦克德米德在内的一群知名作家签署了一封公开信,呼吁英国政府追究meta公司的责任,因为该公司一直在使用受版权保护的书籍训练人工智能。

事实上,和个体的肖像、声音一样,如果一本书籍、一部作品被视为模块化和可互换的,那么要认定AI到底有没有侵权就会变得非常困难。比如,生成式人工智能完全可以“继承”不同作家的写作逻辑和语言风格,并将其“自动化”,完成大杂烩式的作品。明明侵权了,又好像没有侵权,这样的局面又该怎么办?

因此,当我们谈论AI时代的版权保护时,应该关注的不仅是已经被大模型生成的内容,或许更应该把目光投向它的源头——那些被用来训练的材料到底有没有受到严格的保护?它们又该受到怎样的保护?这些问题,确实值得社会各界展开认真地讨论。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新