新华社北京8月22日电 8月22日,《新华每日电讯》发表题为《刹住AI“盗声”的歪风》的评论。
据央视新闻报道,某社交平台上,有博主利用AI仿冒奥运冠军全红婵的声音卖土鸡蛋;孙颖莎、王楚钦的声音也被“克隆”,用来给“婵宝家土鸡蛋”高调带货……评论区显示,不少网友误以为这就是奥运冠军本人,纷纷下单购买。此外,还有博主“克隆”演员靳东等的声音,进行24小时语音直播。
随着AI技术的普及,“盗声”正成为越来越严重的问题。与普通网民相比,名人或者配音演员的音源丰富,比较容易获取,是声音侵权的重灾区。对普通人来说,AI克隆声音如果被诈骗分子利用,危害将非常严重。声音侵权行为的泛滥,不仅会对个人生活造成影响,还可能侵蚀社会信任的基础。因此,必须采取切实措施打击此类行为,维护安全、清朗的网络空间。
民法典第1023条明确了对自然人声音的保护。任何自然人的声音未经许可使用或授权他人使用权利人的声音均属侵权。但是,由于取证困难且过程繁琐,一些受害者往往会出于无奈放弃维权。侵权者也正是钻了这个空子,更加肆无忌惮地使用AI“盗声”。
刹住“盗声”的歪风,不能简单地对侵权行为一禁了之。《生成式人工智能服务管理暂行办法》明确规定,提供和使用生成式人工智能服务,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。从技术层面,“声音克隆”软件在开源过程中,需要对声音的使用时长、应用场景等做具体限制,从源头堵住侵权行为。平台层面,要切实履行监管责任,建立健全审核和侵权举报机制,及时发现并拦截相关内容。
即将于9月1日施行的《人工智能生成合成内容标识办法》,明确要求AI服务提供者在生成内容中添加标识,防范利用人工智能技术制作传播虚假信息等风险行为,推动人工智能健康有序发展。公众自身也要增强保护意识,一旦发现自己的声音被盗用,要勇于拿起法律武器维护权益。
只有明确使用AI技术的底线与红线,才能真正让科技向上、向善,为人类造福。