当前位置: 首页 » 资讯 » 新科技 » 正文

AI时代,如何打赢人脸保护战?

IP属地 中国·北京 澎湃新闻 时间:2026-04-05 23:14:45


网传相关视频截图(目前该片段已被删除) 本文图均为 羊城晚报微信公众号 图

AI时代,你的脸还是你的脸吗?

4月5日凌晨,易烊千玺工作室发布声明,多个平台上有使用了其肖像生成的AI剧集,而这并没有得到授权,要求立即下线,停止传播。

不仅是明星,普通人也遭遇了“盗脸”。网友“白菜汉服妆造”(以下简称“白菜”)遭遇AI肖像权侵权,其发布在网上的个人汉服写真被AI短剧《桃花簪》擅自抓取复刻,生成反派角色,恶意丑化人设,涉事内容在红果短剧、抖音等平台传播,“白菜”已委托律师正式维权。

3月31日,相关话题登上微博热搜。 事件发酵后不久,该网友个人形象被紧急替换。同一天,AI短剧《桃花簪》再度被指盗脸侵权,一模特“七海”发帖称该剧盗用其面目形象,且剧中角色带有侮辱丑化色彩。

4月3日,“红果短剧官方账号”宣布,从该平台下架了该短剧,并暂停该出品方上传所有剧集15天。

该事件放在AI侵权成风的背景下,其影响不容忽视。一个不可忽略的现实是,在AI生成内容的产业链里,普通人的面孔,已经成为一种可以被低成本采集、加工和变现的“原料”,而这个过程,既不需要征得本人同意,也几乎不需要承担实质性的法律风险。


其他同样疑似使用易烊千玺肖像的短剧画面。目前,涉嫌侵权的画面已被删除或更改。

从明星到素人,侵权范围在蔓延

AI短剧“盗脸”的早期受害者,是顶流演员们。

AI短剧《重生后,我成了娘亲的守护神》里,一个酷似杨紫的角色哭起来,肌肉纹理都跟她在《国色芳华》里的表演一模一样。短剧《清欢误》《京华风云》里的造型直接复刻了肖战在《藏海传》里的造型。

这并不难理解,知名度越高的面孔,在算法推荐机制下的流量转化效率越高。将肖战、杨紫的脸复刻进短剧,背后其实是一种寄生式的商业逻辑,即,将他人积累多年的形象资产,直接转化为自己的收益。

虽然杨紫工作室发声,直言“技术不该成为侵权的工具”,但杨紫能够维权的底层逻辑,还是以对等的商业影响力逼迫侵权方就范。毕竟相比于普通人,顶流明星的法务团队、舆论声量、平台谈判筹码都要大得多。

配音演员的遭遇则揭示了另一个维度的维权难。AI漫剧大火后,季冠霖、边江等头部配音演员的声线被批量复刻,出现在各种AI生成的内容中。

这是因为语音克隆比面部复刻技术的门槛更低,数秒至数分钟的原始音频,便可训练出听感高度相似的声音模型,这也意味着侵权门槛更低。片方只要采集他们公开的作品,便可毫无成本地轻松生成“好声音”。而研究证实,人类普遍无法稳定地识别AI合成声音与真人声音之间的差异,在受测者中,两者常被判断为完全相同。

配音演员姜广涛曾说过,AI能复刻声音的物理特征,却复刻不了真人配音时那个“啊”字里承载的千万种情绪。这句话其实表达的是,声音不只是声波,它是一个人长期积累的表达方式,是其人格向外延伸的媒介。将其剥离、复制、商用,是对一个人自我表达能力的无声占有。片方用AI偷走的不只是他们的劳动成果,更是那个声音之所以成为“他”的全部积累。

但配音演员至少还有行业协会为其“撑腰”,还有公开的职业身份可以为自己发声,在AI短剧《桃花簪》事件里,受害者是汉服爱好者和商业模特这些素人们,发声的影响力自然无法与之相比。

AI普及后,可以看到一个明显的侵权路径,AI侵权逐渐从顶流明星扩展到素人。


《桃花簪》剧中的“刘大”(左)与“白菜”的汉服写真(右)。4月3日,红果短剧宣布全面下架该剧。

盗脸者的“说谎者红利”

这里有一个常被忽略的事实,面孔不同于其他任何被侵权的客体。

财产可以赔偿,声誉经过漫长的周期或许可以部分修复。但一张已经进入某个模型权重的脸,无法被召回。

学界有一个共识,与密码或信用卡号不同,面孔无法被更换,这使面部数据具有独特的脆弱性,一旦泄露或被滥用,伤害是不可逆的。

从这个意义上说,每一次未经授权的面部数据采集,都是一种单向的占有。片子被下架、制片方被罚款,他们损失的只是钱和时间;而“白菜”们失去的,是对自己形象在数字世界中如何流通的控制权。

20世纪法国哲学家梅洛·庞蒂(Maurice Merleau-Ponty)在其《知觉现象学》中提出了“活体”(le corps vécu / lived body)的概念,他认为,我们不是“拥有”一具身体,而是“居住”在身体之中,身体是人感知世界、构建自我认同的根本媒介。

脸在这一框架下尤其关键。医学伦理学界在讨论面部移植手术的合法性时,曾大量援引这一观点。英国皇家外科学院在其关于面部移植伦理的报告中明确指出,脸是人理解自身身份认同的核心所在。换言之,脸不只是皮肉,它是一个人在社会中被辨认、被接纳、被定义的象征界面,是自我向外部世界呈现的最基本形式。

然而,AI技术的出现,正在动摇这一本体论前提。

当一张脸被AI提取、重组、并被强行赋予一个人从未认可的人格与行为,发生的不只是形象侵权,而是一种自我的割裂——你的具身认同被迫与你的意志脱钩,变成了另一个叙事的道具。“白菜”看到那个顶着自己脸的猥琐角色时,感受到的恶心与愤怒,就是对这种割裂最本能的反应。

发表于《哲学与技术》(Philosophy & Technology)学术论文《深度伪造的独特过错》(The Distinct Wrong of Deepfakes)指出,深度伪造技术对身体形象的数字性篡改,构成一种严重的道德违反,其根源正在于它破坏了身体化身份认同的完整性——一种超越纯粹心理层面、植根于肉身存在的自我感。

这种伤害的特殊性在于,它无法简单折算为经济损失。一个角色被丑化、一张脸被恶意使用,其心理代价可能远超任何法院判决所能核定的赔偿数字。

更值得警惕的,是研究者所称的“说谎者红利”所带来的长期效应。随着AI合成内容的泛滥,人们开始系统性地质疑一切数字影像的真实性,这种怀疑一旦普遍化,受害者本人发布的真实内容同样可能被视为伪造。

这意味着,“盗脸”的伤害不仅存在于侵权发生的当下,还会以一种弥散的方式延续下去,在一个真假难辨的信息环境中,受害者失去的不只是对自身形象的控制权,还有在数字空间中作为“可信主体”发言的能力。一旦一个人的脸与一个他无法认领的叙事绑定,要解绑它们,可能需要付出远超侵权本身的代价。

谁来捍卫脸,怎么捍卫?

《桃花簪》最终下架,两位受害者的维权得到了一个阶段性结果,但这个结果来得并不“理所当然”,它依赖于受害者愿意公开发声,依赖于话题登上微博热搜,依赖于平台在舆论压力下的响应。把这些“偶然”去掉,结果很可能完全不同。

行业里可能还有更多“白菜”和“七海”,他们没有被看见,也没有上热搜,被侵权的事实可能永远无法被证明。

这与法律的滞后性相关。美国国家科学院2024年的报告明确指出,面部生成与识别技术的发展速度,持续超越相关法律与监管框架的响应能力。

这一判断在AI短剧语境下意味着,现有法律工具设计之初,针对的是另一个时代的侵权形态,那时的侵权是可见的、可追溯的、成本不低的。

而在这个只需要 “一键生成” 面孔的 AI 时代,当 “面部特征混合” 足以在法律上制造足够的模糊空间,原有的权利边界就已经在技术层面被架空,大量的法律空白需要被填补。

对于普通人来说,发现疑似侵权时,要第一时间,录屏、截图,用时间戳或区块链存证工具固定证据。这是最基础的自我保护动作,因为侵权方往往在被曝光后迅速替换内容、销毁痕迹,这样的行为在《桃花簪》中也出现过。

当然,平台不能仅仅止于“收到投诉再处理”。该事件中,红果短剧在声明中坦承,AI生成内容的素材识别难度“迅速增大”,审核技术跟不上内容生产速度。这句话虽然是实话,但也恰恰说明,平台被动响应的模式已经系统性地失灵。

如果平台有能力做算法推荐、有能力做付费分账,就应当有能力在内容上线前完成基本的肖像比对核查,有能力要求上传方提供可追溯的素材授权链条,有能力对AI生成内容强制标注并建立溯源档案。

技术上并非做不到,而是商业优先级让企业不够重视。当一部侵权短剧的分账收益远大于下架损失,平台就没有足够的动力主动让片方付出代价。要改变这一点,需要把主动审核义务写进平台的合规要求。

针对AI“融脸”,要更新维权规则

当然,制度层面则更为根本。现行肖像权保护框架的核心判断标准是“可识别性”——这一标准在真人侵权的时代是合理的,但在AI生成的批量内容面前正在失效。

当“融脸”技术可以把几个真实面孔混合成一个新形象,当特征提取刻意绕开“整体相似”的认定门槛,“可识别性”就变成了一道可以被技术手段系统性规避的法律标准。

更迫切的问题是举证责任的分配。目前的司法实践中,受害者往往需要自行完成从发现侵权到证明损失的全套举证工作,而制作方只需声称“系统随机生成”便可在相当程度上规避责任。

合理的方向,是将举证责任向更有信息优势的一方倾斜。制作方应当证明其训练数据和生成过程的合规性,而非由受害者证明被侵权的事实。这一逻辑在个人数据保护领域已有先例,将其延伸至AI生成内容并不是一次概念上的跨越,而是对现有原则的具体适用。

可以看到,这些解法目前虽然都不算充分,但这不是放弃保护个人权益的理由。恰恰相反,正因为目前没有一个直接解决问题的出口,这个问题才更需要持续地、公开地被讨论。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新