国枫观察 | 一键换脸、声音合成、虚拟人复刻……使用AI技术侵害人格权简述
发布时间:2026.04.09
来源:
浏览量:95
近日,中国广播电视社会组织联合会演员委员会发布严正声明,呼吁社会关注利用人工智能技术侵害演艺从业人员合法权益的现象,尤其是未经授权使用演员肖像、声音、形象进行AI生成、换脸、配音等行为。声明一经发布,迅速引发业内广泛关注。AI技术正在以前所未有的方式改变内容生产的方式,也带来了前所未有的法律挑战。当你的“脸”“声”“形”可以被一键生成、随意移植,法律如何保护你的合法权益?本文将从这则严正声明出发,梳理AI时代下人格权益保护的法律依据与司法案例。
作者:陈欣皓、屈思敏
我国法律对自然人肖像权的保护集中规定在民法典第四编第四章(第1018条-第1023条)。
《中华人民共和国民法典》第一千零一十八条 自然人享有肖像权,有权依法制作、使用、公开或者许可他人使用自己的肖像。
肖像是通过影像、雕塑、绘画等方式在一定载体上所反映的特定自然人可以被识别的外部形象。第一千零一十九条 任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。未经肖像权人同意,肖像作品权利人不得以发表、复制、发行、出租、展览等方式使用或者公开肖像权人的肖像。根据上述法条规定,判断是否侵犯肖像权关键在于两点:①是否可被识别为特定自然人;②是否肖像权人同意或获得合法授权。至于是否将肖像商用、是否从使用行为中获益,不再构成认定侵权的必要条件。
北京互联网法院近日审结一桩短剧AI换脸案[1],本案中被告A公司制作并在其运营的视频账号发布涉案短剧,涉案短剧中有两个片段使用了AI换脸技术,换脸后的演员面部与原告(某知名艺人)的肖像具有一定相似度。法院经审理认为:通过AI技术换脸合成的肖像虽然与肖像权人的肖像存在一定差异,但如果能够被一般公众或特定行业人群识别,应当认定满足“可识别性”要件。A公司作为专业短剧制作方,对影视行业及原告的知名度应有认知,对于换脸肖像能够被识别为原告肖像具有基本的判断能力,但A公司仍在未经许可或授权的情况下使用,应认为A公司存在侵害原告肖像权之故意并实施了侵权行为。
我们对自己的声音依法享有声音权,他人不仅不能擅自盗用某个自然人的原声,也不能制作出与该自然人原声的音调、语调高度一致使之足以关联到该自然人。我国法律对自然人声音权益的保护主要规定在肖像权章节内的第1023条:
《中华人民共和国民法典》第一千零二十三条 对姓名等的许可使用,参照适用肖像许可使用的有关规定。
对自然人声音的保护,参照适用肖像权保护的有关规定。
人民法院入库案例(2025-07-2-474-001)明确规定,经人工智能技术处理的声音受声音权益保护。
在北京互联网法院审理的(2023)京0491民初12142号案件中,法院认为,自然人声音权益保护范围涵括由人工智能合成的声音。利用人工智能合成的声音,如果能使一般社会公众或者相关领域的公众根据其音色、语调和发音风格,关联到该自然人,则可以认定为具有可识别性,落入自然人声音权益的保护范围。
此外,本案判决同时认定,录音制作者依法对录音制品享有著作权,并不意味着当然获得授权他人对自然人声音进行AI化使用的权利,仍应就将自然人的声音用于人工智能处理等使用行为单独且明确取得该自然人的授权。
“艺术形象权”在我国现行法律体系中并非一个独立的法定权利概念,广义上可以认为包含演艺人员的肖像权、声音权、角色形象等能够与特定演艺人员高度关联的形象。
1、人格权益保护路径。例如具体的肖像权保护,或兜底性质的人格权补充保护。2、著作权法保护路径。保护客体侧重于呈现角色形象的作品(例如视听作品、摄影作品等),而参与呈现该角色形象的演艺人员本人则对该作品依法享有信息网络传播权、改编权等著作权。3、反不正当竞争法保护路径。未经许可擅自利用具有较高知名度的演员角色形象进行商业利用,可能构成不正当竞争行为。2026年4月3日,国家网信办发布了关于《数字虚拟人信息服务管理办法(征求意见稿)》公开征求意见的通知[2],虽然该文件尚在征求意见阶段,尚未生效,但足以让我们看到法律对AI技术使用与监管的日益收紧。其中,对自然人人格权益的保护集中体现在第七条、第八条。《数字虚拟人信息服务管理办法(征求意见稿)》第七条 任何组织和个人使用自然人敏感个人信息用于建模、形象生成、场景构建等活动的,应当遵守法律、行政法规,符合以下要求:(一)取得自然人的单独同意,并以显著方式、清晰易懂的语言,真实、准确、完整地告知处理目的、必要性、对个人权益的影响,以及法律、行政法规规定的其他事项;……(三)尊重他人合法权益,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。……第八条 任何组织和个人提供、使用数字虚拟人服务,不得以丑化、污损等形式侵害他人人格权,未经特定自然人同意,不得提供足以识别特定自然人身份的数字虚拟人服务。包括但不限于:(一)使用他人具有一定社会知名度的笔名、艺名、网名、译名、字号、姓名或者名称的简称等;
北京互联网法院2025年涉人工智能典型案例之一就是通过认定构成人格权侵害进行维权。在何某诉人工智能科技有限公司网络侵权责任纠纷案[3]中,原告是一名公众人物,某日原告发现被告运营的某记账软件中的AI陪伴者功能里,有一个与自己高度关联的虚拟角色:头像为原告肖像,聊天文字、语气、动态表情以及虚拟角色的人设都与原告高度一致。法院经审理认为,被告未经许可擅自创设、使用原告虚拟形象的,构成对原告人格权的侵害,最终认定被告的行为侵害了何某的姓名权、肖像权及一般人格权。而重庆市第五中级人民法院在2019年审理的上海美术电影制片厂有限公司与邓某、黄某等著作权权属纠纷案[4]中,虽然该案没有AI参与创作,但也可作为当下利用AI技术对影视作品、影视人物形象进行“魔改”这一现象的前车之鉴。本案中,被告在不改变《葫芦兄弟》原著作品视频数据的情况下,将原著作品人物在故事中音频数据承载的普通话替换为四川方言或者重庆方言,并将人物对话内容更改为粗俗、消极的言词,丑化了原著作品人物形象,完全改变了原著作品人物角色的思想表达,法院认为被告的行为侵犯了原告对原著作品享有的著作权。
《严正声明》第三点特别提到了内容平台的“内容审核主体责任”,从内容授权核验、响应措施(即排查下架)、数据留存等方面提出要求。对于网络平台的内容审核义务,首先可见于民法典中侵权责任编对于网络服务提供者的特别规定(第1195条-第1197条)。而针对著作权法保护的作品,《信息网络传播权保护条例》第22条-第25条也有相应规定。《中华人民共和国民法典》第一千一百九十七条 网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任。《信息网络传播权保护条例》第二十二条 网络服务提供者为服务对象提供信息存储空间,供服务对象通过信息网络向公众提供作品、表演、录音录像制品,并具备下列条件的,不承担赔偿责任:(三)不知道也没有合理的理由应当知道服务对象提供的作品、表演、录音录像制品侵权;(五)在接到权利人的通知书后,根据本条例规定删除权利人认为侵权的作品、表演、录音录像制品。后续出台的网络信息服务相关规定以及为应对AI技术而出台的一系列规定文件,也对网络平台的内容审核、侵权应对以及数据管理提出了要求。例如:《网络信息内容生态治理规定》第十条 网络信息内容服务平台不得传播本规定第六条规定的信息,应当防范和抵制传播本规定第七条规定的信息。网络信息内容服务平台应当加强信息内容的管理,发现本规定第六条、第七条规定的信息的,应当依法立即采取处置措施,保存有关记录,并向有关主管部门报告。《数字虚拟人信息服务管理办法(征求意见稿)》第十七条 提供网络信息内容传播服务的服务提供者应当建立完善内容导向管理制度,配备与经营规模相适应的技术能力和人员力量;履行内容安全管理责任,优化内容审核和账号管理机制,加强对其用户发布的信息的管理,及时处置违法和不良信息,并留存日志信息。网络平台的内容审核义务并不会因为获得内容的合法授权而有所减轻。在与本文第一个司法案例相同案情的另案中,原告认为被告B公司在其运营的视频账号中上线了A公司制作的含有原告AI换脸肖像的短剧,系在未经授权的情况下播放含有原告肖像的短剧,侵害了原告的肖像权,因此在另案中对B公司提起侵权诉讼。B公司抗辩称其播放涉案短剧系经过A公司的合法授权,并提交了著作权授权合同作为证据。法院经审理认为,同时存在肖像权和著作权双重权利的情况下,应给予属于人身权益的肖像权的更高位阶的法律保障,行使著作权时不得损害肖像权。是否得到著作权人授权,并不影响对原告肖像权侵权的判断。B公司享有著作权依法授权不能成为侵犯肖像权的免责事由。在涉案短剧时长较短、争议肖像具有一定知名度和辨识度的情况下,审核难度不高,B公司未对短剧进行审查即进行发布,属于未尽到相应审查和注意义务,构成对原告肖像权的侵权。
技术研发者的“前置审核义务”目前尚无明确法律规定,现行法律框架下应认为主要体现为事前合规义务,例如安全评估、算法备案、内容审核机制、授权核验等方面。相关规定和要求散落在《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《生成式人工智能服务安全基本要求 TC260-003》《人工智能生成合成内容标识办法TC260-PG-20233A》等相关法规规范、标准技术文件中。《生成式人工智能服务管理暂行办法》第十四条 提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。《互联网信息服务深度合成管理规定》第十条第一款 深度合成服务提供者应当加强深度合成内容管理,采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核。第十四条 深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。《数字虚拟人信息服务管理办法(征求意见稿)》第十五条 数字虚拟人服务提供者和服务使用者应当建立数字虚拟人服务安全风险监测、预警和应急处置、防沉迷提示等机制,建立完善内容导向管理制度;配备与经营规模相适应的技术能力和人员力量,采用人工智能、大数据等技术手段和人工审核相结合的方式,加强对数字虚拟人服务风险的识别、监测和预警,记录并留存日志信息。发现使用数字虚拟人服务从事违法活动的,应当及时采取身份动态核验、警示、限制功能、终止服务等措施;发现存在重大风险的,应当立即暂停或者终止数字虚拟人服务,注销数字虚拟人并消除影响。笔者尚未检索到技术开发者因演艺人员人格权益受到侵害而被认定为承担相应责任的司法案例,但以下两个案例或许能给从业者带来一些启发和思考。杭州互联网法院审理了全国首例生成式AI“幻觉”引发侵权之诉[5],针对人工智能服务提供者是否构成侵权,法院认为,服务提供者应尽到三层注意义务:一是对法律禁止的“有毒”、有害、违法信息负有严格审查义务;二是需以显著方式向用户提示AI生成内容可能不准确的固有局限性,以防范用户产生不当信赖;三是应尽功能可靠性的基本注意义务,采取同行业通行技术措施提高生成内容准确性。法院认为被告已尽到注意义务,结合其他要素,被告不构成侵权。从本案可以看到,人工智能服务提供者的审核义务的“红线”是法律禁止的违法信息,这与《生成式人工智能服务安全基本要求 TC260-003》中提示的语料及生成内容安全风险是一致的。同样是杭州互联网法院审理的一起著作权侵权及不正当竞争纠纷案[6]。本案中,被告作为某AI平台的运营方,向用户提供能够生成奥特曼形象的模型,用户上传奥特曼图片后可以生成与奥特曼形象实质性相似的图片。法院经审理认为,被告是生成式人工智能服务提供者,并未直接实施受信息网络传播权控制的行为,不构成直接侵权。但是,被告未尽到合理注意义务,存在主观过错,构成帮助侵害涉案奥特曼作品信息网络传播权的行为。AI技术为创作提供了无限可能,但不能以牺牲人格权益及合法利益为代价。面对当前AI违法违规使用乱象,演艺人员、公众人物及普通个体应增强风险意识,定期自查、及时取证并依法维权;网络平台须放弃授权免责的幻想,建立快速响应机制,切实履行审核义务,完善技术与人工审核;技术开发与服务方则要落实相应的合规义务,完成算法备案与安全评估,在各环节做到位,切忌以“技术中立”推责。
[1] 公众号文章,北京互联网法院《e案e审丨短剧角色AI换脸“神似”知名演员,是偶然“撞脸”还是故意侵权?》,https://mp.weixin.qq.com/s/ozK2gbbifQYKzwXi_hCvFA
[2] 国家互联网信息办公室关于《数字虚拟人信息服务管理办法(征求意见稿)》公开征求意见的通知,https://www.cac.gov.cn/2026-04/03/c_1776952992709096.htm
[3] 公众号文章,京法网事《京典案例|殷某桢诉北京某智能科技公司等人格权纠纷案——经人工智能技术处理的声音受声音权益保护的认定》,https://mp.weixin.qq.com/s/uPCn5JhbaJOJPDQ1vstEeg
[4] 重庆市第五中级人民法院(2019)渝05民初3828号民事判决书
[5] 公众号文章,最高人民法院《全国首例生成式AI“幻觉”引发侵权之诉》,https://mp.weixin.qq.com/s/JaB0BPBHgP265YA7aElwuw
[6] 浙江省杭州市中级人民法院(2024)浙01民终10332号民事判决书
