文|11
近日,有网友指出,红果平台上一部名为《永安归,帝王追》的AI短剧,其封面及内容中男主角的面孔与演员罗云熙高度相似,尤其接近他在代表作《长夜烬明》中“澹台烬”的经典造型。
罗云熙方面察觉后迅速发表声明,称该行为涉嫌严重侵犯罗云熙先生的肖像权及相关合法权益,并表示对此高度重视,已第一时间启动维权程序。
事实上,自AI技术兴起以来,利用AI合成明星面容的案例屡见不鲜。从短剧、直播到广告,AI正在重塑内容创作的方式,也不断触碰法律与伦理的红线。艺人应如何有效维权?平台与制作公司又该如何共同维护健康的AI内容生态?针对这些问题,骨朵对话了北京市海勤律师事务所的王晓琪律师,深入探讨在AI快速发展的当下,法律应如何为AI生成内容划定界限。
当明星肖像成为AI素材库
近年来,AI技术侵害明星肖像权的现象屡见不鲜。从短剧《永安归,帝王追》擅用演员罗云熙的面部特征,到其他作品通过AI换脸技术使用明星的肖像,这类案例正引发越来越多的关注。
首要的一点是,如何判定这类行为是否构成侵权?据王晓琪律师分析,核心标准在于是否足以使一般观众认为二者相似。“目前侵权判定并无绝对明确的标准,大多依据一般观众的认知进行判断。也就是说,只要该形象能使普通观众辨认出是演员本人,即便以卡通等非写实形式呈现,通常即构成肖像权侵权。”她进一步解释了侵权的潜在动机:“实际上,若形象不够相似,作品也难以借助明星的知名度获取关注。”
那么,侵权事件发生后,权利人应如何有效维权?王晓琪律师强调,取证必须先行。“如今可利用区块链工具等便捷方式固定证据,最稳妥的流程是:先完成取证,再要求下架或举报。否则在后续诉讼中,可能因证据缺失而难以主张赔偿。”
一旦进入诉讼,艺人方通常会围绕肖像权侵权提出相应主张,核心的诉求一般包括要求对方停止侵权、赔偿损失,以及恢复原状、消除影响等。在确定侵权赔偿责任时,通常会综合考虑几个方面的因素:权利人实际遭受的损失、侵权人因此获得的利益、侵权行为本身的严重性或恶劣程度、侵权人是否存在主观故意,即是否明知故犯。这些因素都会影响到最终责任的具体认定和承担方式。
此外,使用时长也是考量的重要因素。“使用时间长短常被视为判断情节轻重的一个参考方面,但行为是否具有恶意或不正当性,才是影响侵权责任认定的关键。”
值得注意的是,AI侵权已蔓延至多个场景。
除前述案例外,某短剧曾通过AI换脸技术使用迪丽热巴肖像,被网友发现后,艺人方也发起了维权。王晓琪律师强调,侵权形式虽有不同,但定性基本一致。“无论是AI生成相似形象,还是直接换脸,判定的核心都在于行为本质:即在未经授权的情况下,使用了可被识别的肖像。这类行为往往借助‘相似性’来获取本不应得的关注与商业利益。”
并且,AI侵权的范围并不限于影视领域。直播带货中也出现了类似情况。“例如利用AI生成带有艺人形象的推广视频,这通常同时构成肖像权侵权与虚假宣传,违反了广告法相关规定。AI合成明星声音同样构成侵权,侵害的是受法律保护的人格权中的声音权益。”王律师分析道。
当然,还有一个较为特殊的场景,是普通用户在AI工具中上传艺人肖像的行为。王律师表示,若仅限于个人私下使用、未进行传播,通常不构成侵权;但一旦上传至公开平台,由此获取的流量与关注,即便非直接获取经济利益,也属于不当利用。
平台与工具之责
面对公众人物形象被随意上传至AI的担忧,律师强调普通用户在合法范围内的行为不应受限,而相关数据管理责任更在于平台方。这就来到了AI作品侵权公众人物事件的又一大问题:平台方应当承担哪些责任?
王晓琪律师分析,平台责任需根据其业务性质进行区分,目前主要分为两类:一是用户上传内容平台,如抖音、哔哩哔哩,作为网络服务提供者,其主要提供信息存储空间;二是专业内容提供平台,如爱奇艺、优酷,它们通常自行采购或制作内容并进行传播,属于网络内容提供者。
据王晓琪律师分析,两种平台业务所承担的法律责任是不同的:
对于用户上传内容,由于无法对海量上传内容进行实时审核,其责任核心在于执行“通知-删除”机制。在收到侵权通知后,平台需及时采取必要措施。但这并不意味着平台完全免责,它需承担与其管理能力相匹配的责任。
而对于平台提供的内容,由于其主动选择和传播内容,因此负有更高的事前审查义务。“例如在引入影视内容时,平台方会要求制片方提供完整的权利链条证明,来审核内容来源的合法性。”这一逻辑同样适用于眼下兴起的AI短剧。平台将完备的授权文件作为内容上架的前置条件,是从源头控制侵权风险的有效做法。
回到罗云熙案例中的红果短剧平台,王晓琪律师认为,“出品方需证明其AI生成行为无侵权故意。鉴于公众人物形象辨识度高,创作方负有‘合理避让’义务。若无法提供关键词调试、分镜图、工程文件等完整证据链,将面临不利法律后果。”
而平台的责任判定取决于它与短剧出品方的合作模式。“若平台更接近内容采购方,则应在采购过程中履行审查义务,例如查验版权及肖像权授权文件;若平台已尽审查义务,而因片方提供虚假材料导致侵权,责任可能主要由片方承担;反之,若平台未履行合理审查,则可能需共同担责。”
平台方的责任视具体情况而定,AI工具所承担的责任同样值得探讨。
对此,王晓琪律师表示,目前并没有明确的法律法规对此进行直接规定。“主流平台通常在用户协议中声明由用户对上传内容及生成结果负责。从技术角度看,AI如同‘黑箱’,平台难以对用户上传的素材进行实时实质审核。因此,AI平台的责任应当与其技术能力、管理范围以及所处的发展阶段相适应。”
总体来讲,平台责任的划定,关键在于避免两种极端:既不能无限加重,也不能放任自流。从律师的角度看,这是一个伴随新事物发展而不断调整、需要各方持续完善和平衡的动态议题。
AI生成的边界如何划定?
在明确了各方责任后,更深层的问题是:AI生成内容的合法边界究竟在哪里?
面对潜在的侵权风险,当下行业的困境是技术发展往往先于法律条文,难免产生规范上的“追赶期”。但王晓琪律师也强调,法律的生命力恰恰体现于其基本原则的适应力。
“近期几起涉及明星的AI侵权案件中,正是依据肖像权保护的基本规定,来评判AI生成形象与真人高度相似是否构成侵权。”她表示,尽管针对AI生成物的专门条款仍在完善中,但现行法律中的肖像权、著作权等一般规定,已为解决新型纠纷提供了重要依据。
值得注意的是,相关细则的补充也在同步推进,例如关于深度合成内容标识义务的规范性文件陆续出台,正逐步推动平台在实践中建立更具针对性的审核标准。
技术形态的演变固然带来了新的创作方式,但王晓琪律师提醒,确认权利归属的核心逻辑并未改变。
“著作权自作品创作完成即自动产生,关键在于能否证明独立创作行为及创作时间在先。”她分析指出,以往作者可能依靠手稿和修改痕迹,数字时代则依赖文档时间戳。而进入AI创作阶段,这一过程体现为“生成过程中的多轮调试记录、关键词迭代版本、原始素材及工程文件等一系列数字痕迹”。换言之,法律所关注的创作事实与独创性证明,其本质要求一以贯之,变化的只是证据的具体形态。
面向未来,法律体系也面临着AI带来的持续挑战。王晓琪律师从实践出发,指出了几个值得深入考量的方向。
首要问题在于训练数据的来源与使用的合法性边界,这涉及如何在保护既有作品权利人权益与支持技术创新的“合理使用”之间取得平衡。其次,作为重要智力成果的AI模型本身,其技术秘密与核心参数的保护路径也需进一步明确。最后,在AI生成内容的传播链条中,如何合理界定用户、工具提供方与平台三方各自的责任,特别是后两者在内容过滤与标识方面的义务强度,仍需在探索中形成共识。她特别提到,当前已实施的AI生成内容标识要求,正是构建这一责任框架的重要起点。
对于身处维权第一线的艺人及其团队,律师也给出了详细建议:除了建立快速的响应与证据固定机制等维权动作,还可以积极运用或开发监测技术,对网络环境中滥用艺人肖像、声音等权益的行为进行主动巡查,变被动应对为前置防范。
毋庸置疑,AI生成技术的演进不会停步,与之相伴的法律与社会议题也将持续深化。从平台审核机制的具体落实,到法律原则在新型案件中的灵活适用,再到权利人维权策略的不断升级,构建一个能够鼓励创新、同时公正保护各方权益的治理生态,需要行业实践、司法裁判与政策制定之间的持续对话与共同探索。
在这一过程中,平衡创新激励与权益保护,将是贯穿始终的核心命题。

