你是否看到过一些搞笑的换脸视频?比如,前英国女王伊丽莎白二世大跳动感舞蹈,或者奥巴马骂特朗普是彻头彻尾的大笨蛋、扎克伯格吹嘘自己完全控制了数十亿人的被盗数据……
搞笑或讽刺的换脸视频让人捧腹大笑,但快乐背后是令人齿寒的担忧——技术滥用的恶果正在浮出水面。
2021年,我国台湾油管博主小玉因涉嫌使用AI换脸合成色情视频并出售而被捕。他将多名女网红的脸“移花接木”到成人电影女优身上,受害者多达119人,涉案金额约300余万人民币。
事实上,深伪技术96%以上的用途都与制作色情影片有关。而99%的深伪色情影片,是针对女性的色情换脸影片。
今年六月,最高人民法院、最高人民检察院、公安部起草了《关于依法惩治网络暴力违法犯罪的指导意见(征求意见稿)》(已于25日结束意见征求)。
意见稿中提及的实施网络暴力情形将“编造‘涉性’话题侵害他人人格尊严的;利用‘深度合成’技术发布违法或者不良信息,违背公序良俗、伦理道德的”情况也纳入其中,引起了大众的探讨与关注。
什么是“深伪”?
“深伪”(Deepfake),指将一种媒体形式中的人像替换成或合成为另一个人像的技术,其伪造痕迹难以被分辨。
广义来说,手动抠图给照片换脸,剪辑视频使其叙事改变、甚至呈现出一个完全不同的“事实”,都是人为操纵图像以达到以假乱真的效果,都可以说是“深伪”。
而狭义上的、当前被广泛接受的“深伪”概念,则是AI换脸技术的代名词,即“深度学习”(deep learning)和“伪造”(fake)。
“深伪”技术的应用越来越广泛,有许多影视作品利用“深伪”技术达成拍摄目的、营造特定艺术效果。如为演员“换脸”以呈现其在特定年龄段的外貌。
2017年,早已在大学实验室、互联网公司和特效工作室中孕育多年的深伪技术开始在假色情领域大展拳脚。
当时,一个Reddit用户以“Deepfakes”的假名,上传了许多把女主角换脸成知名女明星的色情视频,引起轰动,包括盖尔·加朵、艾玛·沃特森、凯·佩里、泰勒·斯威夫特、斯嘉丽·约翰逊在内的许多女艺人遭受了无妄之灾。
由于这些视频大受欢迎,用户们又在Reddit上专门创建了一个名为“Deepfakes”的子网站,超过数万名用户在那里分享深伪色情视频。
制作深伪视频有一定的技术门槛。操作者的硬件需要配备强大显卡且最好能支持云计算的高端台式机,想要做到“深伪”还需要非常复杂的视频处理知识,对完成的视频进行润色,以减少闪烁和其他视觉缺陷。以照片为例,“深伪”技术有两个操作选择:
第一个选择,是使用两个人工智能算法“编码器”和“解码器”处理照片。首先,把要换脸的两个人的数千张脸部照片传入编码器,让编码器发现并学习两张脸之间的相似性,并将它们还原为共同的特征,在此过程中压缩图像。然后,解码器学着从压缩后的图像中恢复人脸。两张人脸是不同的,所以需要两个解码器,训练一个解码器来恢复第一个人的脸,训练另一个解码器来恢复第二个人的脸。最后,只需将编码图像输入错误的解码器(例如,将A人脸的压缩图像送入对B人进行训练的解码器),就可以实现人脸互换。
第二个选择,是通过生成对抗网络(GANs)处理照片,它也包括两个算法——“生成器”和“辨别器”。在“生成器”中输入随机噪音并将其转化为图像,然后将这个转化后的图像添加到真实的图像流中,送入“辨别器”。起初,合成图像看起来完全不像人脸。但是,通过对性能的反馈,重复这个过程无数次,“生成器”和“辨别器”的功能都会得到改善。如果有了足够的循环和反馈,生成器将开始生成完全不存在的人的脸,并且十分逼真。
根据不同方法,人脸“深伪”操作可以分为四类:全脸合成、属性操作、身份交换、表情交换。
虽然一开始只有少数人拥有制作深伪内容的技术,但深伪内容从产生起就具备了鲜明的UGC(用户生成内容)特征,深伪技术的发展趋向亦是去中心化的,很快,出现了一些工具和程序允许非专业用户用少量的照片就能进行深伪操作,换脸、换声都可以通过技术服务提供商在云端一站式完成。
根据网络安全公司DeepTrance的报告,2018年12月,网上有7,964个“深伪色情”视频,而在2019年7月,这一数字上升到14,678,几乎翻了一番。
深伪技术开始更普及,深伪内容更易得。电脑屏幕后的操作者和观看者对深伪色情视频的欲罢不能,在深深伤害着被他们玩弄消费的女性。波士顿大学的法学教授Danielle Citron表示,深伪技术正在成为一项针对女性的武器。
当“深伪”成为
伸向女性的魔爪
许多人并不认为以女明星为换脸主角的深伪色情片有什么不妥,并以“娱乐游戏”“制作者主观非恶意”等理由为这类色情片辩护。
有人说,这类换脸视频不过是粉丝文化的一种变体。也有学者认为,从道德上讲,深度造假和性幻想几乎没有什么区别,两者都“只不过是由公开可用的信息输入生成的虚拟映像”。
但事实真的这样“无害”吗?
今年4月, 一名男子合成与女星迪丽热巴的亲吻视频并发布在其社交平台上,引发争议。
比AI换脸技术略粗糙的深伪名人色情制品早就存在于一些小型线上社区中。社区中的用户制作以女性名人为主角的假色情片,并且在论坛上互相分享。
传播学者通过参与式观察发现,这些用户制作此类影片的目的,并不总是为了与特定名人建立“亲密的人际关系”,而是意图把女明星贬低为“专属于自己的性元素”(Popova 2019),是 “有毒的极客男子气概”的一种伪装(Newton & Stanfill, 2019)。换句话说,这些用户试图把曝光度高的女性的脸变成唾手可得的公共“性资源”。
操纵她们身体的图像,就等于虚拟地操纵了她们的身体。
因此,所有未经同意传播私密图像的行为,都可以看作是一种“报复性色情”。这种行为的关键不在于针对特定事件对特定女性的具体“报复”理由,更本质的是“报复”显示的一种心态,即违法者在未经有关方面同意的情况下发布深伪色情内容的当前动机。
此外,人类倾向于相信别人知道的东西,也愿意传播负面且耸人听闻的“震撼”信息。色情内容显然具有这种“令人震撼”的价值,在公共领域,“名人”为深伪色情制品增添了震撼价值,而在社会关系圈层中,被所属圈层共同认识的人,同样具有震撼因素。
某个利用“深伪”技术制作伪造色情视频的网站在广告语中自称“让人类梦想成真”,但这个以制作女性色情视频为目的、鼓动参与者上传偷拍照片作为数据资源的网站所实现的,只是部分男性的扭曲恶念。
除了肆意消费、猎奇围观以外,深伪技术还被直接用于针对女性的性暴力行为。
自Photoshop和类似的图像、视频修改软件出现以来,创建或伪造女性的性化图像屡见不鲜,并催生了一系列基于图像的性虐待事件。在大多数情况下,线上报复性色情要建立在能够获得受害者的亲密图像的基础上。然而,深伪技术提供了不需要或获得目标女性的实际亲密照片或视频,就可以实现“基于图像的性虐待”。
2018年,印度的一位调查记者拉娜·阿尤布受邀为一桩强奸8岁女孩的案件写作专栏评论,却因为此事收到了无数的强奸威胁和死亡威胁私信。随后,一个以她为主角的换脸色情片在互联网流传开来。
2019年,美国女演员贝拉·索恩由于为性侵受害者发声而遭到色情报复。报复者把贝拉因怀念去世的父亲而哭泣的视频嫁接到另一个女性的自慰视频中,合成了一条以贝拉为主角的色情视频,并黑进贝拉的电子设备,用获取的隐私照片勒索贝拉。贝拉当机立断决定直接在网上发布泄露的隐私照片,摆脱黑客的威胁。
谈及面对黑客威胁直接公布隐私照的举动,贝拉表示,“我将这些放出来,是因为我的决定,现在你没有办法再从我身上得到任何东西”。
但这一事件仍然给她带来了巨大的伤害。
在假色情视频事件后,贝拉表示,她对这种几近无门槛的、针对女性的色情报复感到格外担忧:“我不知道要如何约束这种技术,使用者可以操纵的对象不仅可以是名人、政客,还可以是学校里的朋友——他们可以随意将这种伤害施加在任何一个人身上。”
我们该如何应对“深伪”
对女性造成的伤害?
面对深伪色情制品来势汹汹的威胁,我们有办法保护受害者吗?
一些研究人员建议网站平台加强自律,对社区内的深伪色情进行识别和禁止。一种解决方案是事后方案,即训练AI识别深伪视频的能力,针对性地删除深伪色情视频,“用魔法对付魔法”。
另一种方案,则是系统性的事前方案,要求每一个视频都以水印、加密或认证的方式标示媒体来源,使媒体内容创建者能够为其创建的内容分配一个真实性证书。同时,网站要保护这些媒体内容,保证内容传送途中不会被第三方利用或篡改。
上述方案若能实行是非常有效的,但由于技术限制,它暂时只是我们构想的一个“美好未来”。即使有了能实现完全加密的技术,被广泛接受和应用也需要很长时间。
2021年,Facebook与密歇根州立大学(MSU)合作提出一种检测“深伪”假图片的方法,通过逆向工程发现伪造假图的AI生成模型的设计方式,从而追踪各种“深伪”假图片,在此基础上发现和反击虚假信息即其它恶意攻击。图示模型解析流程。
再者,面对日新月异的信息技术,法律法规对技术滥用现象做出的反应是相对滞后的。
在世界范围内,还没有针对深伪色情片的制作、传播、权利侵犯、监管、惩罚等问题的专门法律法规。已有的法律法规能片段化地回答深伪色情现象中,人身权利受到侵犯、或是淫秽色情制品非法传播等问题,但无法应对深伪色情的制作、传播过程和其对人身权利侵犯的特殊性,更无法指导平台和规范这类内容,因此几乎无法有效保护深伪色情的受害者。
不过,针对于深伪技术滥用和合成内容,我国已经开始着手制定相关管理规定。2022年1月,网信办发布了《互联网信息服务深度合成管理规定》;2023年4月,网信办发布了《生成式人工智能服务管理办法(征求意见稿)》,目前,该文件已结束意见征求。
《生成式人工智能服务管理办法(征求意见稿)》全文内容。
2020年的一篇论文,研究了英文新闻媒体是如何描述深伪所带来的问题的,学者发现,大部分报道的注意力都集中在政治和假新闻领域,其次是金融安全领域。作者指出,大众传媒对这些领域的强烈关注,促进了对深层造假技术政治滥用的准备。
但是,当这些报道未能将深伪技术造成的图像性虐待,与其造成的政治干扰和虚假信息的潜在危害区分开来,将它们的后果混为一谈时,新闻报道显示出的是对女性性别化的遭遇的漠视,更重要的,是对能够被深伪技术利用的、支撑其达到最佳报复效果的社会文化因素的漠视。(Gosse & Burkell, 2020)
而当我们在中文搜索引擎查询有关“深伪”的信息时,也会发现,许多报道所透露的担忧与利用该技术伪造虚假新闻等相关。
但占据深伪技术用途96%的换脸色情视频,不仅仅是造假的伤害、传播谣言和虚假视频的伤害。它是虚拟侵犯女性身体的伤害,是对女性社会人际关系的摧毁性伤害,是厌女环境催生的伤害。
今年4月,微博博主@Caro赖赖_ 发文表示,自己的脸被人盗用制作收费色情影像,并呼吁大家关注“AI盗脸产业链”。
那些凝视着女性身体的人,太习惯把女性的身体当作一项资源。于是,从拍摄到盗用面孔,从意淫到猥亵,从分享到传播,关于女性身体的图像可以被毫无成本、毫不负疚地传送。
在这种场景下,我们讨论“深伪色情”,并非仅仅在讨论技术的滥用或法律的缺位,而是关于那道长久以来缠绕在女性心底的伤疤:我们是否真正拥有或拥有过控制自己的身体的社会自由?
参考资料:
1. The Emergence of Deepfake Technology:A Review.2019
2. Choose your stars and studs: the rise of deepfake designer porn.2020
3. Deepfake pornography as a male gaze on fan culture.2022
4. Deepfake Privacy: Attitudes and Regulation.2021
5. Deepfakes and Involuntary Pornography: Can Our Current Legal Framework Address This Technology?.2020
6. Determining authenticity of video evidence in the age of artificial intelligence and in the wake of Deepfake videos.2018
7. Face/Off: "DeepFake" Face Swaps and Privacy Laws.2020
8. Legal Protection of Revenge and Deepfake Porn Victims in the European Union: Findings From a Comparative Legal Study.2022
9. Politics and porn: how news media characterizes problems presented by deepfakes.2020
10. What Does a Feminist Approach to Deepfake Pornography Look Like.2019
11. What are deepfakes – and how can you spot them? —The Guardian