打开网易新闻 查看更多图片

大家好,我是马香玉。

最近,微博上一封 求救信 引起了人们的注意。

一个IP显示为韩国,名叫nosunae_520的账号,称自己深受 DeepFake (换脸软件) 的侵害。

打开网易新闻 查看更多图片

DeepFake是这些年十分流行的 AI伪造技术

我们经常在网上看到的将 明星AI换脸,运用的就是这样的技术

打开网易新闻 查看更多图片

而这个女孩遭遇的,是 自己的脸出现在成人视频 当中。

并且,她在博文中写道:

现在韩国的情况太严重了,无法预测有多少女性因DeepFake而受害。

打开网易新闻 查看更多图片

随着此事热度的不断上涨,人们惊恐地发现,一件可怕的AI换脸性丑闻正在发生。

这个事件时间跨度之长,涉及范围之广也已经远超人们的想象,被称为「 N号房2.0」

打开网易新闻 查看更多图片

更要命的是,当你了解整个事件之后就会发现,下一个被换脸的人可能就会是自己。

如此可怕的事实,简直让人不寒而栗

打开网易新闻 查看更多图片

也许很多人没有意识到,别有用心的AI换脸有多么可怕。

高分英剧《真相捕捉》曾展现了DeepFake的可怕之处。

一个英国军人被控告殴打并绑架了一名女性,证据是一段街道上的监控录像。

可经过调查却发现,这个视频是 那名女性受害者用DeepFake制作的

如果调查不够仔细, 一个无辜之人就很可能被投入牢狱之中

打开网易新闻 查看更多图片

将这种转白为黑的手段运用在性犯罪事件中,其带来的后果简直无法想象。

nosunae_520并不是唯一一个在微博发出求救的人。

就在她发声的两天后,另一个IP为韩国的微博账号也写下了相同的内容。

打开网易新闻 查看更多图片

中国也不是她求救的第一个海外国家。

全球各类社交平台上,她们都发表过相似的文字。

之所以要在海外求助,因为在韩国国内,这件事情并没有得到应有关注

实际上,早在今年5 月 ,韩国就发生过一起被称为「N号房2.0」的案件。

几名首尔大学的校友,在过去三年间,利用DeepFake将女性的头像植入成人视频中。

之后再在名为 电报 的加密软件上组建群组,进行传播获利。

打开网易新闻 查看更多图片

进入这个群组的条件,就是 拿出身边的5个女性熟人的换脸视频。

成功进入群组后,成员们就可以免费使用群里的制作软件,然后开始制作收费视频再向外输出。

如此一来,就完成了一套自产自销且传播速度很快的产业链。

这些加害者,往往会从自己身边的人下手。

同学、老师、同事,甚至是自己的母亲、姐妹都是他们的目标。

他们甚至还恶劣地根据受害者的身份,将私密群聊分为「妈妈房」「姐妹房」「护士房」……

打开网易新闻 查看更多图片

各种群组

更令人气愤的是,当被发现后,他们还嚣张地直接威胁受害者。

而受害者报警后,警方只是说「会调查」然后不了了之。

法律途径走不通,受害者便转向网络求助。

可她们收到的, 却是删帖禁言和更过分的言语羞辱

打开网易新闻 查看更多图片

忍无可忍的受害者们找到了当初卧底调查N号房的「追踪团·火花」的成员。

这个名叫恩智 (音译) 的成员再次化身卧底,一举曝光了这个团伙,也将一组可怕的数据公之于众——

仅一名加害者,就在3年时间里针对包括未成年人在内的 48名 受害者制作了约 400个 视频,并传播了约 1700个 视频。

打开网易新闻 查看更多图片

本以为,这次事件的爆发能够结束这样恶劣的事情。

没想到,反而 愈演愈烈

8月,韩国一名初三男生了解到,自己学校依旧有DeepFake成人视频受害者。

于是他建立了一个「受害者学校地图」的网站。

结果,短短的2天内,这个网站中就有 超过200所学校 被标记。

打开网易新闻 查看更多图片

这些学校不仅有大学,还包含了大量 中学与小学

但是韩国警方与媒体并没有给出过多的关注。

他们的理由,一是软件IP地址在国外难以追查,二是「不方便公开加害者信息」难以立案。

直到数字井喷式的增长,再加上大量韩国女性在外网求助,才引起政府重视。

打开网易新闻 查看更多图片

调查数据显示,AI换脸成人视频的受害者数量已经达到 22万 人,而韩国去年一整年的出生人口是23万人。

在所有受害者中,青少年的占比高达 73.6%

而大部分的加害者,也是未成年人

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片

近年来,用AI换脸对女性造黄谣,愈来愈频繁。

2017年,就有人将女星盖尔·加朵的脸嫁接在一个成人电影女演员的身上。

在「DeepFake Maker」网站上,截至目前已经有4000多位名人被AI换脸为成人视频的主角。

其中包括了 斯嘉丽·约翰逊、娜塔莉·波特曼、泰勒·斯威夫特 等欧美女星。

打开网易新闻 查看更多图片

还有一众韩国女爱豆。

近日,韩国四大娱乐公司之一的JYP公司,还专门针对旗下女艺人被恶意AI换脸发布了官方通告,称要诉诸强制法律手段。

打开网易新闻 查看更多图片

2021年,一位台湾知名网红被曝出,用AI换脸技术将许多台湾艺人变成成人影片的女主角后贩卖盈利。

其中就包含 蔡依林、陈意涵 等知名艺人。

内娱也有大批受害者。

杨幂、迪丽热巴、赵丽颖 也多次被人发现成为AI换脸的对象。

打开网易新闻 查看更多图片

而这一次的事件,无论是受害规模还是技术精度,都大幅提升。

早些年,那些粗糙的换脸视频,大家基本上都能一眼辨真假。

但现下越来越精进的技术,普通人已经难以用肉眼分辨。

日剧《相棒》有一集,就将话题对准了DeepFake技术的以假乱真。

一名国防技术顾问在家中卧室被杀害。

现场的电脑中有一段他与一名女性的「性爱录像」

打开网易新闻 查看更多图片

而这位女性在面对警察的调查时,坚称自己从未与被害者发生过关系,并能够给出完美的不在场证明。

但她依旧无法证明,视频中的女性不是自己。

因为一切都太真了。

直到后面凶手自己承认, 警方才知道这是一段用DeepFake制作的视频

打开网易新闻 查看更多图片

不仅如此, 此次事件的受害者基本上都是普通人

以前,如果是明星受到侵害,还能借助公众影响力和经纪公司的力量为自己维权。

相反,普通人就很难拥有这样的资源。

而且,随着社交网络的发展,个人信息很容易就能被他人获取, 更不用说图片这样最唾手可得的材料。

想想《黑镜》第六季中的一集。

女主只要使用了智能手机等联网设备,AI就可以立马根据大数据复刻她的人生。

打开网易新闻 查看更多图片

更何况,AI换脸成人视频的 犯罪成本太低了

只要一张正面的照片、成熟的软件就可以完成一个逼真的视频。

随着技术的不断更新,现在甚至连声音都可以伪造。

电影《保你平安》中,有这样一句台词:

当你说一个女人是小姐的时候,不管她是不是,她都已经是了

打开网易新闻 查看更多图片

过去,仅仅是文字、语言上的造黄谣,就能给一名女性带来毁灭般的伤害。

如果再加上可以眼见为实的「证据」呢?

2022年,杭州警方就破获了一起涉黄AI换脸案。

在犯罪者的供述中,就提到了有不少人 拿着自己暗恋女生的照片 来制作换脸视频。

打开网易新闻 查看更多图片

生活在互联网时代的我们,在微博、朋友圈、QQ空间中都留下过自己的照片与信息。

谁都不能保证,自己会不会就是下一个受害者呢?

打开网易新闻 查看更多图片
打开网易新闻 查看更多图片

除开一个个发生的具体案件本身,还有一个事情值得我们警惕。

那就是人们对待此事的态度。

这个事件中,加害者们一直是肆无忌惮的。

他们将这种行为看作是一种娱乐方式, 只是为了有趣,开个玩笑而已

随便说上无数个理由,来为自己的行为找借口。

被发现后,他们甚至还会变得更加兴奋。

因为比起视频中的假人,他们似乎更喜欢看当事人的真实反应。

打开网易新闻 查看更多图片

就算真的被警察盯上,他们也会有恃无恐地叫嚣自己会卷土重来。

反而是那些受害者每日活得战战兢兢,再也不敢在网上公开任何自己的照片与信息。

打开网易新闻 查看更多图片

当韩国 DeepFake事件彻底爆发后,大多数人的态度当然是愤怒与恐惧。

但也有不少人因为是「AI换脸」而不以为然。

甚至连一部分韩国警方也持有这样的态度。

有受害者在网上表示,当她去寻求警方帮助时就受到反问:

「既然不是你本人,那又有什么关系?」

在他们看来,这种没有在实体上造成侵害的行为,没必要大惊小怪。

这种态度就像《黑镜:圣诞特别篇》的男主。

他作为一名用摄像头远程操控他人的「恋爱导师」,因为偷窥被警方逮捕。

面对这项罪名,他辩解道:

我只是为一些孤独的男人提供了一项服务。

打开网易新闻 查看更多图片

但要知道, 如同语言霸凌也是一种暴力,数字侵犯也是一种性凌辱。

还有人曾试图将这种暴行用作遮羞布。

之前在景甜私密视频泄露事件中,有人「好心」提议:

不如将这个视频当作是AI换脸,这样就不会那么难受。

说出这种话的人,显然没有意识到事情的严重性。

且先不说,身为受害者的景甜为什么要主动 粉饰自己遭受的伤害

就单说AI换脸本身,有谁能保证当这种事情形成规模后,会不会滋生实质的侵害?

反正在这次韩国事件中,不少加害者们直接公开了受害者的真实身份、家庭住址。

如果这些信息真的被那些心怀不轨的人拿到,后果不堪设想。

打开网易新闻 查看更多图片

再进一步说。

如果有人在实施真实侵害后,反过来 利用这种理由掩盖自己的罪行

那到时候会发生怎样的事情,我甚至连想都不敢想。

打开网易新闻 查看更多图片