论及对高新技术的使用,犯罪分子丝毫不比我们逊色,当很多人还不知道生成式人工智能是什么,更不懂Deep fake为何物,却莫名其妙的成了受害者,仅几秒钟就损失数百万。那么被滥用的Deep fake是什么?它缘何成为诈骗分子手中的利器?普通人又该如何破局呢?

打开网易新闻 查看更多图片

先看四个典型案例:2023年4月,诈骗分子用一段9秒钟的智能AI换脸视频佯装熟人,安徽何先生被骗245万元;5月,骗子通过AI换脸和拟声技术,福州市郭先生10分钟内被骗430万元;6月,美国总统竞选人德桑蒂斯公关团队发布了一段视频,特意选用的“特朗普亲吻福奇”以及两人拥抱的图片,抨击竞选对手、前总统特朗普在任时抗疫不力,后被证实是Deep fake伪造;不法分子通过Deep fake进行换脸、剪辑,二次加工色情影片,并冠以“某某明星”的标签进行售卖非法牟利。滥用人AI的犯罪正在增加,这也是多国、组织呼吁规范人工智能的原因之一。

打开网易新闻 查看更多图片
你能看出左上、中下、右下三张是假的吗

Deepfake是英文“deep learning”(深度学习)和“fake”(伪造)的混合词。2017年12月,红迪网(Reddit)用户deepfake使用深度学习技术在色情视频剪辑中编辑名星的面孔,Deep fake因此得名,它又称深度伪造深度换脸。

Deep fake的核心是“生成器”和“鉴别器”两个人工智能系统,它们共同协作形成“生成式对抗网络”。当你为生成器明确目标后,需为它创建训练数据集,准备就绪之后生成器开始生成假视频,训练数据越多,则生成的视频越逼真。

打开网易新闻 查看更多图片

上图刘亦菲版“小龙女”是谁的脸?

生成器生成视频后会发送给鉴别器辨别该片段的真假,如果鉴别器判断视频片段为假,就会提供一条线索,告诉生成器下次生成视频时不应该做什么……直到视频片段得到鉴别器“认可”。

随着AI技术进步、各种衍生工具简单易用,伪造逼真的视频根本不要求使用者有什么高超的技术,AI技术被不法分子滥用也就不足为怪。但假的就是假的,总会有破绽,防范和鉴别也有方法可循!

要知道,对创建露骨材料没有任何限制的可疑AI图像生成模型是不存在的。这些工具需要依靠图像输入来训练模型,输入的训练数据越多,Deep fake就会变得越准确和真实。因此,我们在分享视频、照片的时候,需要多一些安全考量,你分享得越多,不法分子就越容易创造出令人信服的深度造假。

打开网易新闻 查看更多图片
不法分子利用明星照片恶意换脸

以下是鉴别Deep fake造假的几个关键点:

一、视频中没有眨眼动作,眼球运动不正常,或者面部表情看起来与他们所说的话不同步,则很可能是Deep fake造假。

二、Deep fake技术通常只专注于面部特征,如果这个人的体型看起来不自然,或者动作不连贯,那么这段视频很可能是深度造假。

三、背景出现极不自然地模糊或显示出奇怪的视觉伪影,有异常变色或严重的颜色不匹配,尤其是周围人和物的面部或阴影。

四、如果你看到一张照片,其中一个人正在摇摆头发,但你始终看不见任何几缕飞散的头发或卷曲的头发,请保持谨慎。

五、AI模型与牙齿作斗争,寻找那些呈现不自然完美的牙齿,或者缺乏单个牙齿轮廓的牙齿,或者可能比通常的人类假牙更多的牙齿。

六、身体部位错位、边缘模糊、手指多了或少了、四肢奇怪地扭曲、身体部位的运动不同步以及声音没有抑扬顿挫、音调变化,这些都是Deep fake造假的迹象。

七、造假的语音或录音通常带有背景噪音、机器人声音和其他奇怪的发音,如果你感觉到对方的声音怪怪的,又说不出个所以然,请警惕Deep fake。

打开网易新闻 查看更多图片
必应生成图像

目前,已有科技公司在进行AI反诈技术研究,比如训练专有的类ChatGPT安全大模型,并且在人才培养上进行了超前布局,通过“人+机器”的配合来应对未来安全挑战。我们在生活中,也要加强个人信息保护意识,不轻易提供人脸、指纹等个人生物信息给他人等;无论对方是谁,都不要仅凭单一的沟通渠道就直接转账汇款,比如文字、声音、图像和视频中的任何一项,大额汇款务必进行多渠道核实。