近期,网上大量流传着利用“AI换脸”恶搞他人的视频,逼真及恶搞程度令人咂舌。所谓“AI换脸”,是指通过AI人工智能技术,把别人的脸换成自己的脸。随之而来的“AI换脸”新骗局,利用“AI换脸”“AI换声”等,进行诈骗、恶搞他人的行为频频发生。当这项技术被用于诈骗时,往往使人防不胜防、频频中招,违法犯罪分子也屡试不爽。以下结合一则新近发生的利用“AI换脸“诈骗他人的案件,警示人们莫轻易上当被骗。
2023年6月5日12时,辽宁D某微信突然收到一自称是“niuDX”的陌生好友添加请求(其是通过搜索手机号码添加好友),D某一看是自己领导,便同意添加了好友,对方自称N某(某单位领导),并以在微信内说话不方便为由,要求D某加QQ号:3345XX6339,称要在QQ内沟通。
D某便按照对方的要求添加QQ后,对方先是在QQ内向D发起视频聊天,D某通过视频看见对方的人像正是“N某”本人(经侦查该视频中人像为诈骗分子利用AI换脸技术模拟的“N某”模样),但对方只是在视频内摇摇头,并未说话。双方视频约12秒,对方便中断了视频聊天,谎称信号不好,听不见D某说话的声音,又打字称最近有点急事,急需用钱,想通过D某周转一笔资金。
对方先向D某发送一张截图,截图内显示已向D某银行卡内转账40万,称这笔钱因为是跨行转账,第二天才能到账。D某信以为真,随后向对方提供的银行卡内转账两笔共计400040元,之后对方继续要求D某转账,D某发现不对便给领导本人打电话核实情况,发现被骗,共计损失400040元(案例源自朝阳市反诈中心)。
你敢想吗?!正在和你视频通话的可能不是画面中的本人,正在和你语音聊天的可能不是声音中的那个人,确实如此,发生这一切的均来自于“AI换脸或换声”术,这项技术被用于骗取他人财物时,往往使人难以防备,因此被骗的案件频频发生,各地公安机关反诈部门也不断在提示人们,小心“AI换脸换声”诈骗,当遇到类似问题时,不防多角度考查,莫轻易想信与你视频或通话的人就是本人。
利用“AI换脸”术取得他人财物的涉嫌诈骗
所谓诈骗罪,是以非法占有为目的,骗取他人数额较大财物的行为。本罪侵犯的法益是他人对财物的占有。
诈骗罪的既遂的基本行为模式或诈骗罪的因果进程为:行为人虚构事实或隐瞒真相、对被害人实施欺骗、被害人基于被骗陷入或维持错误认识、被害人基于错误认识而自愿交付财物于行为人、行为人或相关第三人取得财物、被害人遭受财产损失。
本案中,行为人利用“AI换脸”术假冒D某领导,以急需钱为由骗取D某转帐40多万,被害人D某看到视频中的人确实是“领导”本人,令D某没想到的是视频中的人是行为人利用换脸技术变换而来,并非领导本人,正是行为人利用“东AI换脸”术对D实施欺骗,D某基于被骗而自愿将40多万元转于行为人,导致自己40多万元的财产损失,行为人的行为完全符合诈骗罪的构成要件。
行为人如何通过AI技术实施诈骗的呢?
01 通过“AI换声“实施诈骗
这种情况下,被害人听到的声音并非本人发出,而是通过合成方式假冒他人的声音,行为人利用“AI换声”方式实施诈骗主要采取的手段为,行为人通过他人打骚扰电话的方式,提取他人的声音,然后将自己的声音合成他人的声音,用伪造的声音实施诈骗。如骗子提出被害人妻子声音后,将自己的声音合成被害人妻子的声音,给被害人打电话,以自己有难急需钱为由要求妻子转账,进行骗取钱财。
我们日常中常收到陌生人的电话,有的被标注在骚扰电话,遇到这样的电话时,最好不要接听或回话,否则极易被诈骗分子合成后,对你的亲人或朋友实施诈骗。
02 通过“AI换脸”实施诈骗
相对声音,视频更容易取信于他人,因此,通过“AI换脸“方式实施诈骗时,更容易成功。利用这种方式实施假冒他人时,只需要一张照片,就可以完美地将他人的形象活灵活现地展示出来,进而通过视频通话的方式,骗取他人财物。
因此,我们视频看到的那个人可能不是那人本人,是诈骗分子利用“AI换脸”术,虚构出来的他人极其逼真的形象。
通过“AI换脸或换声”实施诈骗时,被害人往往难以防范,那么,是不是真的没有任何防范措施呢?答案是否定
再先进的技术也离不开一个“仿”字,既然是仿照他人的形象或声音,就一定有办法识破骗局。
行为人利用“AI换声”技术实施诈骗时,对被害人的情况虽然有一定了解,能够回答被害人提出的问题,但是,行为人对被害人的隐私话题不可能了解或了解太多,当被害人突然收到自己亲人或朋友有难等钱财请求时,不妨多角度对行为人发问,肯定会有破绽露出,从而识破骗局,免受损失。
行为人利用“AI换脸”方式实施诈骗罪,由于该技术是通过照片实施换脸的,因此,换脸后的形象存在呆滞的情况,或被换脸的眼睛一般不动,通过这种特点,完全可以识破行为人的换脸骗局。
总之,先进的科技在给人们生活带来便利的同时,利用不当也会带给人们伤害。或许也你看到的或听到的并不是本人的脸或声音,这在以前是难以想象的,但是,今天却实现了,也被不法分子用于非法获取他人财物的手段。在此强烈提示:与你视频中的人可能不是视频中的本人,与你通话的人可能不是真正的本人,“AI换脸或换声”技术可以实现这一切。因此,当你突然收到亲人或朋友急需钱财的请求时,应多留一份心眼,多角度考查事件的真实性。您对本案及本文观点有什么看法呢?不妨留言讨论。