打开网易新闻 查看更多图片

前言

在这个科技发达的现代,眼见都不一定为实。

有一种诈骗手段就是这样,骗子会利用一张照片来实现“换脸”,冒充照片上的人找他亲近的人实施诈骗。

而受害者虽然心有顾虑,但看到骗子的声音和视频与照片上的人无异,他们便信以为真,乖乖的上当受了骗...

那么,面对这样的骗局,我们究竟该如何应对呢?

打开网易新闻 查看更多图片

信息源:本文陈述所有内容皆有可靠信息来源赘述在文章结尾,请理性观看

十分钟内蒸发430万元

2023年,一起令人震惊的AI诈骗案件引发了全国范围内的关注和讨论。

福州市一家科技公司的法人郭先生,那天像往常一样工作,突然接到了一个"好友"的视频通话。

视频中的人不仅长相酷似他的好友,连声音和说话方式都一模一样。

打开网易新闻 查看更多图片

这位"好友"称自己正在外地参与一个重要的项目竞标,急需一笔保证金,希望郭先生能够通过公司账户暂时转账帮忙。

在视频通话中,"好友"不仅准确地提到了他们之间的一些私密细节,还表现出了急切的情绪。

出于对多年好友的信任,再加上视频中对方的形象和声音都无可挑剔,郭先生几乎没有犹豫就同意了帮忙。

打开网易新闻 查看更多图片

他迅速操作转账,将一笔数额巨大的资金转入了对方指定的账户。

然而,当郭先生在转账后试图与好友确认收款情况时,真相大白——他的好友根本不知情,更没有参与什么项目竞标。

短短10分钟内,郭先生公司的430万元就这样凭空蒸发了。

打开网易新闻 查看更多图片

这起案件之所以如此令人震惊,在于它彻底颠覆了人们对防诈骗的认知。

传统观念中,通过视频通话确认对方身份被认为是最安全的验证方式之一。

然而,在这个案例中,即使郭先生谨慎地核对了对方的身份,通过视频确认了面貌和声音,最终还是落入了精心设计的陷阱。

打开网易新闻 查看更多图片

随着这起案件的曝光,更多类似的受害案例也逐渐浮出水面。某公司的财务人员小王就因为听信了伪造的老板"语音"指示,紧急转账2万元。

另一位受害者小李则是被"大学同学"的短视频通话骗走了3000元,幸运的是他及时察觉到了异常,避免了更大的损失。

打开网易新闻 查看更多图片

可人们还是开始质疑,在这个科技高度发达的时代,我们还能相信自己的眼睛和耳朵吗?

当连最亲密的朋友和家人的形象都可能被伪造时,我们该如何保护自己免受欺骗?

打开网易新闻 查看更多图片

AI诈骗的黑科技

要理解这种新型诈骗手法的可怕之处,我们需要深入了解其背后的技术原理。

通过我们上面的案例我们可以知道,那些骗子长相声音基本上都和那些受害者的亲朋一模一样,而这就要提到AI换脸和声音合成技术。

这两个技术可是这类诈骗的核心,骗子们利用深度学习算法,能够通过受害者熟人的公开照片或视频,生成几乎与真人无异的动态脸部模型。

打开网易新闻 查看更多图片

而这种技术不仅能够模仿目标人物的面部特征,还能精确复制其表情变化和微小动作。

在视频通话中,这个"虚拟人物"的眼神、嘴型变化都与真人极为相似,甚至连细微的面部抽动都能被模拟出来。

也就是这种高度仿真的效果,使得普通人几乎不可能通过肉眼识别出真伪。

打开网易新闻 查看更多图片

至于声音合成技术亦是如此,而它只需要很短的语音样本,AI就能生成与目标人物几乎一模一样的声音。

这种合成的声音不仅音色相同,连说话的语气、口音甚至是独特的语言习惯都能被精确复制。

这就解释了为什么在视频通话中,受害者会听到"熟人"提到只有他们知道的私密细节。

打开网易新闻 查看更多图片

但技术只是这种诈骗的一部分,骗子们还运用了精心设计的心理战术,首先会通过AI程序分析社交媒体上的公开信息,筛选出经济条件较好且容易相信"熟人"的目标。

然后,他们会根据目标的社交圈或工作环境,设计出看似合理的借款理由,如紧急的项目投标或者突发的资金需求。

这些诈骗往往还会设置时间压力点,比如声称"竞标时间只剩半小时"或"立即汇款可以避免滞纳金"。

打开网易新闻 查看更多图片

这种紧迫感会让受害者来不及仔细思考,快速做出决定。

正是这种技术与心理战术的结合,让AI诈骗的成功率高得惊人。

受害者面对的不仅仅是一个看起来和听起来都与熟人一模一样的"人",还要应对精心设计的情境和心理压力。

打开网易新闻 查看更多图片

在这种情况下,即使是平常谨慎的人也很容易失去判断力。

不过既然这种诈骗方法已经被公布出来,那相比咱们一定有应对之法吧?

守护钱包

虽然形势严峻,但只要我们提高警惕,掌握正确的防范方法,就能大大降低被骗的风险。

打开网易新闻 查看更多图片

而其中最重要的估计就是提高警惕,毕竟敌人在暗我们在明,骗子肯定会用各种理由引诱我们上钩。

而针对AI诈骗,我们不管看到的视频或听到的声音多么逼真,都不能将其作为唯一的身份验证方式。

即便是熟悉的人提出资金相关的请求,我们也应该采取多重验证的方式。

打开网易新闻 查看更多图片

比如,可以通过其他通讯渠道直接联系对方,或者在条件允许的情况下进行面对面的确认。

特别是涉及大额资金转账时,更要坚持严格的验证流程。可以考虑设置一个只有真正的朋友或家人知道的暗号,或者询问一些只有本人才知道的细节信息。

不要怕麻烦,毕竟多一分谨慎,就多一分安全。

打开网易新闻 查看更多图片

不过我们也不用被动守护,我们其实也能主动出击。

毕竟现在AI科技还没有特别发达,AI生成的虚假视频中可能存在的细微破绽。

比如,注意观察视频中人物的眼睛和牙齿,有时会出现不自然的纹理或颜色不一致的情况。

打开网易新闻 查看更多图片

此外,AI生成的人物可能会有异常的眨眼频率,或者嘴部动作与说话内容不完全匹配。

当然,从源头上下手可能才是最保险的方法,想想为啥那些骗子能用那些人的身份,无非就是在哪里找到了什么照片或者什么饮品,所以在日常生活中,我们要注意保护自己的个人隐私信息。

打开网易新闻 查看更多图片

特别是那些涉及生物特征的信息,我们一定要小心谨慎,这样做不仅可以降低被骗子筛选为目标的风险,还能保护我们的个人形象不被用于制作虚假视频。

那要是我们已经被骗了该怎么办呢?毕竟即便我们采取了种种防范措施,仍然可能不幸成为受害者。

打开网易新闻 查看更多图片

其实如果发现自己被骗,最重要的是保持冷静,迅速采取行动。第一时间保存所有相关的聊天记录、转账凭证等证据,然后立即拨打96110报警。

同时,要迅速联系银行,要求冻结资金流向,争取挽回一些损失。

打开网易新闻 查看更多图片

结语

面对这种新型的高科技诈骗,我们每个人都需要提高警惕,增强自我保护意识。但更重要的是,我们不应该因此而对科技失去信心,或者对身边的人产生不必要的怀疑。

相反,我们应该学会在享受科技便利的同时,理性地看待和使用这些技术。

记住,骗子的目的是利用我们的信任和善意。

我们要做的,是在保持警惕的同时,不失去对他人的基本信任。通过学习和实践,我们完全可以在这个充满挑战的数字时代保护好自己。

参考资料:

光明网-AI诈骗在全国爆发!诈骗成功率接近100%

打开网易新闻 查看更多图片