AI技术助长骗局!人脸、声音、视频齐上阵,防不胜防!

随着人工智能的迅猛发展,诈骗团伙的手段也越来越科技化,竟然用上了
AI
技术!此前,小媛报道了有人用知名男星
AI
版的声音差点行骗成功的事情。如果画面和声音同时
AI
化,那岂不是更容易被骗?如今,害怕的事情真的发生了。近期,“AI
换脸”新型诈骗频发,和你视频对话的可能不是本人!有一位福州老板在10分钟内被骗走了430万元。据平安包头官微消息,包头市公安局电信网络犯罪侦查局发布了一起使用智能
AI
技术进行电信诈骗的案件。骗子通过声音合成和
AI
换脸技术,伪装成受害者的好友,成功骗取了受害者的信任和钱财。

4月20日11时40分左右,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系他。两人短暂聊天后,好友告诉郭先生,他的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走账。好友要求银行卡号,声称已经把钱打到郭先生的账户上,并通过微信发送银行转账底单的截图给了郭先生。基于视频聊天的信任,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元转账给对方。钱款转账后,郭先生通过微信向好友确认事情已经办妥,但好友回复了一个问号。郭先生打电话联系好友,对方表示没有这回事,他才意识到遭遇了高端骗局。对方通过智能
AI
换脸技术佯装成好友对他实施了诈骗。郭先生说:“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是通过视频联系的,我在视频中也确认了面孔和声音,所以才放松了戒备。”

4月20日12时21分,包头市电信网络犯罪侦查局接到福建省福州市公安局刑侦支队的外协请求。涉案的银行卡为包头市蒙商银行对公账户。骗子通过骚扰电话录音等方式提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。因为人脸效果更易取得对方信任,骗子用
AI 技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。除了
AI
换脸、合成语音外,还有一些诈骗手段也可谓防不胜防。不久前就有骗子通过转发微信语音的方式行骗。在盗取微信号后,骗子便向其好友借钱。为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本插件可实现语音转发。

这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过
AI
技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。

以下是防范骗局的建议:

1. 不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。

2. 网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。

3. 如果有人自称“熟人”“领导”通过社交软件、短信

你可能感兴趣的:(AI技术助长骗局!人脸、声音、视频齐上阵,防不胜防!)