李旭反传防骗团队,您身边的反传防骗顾问!
近期
“AI换脸”新型诈骗频发
诈骗分子通过使用
他人真实姓名及照片
冒充他人身份添加被害人微信
再利用“AI换脸”技术
和被害人进行短暂视频通话
博取被害人信任后实施诈骗
日前
福州市民李先生就遇到了这事
被骗走48000元
案例详情
近日,福州的李先生遭遇了冒充领导的诈骗,被骗数万元。这个骗子冒充李先生的领导“曾某”,伪造微信账号添加李先生后,直接跟李先生打了视频,第一步先取得了李先生的信任。视频中,李先生看到了正在开会的领导本人,对方称不便接听电话,打完招呼后转入文字聊天。
“曾某”说他有个亲戚正在参加一个项目竞标,急需周转资金,自己不便出面,想借李先生的名义将钱转给亲戚。既然都有过视频确认,李先生也不疑有他,向“曾某”提供的账户转账数万元,后发现被骗。
除了用AI换脸事先制作视频播放,有的软件还可以实时捕捉替换人脸,并且直接接替摄像头,用于视频聊天。
这款软件的操作很简单,只需要选择一张你要换脸的照片。这个时候,你做什么动作,这张人脸也会做什么动作,眨眼、张嘴、点头、摇头都可以,动作非常逼真。
骗子开发利用新技术的速度令人瞠目结舌。我们一直认为,各种冒充类的骗子不敢视频。但实际上,骗术在精进,在颠覆我们的认知。
抛开事后诸葛亮,如果你是李先生,在领导和你视频聊天,明确表示他正在开会的时候,你真的会再打个电话去确认他的身份吗?当然,李先生还犯了一个错误,在“曾某”所谓的转账没有到账的情况下,就给他的“亲戚”转了钱。
AI换脸技术大大提高了骗子诈骗的成功率,而这才刚刚开始,技术仍在飞速发展。可以想见,很快AI换脸技术将在各类骗局中大量使用。可能某一天,你的“网恋女友”会视着频、撒着娇跟你要红包,你的“儿子们”要你把学费转到“老师”的银行卡里……也可能因此出现新的骗局。
AI诈骗常用手法
第一种
声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后对声音进行合成,从而用伪造的声音实施诈骗。
第二种
AI换脸
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,先通过AI技术筛选目标人群,后在视频通话中利用AI换脸,骗取信任。
而显然人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防!
第三种
转发微信语音
微信语音居然也能转发。骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们仍会通过提取语音文件或安装非官方版本(插件),实现语音转发。
第四种
通过AI技术筛选受骗人群
骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。
运用AI技术,再加上套路和剧本的演绎,这样的诈骗手段,小伙伴们,你们还招架的住吗?
如何保护自己
面对利用AI人工智能等新型手段的诈骗,我们要牢记以下几点:
01
多重验证,确认身份
在涉及到转账交易等行为时,一定要格外留意,可以通过电话、视频等方式确认对方是否是本人。
在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。尽量通过电话询问具体信息,确认对方是否为本人。
即便对方运用AI技术行骗,也可以通过提问的方式进一步确认身份。建议大家最好向对方的银行账户转账,避免通过微信等社交软件转账。一方面有利于核实对方身份,另一方面也有助于跟进转账信息。
02
保护信息,避免诱惑
加强个人信息保护意识,要谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息。
对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
03
相互提示,共同预防
这些高科技手段的诈骗方式,迷惑了很多人。警察蜀黎也提示各位要多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。
做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
04
拒绝诱惑,提高警惕
要学会拒绝诱惑,提高警惕。避免占便宜心理,警惕陌生人的无端“献殷勤”。
[此文来源:海峡网/上杭政法,版权说明:以上文字及图片来源于网络,仅供学习和交流使用,不具有任何商业用途,其目的在于传递更多的信息,并不代表本平台赞同其观点。版权归原作者所有,如涉版权或来源标注有误,请及时和我们取得联系,我们将迅速处理,谢谢!]
重要
通知
李旭反传防骗直播间
等你来撩
你想知道的反传、防骗知识
这里都有答案
快手、B站、知乎、微博、视频号同步直播