首页 > 最新资讯 如何预防视频通话AI换脸诈骗

如何预防视频通话AI换脸诈骗

最近
不知道大家注意了没
变脸大法风靡全网
这些
其实全部都是AI换脸技术的功劳
网友们很是担心
一旦骗子也用了高科技
后果不堪设想
确实
这事儿最近还真的发生了...

确认是朋友的脸和声音

十分钟被骗430万元

最近内蒙古包头警方发布了一起利用AI实施电信诈骗的案例。
案例的主人公叫老郭,福州某科技公司老板。
前些日子,朋友突然联系老郭,说自己在竞标,要交保证金,想让老郭用公司账户帮忙走个账。
老郭也是做生意的,这种时刻他懂,视频电话“确认过是本人之后,十分钟不到,哐哐给朋友的对公账户转了430万。
转完之后,老郭给朋友发了个微信,意思事儿交给自己办,妥妥地放心。
没想到朋友不领情,回了个问号。
老郭寻思咋回事儿呢,赶紧给朋友打了个电话,才知道是骗子是用AI换脸和拟声技术,假装朋友骗的钱。
老郭被骗后赶紧报警,警方和银行迅速启动止付机制,成功拦截336.84万元,但是还有93.16万正在追缴。

确认过是朋友的脸和声音

9秒被骗430万元

继老郭10分钟被骗430万一事发生后,安庆又爆出一起AI诈骗案。
安庆的何先生接到“朋友只打了9秒的“视频电话,“朋友”就以正在开会的理由,挂了电话,并且声称自己有些事情微信和电话都不能说,加一下QQ。
紧接着,“朋友”在QQ上告诉何先生,自己有一个项目招标需要周转资金,希望何先生帮忙垫付。
基于对“朋友”的信任,何先生立刻让家人将245万元到对方指定的账号上,直到事后拨打对方电话确认才得知自己被AI合成的视频骗了。
发现自己被骗之后,何先生赶紧报了警,追回了132万。

在网上一搜索
这些事情被爆出来之后
类似的事情还真不少

这类智能化诈骗,我们怎么避免?

如果只是一通短暂又逼真的AI视频聊天电话,就被骗走几百万,其实不太现实。
如今的技术真的能达到不被发现的程度是一回事儿,网络报警平台觉得受害人被骗更大原因是骗子还用了很多其他的话术,很多复杂的细节没被爆出来,我们也不要听风就是雨。
表面上看,这是“新型智能型”诈骗,本质上还是“冒充熟人”诈骗的演变。
怎么应对?谨记这几点:

01

个人信息不过度公开

人脸、指纹信息,不发给其他人,不过度公开或者分享自己的动图视频等。

02

通讯录不备注亲属关系

当骗子分不清你的通讯录,你爸是你爸时,他的搞事难度就上升了。

03

收到新手机号格外警惕

谁换号了,多渠道问问。

04

提到转账第一反应就是怀疑

不管是儿子、女友、朋友、太奶、太爷爷还是暗恋对象的,只要提到网上要钱,再熟悉也要线下见面决定。

05

观察视频细节

仔细看看五官、肤色、头发、眼睛等细节,让对方把手放在脸部晃动,如果是AI合成的照片,面部可能就会出现扭曲。
AI太复杂
套路深搞不清楚
怕斗不过骗子不要慌!
记住网络报警中心一句!
只要不听不信不转账!
骗子就骗不到你


热门文章