最近内蒙古包头警方发布了一起利用AI实施电信诈骗的案例。前些日子,朋友突然联系老郭,说自己在竞标,要交保证金,想让老郭用公司账户帮忙走个账。老郭也是做生意的,这种时刻他懂,视频电话“确认”过是本人之后,十分钟不到,哐哐给朋友的对公账户转了430万。转完之后,老郭给朋友发了个微信,意思事儿交给自己办,妥妥地放心。老郭寻思咋回事儿呢,赶紧给朋友打了个电话,才知道是骗子是用AI换脸和拟声技术,假装朋友骗的钱。老郭被骗后赶紧报警,警方和银行迅速启动止付机制,成功拦截336.84万元,但是还有93.16万正在追缴。继老郭10分钟被骗430万一事发生后,安庆又爆出一起AI诈骗案。安庆的何先生接到“朋友”只打了9秒的“视频电话”,“朋友”就以正在开会的理由,挂了电话,并且声称自己有些事情微信和电话都不能说,加一下QQ。紧接着,“朋友”在QQ上告诉何先生,自己有一个项目招标需要周转资金,希望何先生帮忙垫付。基于对“朋友”的信任,何先生立刻让家人将245万元到对方指定的账号上,直到事后拨打对方电话确认才得知自己被AI合成的视频骗了。发现自己被骗之后,何先生赶紧报了警,追回了132万。如果只是一通短暂又逼真的AI视频聊天电话,就被骗走几百万,其实不太现实。如今的技术真的能达到不被发现的程度是一回事儿,网络报警平台觉得受害人被骗更大原因是骗子还用了很多其他的话术,很多复杂的细节没被爆出来,我们也不要听风就是雨。表面上看,这是“新型智能型”诈骗,本质上还是“冒充熟人”诈骗的演变。人脸、指纹信息,不发给其他人,不过度公开或者分享自己的动图视频等。当骗子分不清你的通讯录,你爸是你爸时,他的搞事难度就上升了。不管是儿子、女友、朋友、太奶、太爷爷还是暗恋对象的,只要提到网上要钱,再熟悉也要线下见面决定。仔细看看五官、肤色、头发、眼睛等细节,让对方把手放在脸部晃动,如果是AI合成的照片,面部可能就会出现扭曲。