近期,OpenAI发布文生视频(text-to-video)大模型Sora,引发网络热议。生成式人工智能相关产品在近两年铺天盖地而来,应用场景越来越丰富,广泛影响社会生产和大众生活。
然而,AI技术的迅速发展,在给人们生活提供便利的同时,也给诈骗分子留下了可乘之机。一些不法分子利用AI深度伪造等新工具实施电信诈骗、散布虚假视频,各种AI诈骗手段让人“防不胜防”。
只有了解AI诈骗的实施过程与常用手法,才能更有针对性地对其进行防范。
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
案例
某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。
2.
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
案例
近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。
骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。
例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。
如果有人索取个人身份信息,如地址、出生日期或名字,要小心;
对突如其来的电话保持警惕,即使是来自认识的人,因为来电显示的号码可能是伪造的;
网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;
如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认;
不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;
避免通过微信等社交软件直接转账,最好向对方的银行账户转账,将到账时间设置为“2小时到账”或“24小时到账”。
不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;
陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。
要时常提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,预防上当受骗。特别提醒老年人在接到可疑电话、短信时,要再次回拨家人电话确认,不要贸然轻信。
要提醒亲人,公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,也可以主动打110咨询;如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。
来源:保密科学技术