平安文化建设

警惕!当心!AI诈骗来袭

2023年05月16日
      AI技术迅速发展,其中AI换脸技术更是日益成熟,只需要一张带脸的照片,就可以把自己置换成电视剧、电影中的男女主角,而且十分拟真,毫无违和感。

      AI换脸技术为我们的生活带来便利的同时,也被一些不怀好心的人用于诈骗。

警惕!当心!AI诈骗来袭




案例:百万粉丝女网红遭换脸

      4月26日,在社交平台有着百万粉丝的网红博主“caro赖赖_”发文称,有人盗了她的“脸”。据其介绍,大约在半年前,其视频评论区有多人说看过她的“视频”。本着清者自清的原则,她没进行任何回应。但前几天,其朋友给她发来一些截图和视频,当她看到视频里的女演员的脸和自己一模一样时。她意识到自己的“脸”可能被盗用了。
      该网红博主说,经过深入了解,她发现“AI盗脸”背后好像已经形成了一条完整的产业链。产业链的一端是不法分子通过AI换脸技术赚钱。这些不法分子,将明星、博主甚至普通人的脸制作成不雅照片或视频,明码标价获取利益。



      除了AI换脸外,其他AI技术也被不法份子用于诈骗当中,面对高科技诈骗,广大群众更需要擦亮眼睛,了解AI诈骗常用手法,谨防上当受骗。
警惕!当心!AI诈骗来袭

AI诈骗常用手法

第一种:声音合成

      骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

案例

      某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。

第二种:AI换脸

      除了直接盗取他人形象直接贩卖获利外,骗子使用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
      骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。

案例

      近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。

第三种:转发语音微信

      尽管微信没有语音转发功能,但骗子可以通过提取语音文件或安装非官方版本(插件),实现语音转发。骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。


第四种:通过AI技术筛选受骗人群

      骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。

      举个例子:当进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。运用AI技术,再加上套路和剧本的演绎,这样的诈骗手段,小伙伴们能hold住吗?




总之,骗局千千万万,最重要的是保持冷静、切勿贪心,遇到疑似骗局的情况要及时报警。