AI换脸技术被用于制造虚假视频或进行诈骗的事件有哪些?

看到很多关于AI换脸技术的讨论,但同时也担心这种技术被用于不法用途。有没有人遇到过或者听说过AI换脸技术被用于制造虚假视频或进行诈骗的情况?具体的场景是怎样的?

请先 登录 后评论

1 个回答

扶摇

 1. 假冒名人诈骗:2023年10月,一诈骗团伙被提起*,因其假冒演员“靳东”获取受害人信任,再以投资、公益、恋爱等各种理由索要钱款,共诈骗多名被害人共计*30余万元。

2. 假冒熟人诈骗:在一起案例中,郭先生的朋友突然打来微信视频*,说自己在外地投标,需要430万的保证金,想借郭先生公司的账户走一下账。这位“朋友”随即将钱打到了郭先生的账户上,并且截图让郭先生确认。虽然还未等来银行的通知信息,但郭先生还是先把钱转了过去。结果,跟他视频的,是用AI换了脸的骗子,佯装成郭先生的朋友来骗钱。

3. 多人变脸诈骗:近期,香港发生一起规模巨大的AI“深度伪造”诈骗案,诈骗金额高达2亿港元。诈骗者通过公司的YouTube视频和从其他公开渠道收集公司高管的音视频资料,再利用Deepfake(深度伪造)进行视频生成,形成多人视频会议的画面结果。这家跨国公司香港分公司职员,收到英国总部要求进行视频会议,视频中对方都显示了与以往相同的容貌,职员根据会议指令前后转账了15次,共计2亿港元。

4. 数字人盗脸带货:有不法分子利用“AI换脸”软件,*生成虚假的换脸淫秽视频,在*社交软件上进行传播,能够吸引较多关注,并从中牟利。

5. 陕西西安AI换脸诈骗案:陕西西安财务人员张女士与老板视频通话,老板要求她转账186万元到一个指定账号。转账之后,张女士按照规定将电子凭证发到了公司财务内部群里,然而出乎意料的是,群里的老板看到信息后,向她询问这笔资金的来由,这时张女士意识到被骗并报警。 

请先 登录 后评论