首页 / ai资讯

警惕AI换脸诈骗!单张照片能实时视频换脸:肉眼所见不一定为真

发布时间:2024-08-19 11:36:02

据央视新闻报道,湖北黄石最近破获的一起案件中,犯罪团伙利用AI换脸技术解锁并倒卖社交账号,非法获利。受害人王先生在加入一个炒股直播间后,被诱导投资并最终遭遇提现难题,对方账号因涉嫌诈骗被冻结,资金无法取出。

警方在调查中发现,涉案社交账号被解冻并重新登录,推测有团伙帮助解封。经过侦查,黄石警方在河南抓获三名嫌疑人,并查获大量电子设备和电话卡。嫌疑人高某与许某自2023年9月底开始在网上贩卖和帮助他人解锁社交账号,利用AI换脸技术制作的动态视频,解锁被平台冻结的账号,每解锁一个账号收费15至30元,共解锁2107个账号,非法获利40万元。

工业和信息化部反诈专班专家指出,不法分子通过公开渠道获取受害人的肖像或视频,利用AI技术进行学习模仿,实现以假乱真的效果。AI换脸技术不仅能让静态照片上的人像活化,还能实现实时视频通信状态下的换脸,甚至仿冒声音。

目前,有关部门正在开发AI换脸诈骗检测与预警技术,与手机终端企业合作推出风险提醒功能,保护用户数据不泄露,并在用户授权后提供预警提醒。

根据《互联网信息服务深度合成管理规定》,深度合成服务提供者需对合成内容添加水印,提示公众内容由AI生成或合成,同时便于追溯来源。专家提醒,要加强个人隐私保护,不轻易提供生物信息,不随意公开分享动图、视频,尤其涉及转账汇款要求时,要通过多种途径核实确认,避免上当受骗。


免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com