有人模仿我的脸有人模仿我的笑,有人模仿你的脸
有人模仿我的脸有人模仿我的笑,有人模仿你的脸谨慎使用人脸、指纹等个人生物信息我们要随时提高防范意识随着AI智能技术的应用可能让普通人的脸,被不法分子盗用!河南省反诈骗中心提醒您啦~
骗术升级 提高警惕,AI换脸骗局来了!
国家反诈中心,赞2245
有人模仿你的脸?
快警惕AI换脸骗局!
随着AI智能技术的应用
可能让普通人的脸,被不法分子盗用!
河南省反诈骗中心提醒您啦~
我们要随时提高防范意识
谨慎使用人脸、指纹等个人生物信息
以免遭遇花样翻新的“AI换脸”骗局!
是谁用了我的声音/脸?
—— “AI换脸”诈骗案例——
真实案例
小宁的大学同学“小夏”通过QQ联系跟他借5000元钱,一向谨慎的小宁问“小夏”是否是本人,对方立即打过来一通近1分钟的视频电话,于是小宁便给小夏转去了钱,不一会儿,小宁突然意识到刚刚通话时,“小夏”的表情跟往常有些不一样,于是就打开通讯录拨通对方的电话,这才得知小夏的QQ账号被盗,随后立即报警。警方初步判断,通话的视频极有可能是诈骗分子通过AI技术“变声”、“换脸”合成而来。
利用AI诈骗的一般作案步骤
第一步
非法盗取微信、QQ等通讯账号,分析被盗号人的声音、人脸等生物信息以及社交信息等。
第二步
索定受害者,一般会以被盗号者的名义借钱等,利用AI技术合成的声音、人脸等取信于受害人。
第三步
等到受害者上钩,迫切要求转账,诈骗操作实施完成。
警方提醒
01
多重验证,保持警惕
随着科技的高速发展,AI技术合成声音、人脸等一时难以用肉眼区分。所以遇到涉及钱款的情况时,一定要在多个渠道(电话、微信)同时询问具体信息,以免上当受骗。
02
保护信息,避免泄露
一定要加强个人信息保护意识,在任何情景中都应该谨慎使用人脸、指纹、身份证号码等个人生物信息;对于不明平台发来的广告、中奖、交友等链接更要提高警惕,不随意填写个人信息。
03
相互提示,共同防范
做好家人朋友的骗局防范工作。尤其要提醒家人在接到电话、短信通知亲人遇到紧急情况时,先保持冷静,再拨打亲人或朋友的电话多方确认,不要轻易相信对方,更不能贸然转账。