您所在的位置:首页 > 新闻详情

【风险提示】好友借钱不“眨眼”?警惕AI换脸换声新骗局!

发布时间:2023-06-02 | 来源:中国网 | 阅读次数:1111

       近年来,AI技术成为科技领域的热点,但也出现滥用,甚至被不法分子用以实施犯罪,如伪造不雅视频、换脸诈骗等。

  内蒙古包头市公安局电信网络犯罪侦查局发布了一起使用智能AI技术进行电信网络诈骗的案件。福州的郭先生突然接到“好友”打来视频电话,郭先生见长相和声音皆是“好友”,信以为真,10分钟内被骗走430万元。原来,骗子利用AI技术,通过声音合成,伪造成特定人物的声音,通过AI换脸,伪装成特定人物,可以实时与他人进行视频通话。更换后的面部表情自然,以假乱真。幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元。

  警方指出,骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,再用伪造的声音进行诈骗。骗子还会分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。

  此外,尽管微信没有语音转发功能,骗子在盗取微信号后,仍可通过提取语音文件或安装非官方版本(插件),转发之前的语音,取得微信号中的好友的信任,再向他们“借钱”,骗取钱款。

  注意视频对象不眨眼、语音和嘴不同步等细节 多重验证确认对方身份

  如何防范AI诈骗?注意视频对象缺少眨眼、语音和嘴唇运动不同步、情绪不符合,或视频出现模糊的痕迹、画面停顿或变色,都是分辨视频真假的好方法。在涉及到转账交易等行为时,通过电话等形式询问具体信息,多重验证确认对方是否为本人。避免通过微信等社交平台转账,最好向对方的银行账户转账,将转账到账时间设定为“24小时到账”,以预留处理时间。

  中国互联网协会24日发文呼吁公众提高警惕,加强防范。该协会提示,不要轻易提供人脸、指纹等个人生物信息给他人;不要轻易透露自己的身份证、银行卡、验证码等信息;不要贪图方便把身份证、银行卡照片等直接共同存放于手机内。

  陌生链接不要点,陌生软件不要下载,陌生好友不要随意添加,不明二维码不要随意扫描,也不要轻易向陌生人开启手机屏幕共享。安装安全软件,防止手机和电脑中病毒。对个人账户的安全状况保持警惕,尤其是陌生设备的登陆情况,防止微信、QQ等被盗号。

  如果有人自称“家人”“朋友”“老师”“领导”通过社交软件、短信、电子邮件等以各种方式和理由诱导你转账汇款,务必第一时间提高警惕,通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款。

  发现App过度、强制收集个人信息、App不提供个人帐号注销方式,或为注销帐号设置各类障碍的,可至12321.cn投诉。遭遇诈骗信息,至12321.cn反诈专栏举报,如发生资金损失及时报警。

  使用AI有风险 不得伤害他人身心健康、肖像权

  值得注意的是,使用AI“换脸”及类似软件还伴随着法律风险和侵权纠纷。

  2022年11月25日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,明确深度合成服务提供者提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或显著改变信息内容功能的服务的,可能导致公众混淆或者误认的,应当进行显著标识。任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。

  今年4月,国家网信办起草了《生成式人工智能服务管理办法》(征求意见稿),提出利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息;防止伤害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权;禁止非法获取、披露、利用个人信息和隐私、商业秘密。

  警方也提示,“AI换脸技术”即便只是用来搞笑或者制作恶搞照片,也有可能涉及侵犯肖像权、名誉权,造成严重后果的,还可能构成侮辱罪或者诽谤罪,应依法使用该项技术。


文章搜索

专栏直通车
返回顶部
建议咨询