官方提醒!遇此类情况立即向公安报案

13日,国家金融监督管理总局发布《关于警惕利用AI新型技术实施诈骗的风险提示》,提醒广大金融消费者警惕新型诈骗手段 , 维护个人及家庭财产安全 。
【官方提醒!遇此类情况立即向公安报案】

官方提醒!遇此类情况立即向公安报案



当前 , AI技术的广泛应用为社会公众提供了个性化、智能化的信息服务,也给网络诈骗带来可乘之机 。如不法分子通过面部替换、语音合成等方式 , 制作虚假图像、音频、视频,仿冒他人身份实施诈骗,侵害消费者合法权益 。
利用AI新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财 。不法分子通常先以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句或面部信息 。再利用“拟声”“换脸”等技术合成消费者虚假音频或视频、图像 , 以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金 。此外,不法分子还可能对明星、专家、官员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的 。
此类诈骗手段迷惑性、隐蔽性较强 , 诈骗金额较高,为保护广大金融消费者合法权益,国家金融监督管理总局提示:
网络渠道“眼见”不一定为实 。“拟声”“换脸”等合成技术的一大特点即“以假乱真”,不法分子可利用此类技术轻易伪装成他人 , 并通过快速筛选目标人群、定制化诈骗脚本,精准实施诈骗 。因此 , 在涉及资金往来时,一个“声音很熟的电话”、一段“貌似熟人的视频”都可能是不法分子的诈骗套路 , 消费者应提高警惕 。
转账汇款务必核验对方身份 。面对自称“熟人”“领导”等通过社交软件、电话等以各种理由诱导汇款,务必核验对方身份 。如可在沟通过程中提问仅双方知晓的问题 , 也可利用其他通讯方式或见面核实,或向对方的朋友、家人验明身份和情况 。在无法确认对方身份时,应尽量避免转账操作 。
保护好照片、声音等个人信息 。消费者应提高个人信息保护意识,不随意下载陌生软件、注册陌生平台或添加陌生好友 , 对个人社交账户的安全状况保持警惕 。尽量避免在互联网过多暴露个人照片、声音、视频等信息,不贪图方便把身份证、银行卡照片等直接存放在手机内 。如不慎被骗或遇可疑情形,应注意保存证据并立即向当地公安机关报案 。

    推荐阅读