近日,据“平安包头”微信公众号消息,内蒙古自治区包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术佯装熟人,进行电信诈骗的案件,福州市某科技公司法人代表郭先生在短短10分钟内被骗走430万元。案件披露后,引起舆论高度关注,一时之间,“AI诈骗正在全国爆发”等相关词条占据微博热搜榜前列,生成式人工智能再次引发热议。
技术门槛降低,技术小白也可轻易实现
张嘴、点头、摇头,摄像头在捕捉到人的动作后,屏幕中静态的人像就可以动起来。不仅能进行眨眼、露齿、微笑等表情动作,在动作幅度上也能够达到与真人基本一致,仿真度颇高。短短几分钟内就可以生成一段视频,且能够根据需求任意替换脸部。
这样的AI换脸技术正成为一些不法分子用以进行新型诈骗的工具,他们“变身”为特定人物,实时与他人进行视频通话,冒充熟人的身份联系被害人,博取信任后实施诈骗。声音、相貌等原本具有特异性、标志性的个人身份特征,在技术的“侵袭”下,逐渐被打破边界。
对此,业内某网络公司高级技术人员何勇告诉记者,目前AI换脸技术主要通过深度学习和计算机视觉技术实现。“通过深度神经网络去分析、识别视频中的人脸,再将人的脸部特征映射到另一个人的脸上。”在视频通话中,犯罪分子会通过发送“定制”好的视频或者使用换脸软件,获取对方的信任并实施诈骗行为。他表示,目前很多代表性的生成方法已经被开源,技术逐渐走向公开和轻量化,市场上有大批提供相关服务的第三方应用软件。“应用门槛比较低,哪怕是‘技术小白’,也能在几分钟内轻松学会AI换脸等操作。”
“以假乱真”仍非易事,需注意不自然的细节
那么,目前的AI换脸技术成熟度如何,是否能够达到以假乱真的程度?
何勇表示,尽管目前AI换脸技术的成熟度在不断提高,但要达到完全以假乱真的程度,仍存在一定的限制。“就现在的技术水平所最终呈现出的效果而言,不同面部表情之间的变化、过渡以及声音模拟在节奏、音高变化等方面,还是会与原始视频有较大的差别,因而显得不够自然。”
而所谓AI诈骗,也就是在原本的诈骗剧本上叠加一层AI技术,增强其迷惑性,本质上来说,行骗手段仍然在于骗取受害者的信任。因此,对于普通老百姓而言,了解了技术缺陷,AI诈骗也并非完全防不胜防。
针对如何进行判断、分辨,何勇提供了几个简单有效的技巧:在视频通话过程中让对方尽量展现全身的特征,同时观察人脸是否会随之出现消失或特殊的变化。也可以让对方用手或白纸在脸前缓慢晃动,如果是通过AI换脸合成的视频,脸就会变形或出现画面闪烁现象,以此来进行判断。此外,在家人、朋友之间约定好特定的“暗号”,尤其是在涉及到钱财交易方面,通过“暗号”相互确认。
业内人士还建议,尽量不要在社交媒体上发布个人与家人相关照片、语音、视频等,以防被不法分子利用。
政策法规仍待细化,防范风险离不开多方发力
记者注意到,除了AI诈骗,恶意滥用AI换脸等技术进行恶搞、冒充明星带货、制作不良视频等乱象也频频出现。对此,国家网信办、各地网警也在加紧对类似的违法违规现象进行整治,相关的政策法规也逐渐出台。
目前《中华人民共和国民法典》《网络音视频信息服务管理规定》《网络信息内容生态治理规定》等我国多部法规,均涉及深度合成应用的规范。2022年11月25日,国家网信办联合相关部门联合发布了《互联网信息服务深度合成管理规定》,对深度合成内容的用途、标识、使用范围以及滥用处罚作出了具体规定,尤其对作为深度合成服务提供者的平台方进行了审核、评估、监管等提出明确要求,此规定已于今年1月10日起正式施行。
尽管如此,仍有专家指出,对于深度合成服务与应用方面还需要进一步细化和明确。律师尚博表示,深度合成技术相关的一些概念界定、平台责任边界等问题的确在法律上面临挑战。她认为,《规定》在一定程度上,能够规范符合市场需求的应用技术,但对于技术的滥用,甚至是从事违法犯罪行为并不能起到限制或禁止的作用。
面对越来越“高明”的网络诈骗手段,要如何警惕与防范AI换脸等技术可能带来的不良后果?
尚博表示,“这需要个体、企业和政府多方发力,共同提升信息保护意识和能力。”她建议道,政府部门要加强AI换脸技术监管力度,并制定相应的法律法规,明确开发商、运营商及使用者的责任边界与处罚标准。对于掌握和运营大量人脸信息、语音数据的机构、组织而言,需严格对AI换脸技术进行内部监管,设定审核机制,规范使用行为。最关键的是要提高个人防范意识,警惕被相关软件收集人脸、声音等个人敏感信息。在面对涉及财物交易的事宜,通过个人、亲友、单位等多渠道联系、核实后,再进行交易。
新华日报·交汇点记者 张洁茹
编辑: 刘艳元
{{ article.sysDisTopic }} {{ article.title }}
{{article.sysDisTopic}} {{article.title}}
提高个人防范意识,警惕被相关软件收集人脸、声音等个人敏感信息!!!