近年来,人工智能(AI)技术迅猛发展,在带来创新与便利的同时,也催生了侵权、诈骗等违法行为。去年,有诈骗分子利用AI换脸技术,骗取430万元。此类案例警示,AI技术正加速向网络诈骗等领域渗透。
AI换脸技术是通过深度学习算法,精准捕捉并复制人脸特征,将一个人的脸部形象无缝替换到另一个人的脸上,生成的视频效果逼真,非专业人士难以辨识。此外,AI拟音技术同样令人咋舌,仅需几秒的声音样本,人工智能大模型便能迅速克隆出高度相似的人声,且操作简便,相关软件与教程在网络上泛滥成灾。随着AI技术门槛降低,合成效果愈发逼真,逐步向全身、3D合成发展。
技术的双刃剑效应日益凸显。AI技术的滥用,不仅可能假冒公众人物,还可能规模化发送虚假信息,严重扰乱社会秩序。今年4月,北京互联网法院宣判的全国首例“AI声音侵权案”,为AI技术的滥用敲响了警钟,法院通过判决为新业态新技术划定了应用边界,彰显了保护人格权益与引导技术向善的司法态度。
目前,我国法律法规对AI深度伪造作出了一定规制。2023年1月施行的《互联网信息服务深度合成管理规定》明确,“提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”“可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识”等。
如何识别并防范AI换脸呢?相关专家指出,AI换脸生成的假人往往存在牙齿边缘过于整齐、眼睛瞳孔颜色不一致、眨眼频率异常等破绽。同时,民众应增强个人信息保护意识,不轻易提供人脸、指纹等生物信息,避免在社交平台发布正面照片或视频,妥善保管身份证、银行卡等敏感信息,及时卸载和注销不常用的手机App。
公安部门也提醒公众,面对电信网络诈骗,应牢记“三不一多”原则:未知链接不点击,陌生来电不轻信,个人信息不透露,转账汇款多核实。一旦发现诈骗行为,应立即报警,以最大限度减少财产损失。
(综合福州新闻网、《天津日报》)