有一种AI诈骗形式是声音合成。具体的操作是,骗子通过骚扰电话等录音来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。谷歌就曾合成出可以假乱真的特朗普和奥巴马的声音。
最近,2019防范治理电信网络诈骗论坛在中国互联网大会期间举行。据论坛内容显示,機器学习、人工智能、大数据等热点技术已被犯罪分子用于实施诈骗。
诈骗手段不断翻新,四种形式防不胜防
论坛上,中国传媒大学政法学院法律系副主任郑宁总结了4种AI(人工智能)诈骗形式。
第一种是转发微信语音。骗子通过盗取微信号,然后提出转账要求。如果有人要求语音回复,骗子便通过提取语音文件或者安装增强版微信,实现转发语音,从而获取信任。
第二种骗术是声音合成。具体的操作是,骗子通过骚扰电话等录音来提取某人声音,获取素材后进行声音合成,从而用伪造的声音骗过对方。
郑宁表示,通过神经网络和机器学习技术可以达到合成声音的效果。第一个利用神经网络生成人类自然语音的,就是由伦敦人工智能公司深度指示器创建的波网。此技术通过使用真实语音记录来直接模拟波形,能够生成听起来相对真实的类人声音。
据了解,谷歌人工智能实验室创立了七叶树公司。在其网站上,可以听到官方合成的可以假乱真的特朗普和奥巴马的声音。美国有一名记者曾用机器合成的句子和家里人打电话,他的家人完全分不清真假。
“合成的声音有明显的痕迹,但波网可以把合成痕迹明显的机器语音,转换成更加流畅自然的语音,与人类声音之间的差异大幅降低。而七叶树则更进一步,它可以基于音色、音调、音节、停顿等多种特征,来定义某个人的声音,然后生成更加拟真的声音。”郑宁说。
第三种是AI换脸。视频通话的可信度明显高于语音和电话,但利用AI换脸,骗子可以伪装成任何人。
第四种是通过AI技术筛选受骗人群,通过分析公众发布在网上的各类信息,骗子会根据所要实施的骗术对人群进行筛选,从而选出目标人群。
例如实施情感诈骗时,可以筛选出经常发布感情信息的人群;实施金融诈骗时,可以筛选出经常搜集投资信息的人群。
我们该如何防止被骗
诈骗手法在不断翻新,广大群众该如何防止被骗呢?
郑宁提出了两点建议。第一是验证,在涉及钱款时,民众要通过电话等方式确认对方是否为本人,在不能确定真实身份时,可将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。
此外,可以选择向对方银行汇款,避免通过微信等社交工具转账。因为微信等工具均会绑定银行卡,而向对方银行卡转账,一方面便于核实对方信息,确认钱款去向;另一方面,对方能通过短信通知得知转账信息。
第二是保护个人信息,注重隐私保护。社交平台的发展加大了保护个人信息的难度,民众将越多的个人信息暴露在网络上,遭受诈骗的概率越高。由于实施诈骗需要获取当事人的个人信息,网络共享加上AI技术,让骗子搜集当事人的个人信息更为便捷。因此,为避免骗子借用个人信息实施诈骗,民众应当加强个人信息保护意识,以防止骗子利用AI技术掌握大量个人信息并对人物性格、需求倾向等进行刻画,从而有针对性地实施诈骗。
在中国人民大学法学院教授刘俊海看来,预防被骗的关键就是人们要提高自我保护意识。他指出,亲戚朋友间要相互提示,相互宣传。由于中老年人被骗较多,青年人要及时做好家中老人的宣传防范工作,提醒、告诫老年人接到电话、收到短信,只要是不认识、不熟悉的人和事,均不要理睬,以免被骗。另外是拒绝诱惑,民众应当避免占便宜心理,警惕陌生人提供的好处。
充分利用人工智能提升反诈骗精准度
对于这种利用新技术的诈骗,该如何整治?
刘俊海表示,消费者反映的最集中、最突出的问题,往往是监管机关、司法机关在监管和执法当中的漏洞和盲区。规范监管就应当致力于消除监管漏洞、盲区以及真空地带,真正打造一个信息共享、快捷高效、无缝对接、有机衔接的预防合作机制。
在郑宁看来,AI技术可以被用于诈骗,也可以被用于反诈骗。利用技术的方式不同,带来的影响也不同。因此,在面对一项技术时,不仅要关注技术本身,更要关注技术的用途,将技术用于提高生活质量。