赵丽
记者:针对AI深度换脸技术风险多发,有关网络安全法律专家认为,必须高度警惕这种技术被恶意使用的风险,尽快开展法律风险评估。
王四新(中国传媒大学网络法与知识产权研究中心主任):我们需要对它进行安全评估,这种安全评估也是有法律依据的,网络安全法、网信办制定的规范性文件都有相应要求。安全评估需要弄清楚的是,实际运作过程中可能会存在哪些风险,针对这些风险,我们可以采取哪些措施。只有这些问题全部落实,才可以正常运转。
记者:今年6月13日,美国众议院情报委员会召开关于人工智能深度伪造的听证会,公开谈论了深度伪造技术对国家、社会和个人的风险及防范和应对措施。随着AI技术的深度应用,也有不少业内人士提出,我们必须高度警惕这种技术被恶意使用的风险。但对深度伪造的内容不能一棍子打死,很多深度伪造的合成媒体内容具有存在的正当性,只有影响国家安全、公共安全、民主政治的虚假信息才需要加强监管和规制。涉及刑事犯罪和一般网络侵权的深度伪造适用不同的规制。
王四新:要构建非常完备的内部制度,或者说构建一个比较好的体制和机制,对于这些发展过程中出现的问题,有一些特殊的流程。同时,还要建立有效的反馈机制。
郑宁(中国传媒大学政法学院法律系副主任):对于深度伪造,要具体问题具体分析。如果不影响国家安全、公共安全、公民个人权利,比如电影特效,就不用太多干预,如果有影响才应当加以监管。具体的法律责任要看违法的严重程度,然后来判断承担民事责任、行政责任还是刑事责任。
记者:有专家建议,立法部门应紧跟国际人工智能技术最新进展,联合国内专业研究力量,评估这项新技术可能带来的法律风险,以及对国家安全等构成的威胁,加快对类似新兴技术的前瞻性立法研究。
郑宁:网络安全法第十七条规定,国家推进网络安全社会化服务体系建设,鼓励有关企业、机构开展网络安全认证、检测和风险评估等安全服务。对于新技术,应该开展安全评估,评估可以由社会组织或企业自行开展,政府部门监督检查。
王四新:网络安全法是一个非常庞大的系统工程,需要企业全面履行主体责任,真正解决实践中出现的这些问题。
刘德良(北京师范大学法学院网络与智慧社会法治研究中心主任):针对这种立法,可能在未来需要跨过一些坎。首先要转变观念,从关注个人信息的泄露转到滥用的方向。我认为障碍就在于观念问题,现在的主流看法都在强调泄露,而不在防止滥用上。
在观念转变之后,再组织专家商讨、提案,或许情形很复杂,主体也不一样、侵犯的权益也不尽相同,要系统地规范什么叫滥用,滥用有哪些类型,如何从民法、行政法、刑法有效防止滥用。如果没有立法,司法也没有意义。
記者:在您看来,防止泄露、绝对的保密是否无法做到,未来相关领域的立法重点是否应该在如何防止这些信息或数据的滥用
刘德良:相关法律法规的建立完善要具有可操作性,不能不利于大数据和人工智能产业的发展。大数据、人工智能产业本身就需要数据搜集,现在我们的个人信息已经存在于N个商家和机构中,泄露了也不知道从哪里泄露的,防止的不是泄露,关键在于不能滥用。
从立法上要让进行身份识别的机构或者平台(比如银行、支付平台、电信公司、保险公司)去承担责任。如果用户的个人信息被盗用、滥用,有两种思路去问责:一是对这些机构、平台进行过错推定,除非能证明履行了核实比对义务,这种义务的标准随着技术、时代的变迁也会不断升级改变,需要司法按照这个标准去判定取证,来确定是否尽到义务,才可以免责,否则就要和假冒者一起承担连带责任;二是更加严苛,承担无过错责任。
如果法律有这种规定,就会倒逼这些机构、平台认真核查比对,甚至会想方设法开发更新的技术手段,来有效避免身份假冒滥用。如果不这样立法,掌握个人信息的机构、平台就会把风险转嫁给被假冒者,让个人承担风险。
(摘自9月6日《法制日报》。作者为该报记者)