郝家杰
(西北政法大学 涉外法治研究中心,陕西 西安 710063)
新一代信息技术取得巨大进步,但伴随而生的人工智能“黑匣子”问题使得人们无法理解和运用人工智能系统,以致于在监管方面受限,尤其是在国际合作方面存在极大阻力。为此,在学界、企业、机构层面乃至政府组织层面亟需建立可解释的人工智能,这也逐渐发展为以人为中心的人工智能重要研究板块,比如,部分国际会议如International Conference on Machine Learning(简称ICML)、Conference and Workshop on Neural Information Processing Systems(简称NeurIPS)等会议将可解释的人工智能纳入研讨会的讨论主题中。目前,由于“黑匣子”问题转向可解释的人工智能已是大势所趋,亦对以人为中心的人工智能提出前瞻性挑战。人工智能可解释性的意义不仅在于证明其决策结果的合理性,使人们可以明智而果断地行动,更在于监控因数据偏差导致的道德问题和违规行为,为其提供更好的机制进行监管或其他目的。为此,本文拟从比较法的视角出发讨论美国、欧盟以及中国人工智能监管政策发展现状及人工智能治理未来走向,总结因技术缺陷产生的可解释性问题,结合各国国情,对人工智能国际合作监管理念的塑造与监管机制的构建提出可行性建议。
从全球范围分析,各国人工智能发展的战略博弈愈发清晰明了——将可解释性作为人工智能研发的一项基本原则用以指导国家政策,以此应对因人工智能技术引发的潜在风险;与此同时,为避免人工智能技术对社会结构、社会风险带来的冲击和人工智能重复监管导致监管资源配置不均衡的尴尬局面,迫切需要各国政府将人工智能技术监管体系的构建融入到主权国家之间或区域性国际组织的人工智能发展战略布局之中,平衡创新发展与规制需求,以此竞逐监管实践创新的主导地位。比如,2017年4月,美国国防部高级研究计划署(Defense Advanced Research Projects Agency,简称DARPA)启动了“可解释的人工智能” (Explainable Artificial Intelligence,简称XAI)项目,旨在提高AI系统的可解释性;同年5月,XAI计划正式开始。有11个研究小组被选中,开发可解释学习(TA1),另一个小组则被选中开发解释的心理学模型。2018年5月,欧洲联盟(European Union,简称EU)发布了《通用数据保护条例》(General Data Protection Regulation,简称GDPR),提出了公民“解释权”的概念,规定欧盟公民有权检查所享受的特定服务是如何依据特定的算法决策作出的,强制要求人工智能算法对其提供明确解释。2019年6月,我国国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》提出“人工智能系统应不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖”,这是我国首个官方发布的人工智能治理框架和行动指南,而“可解释”便是其中的要求之一。
自2017年以来,全球已有30多个国家和地区提出优先发展人工智能的国家战略,争相投身于人工智能全球竞争行列。关于人工智能可解释性的国际规则及标准亟需完善,并且国家间需要通过互利合作方能补齐发展短板,消除分歧,以此满足国际合作、共同进步、共同发展。因此,不少关于人工智能的倡议应运而生,比如国际倡议、国际论坛以及国际标准等纷纷响应,将有关人工智能的议题纳入协议之中,逐步推动人工智能国际合作。比如,《二十国集团(G20)国家人工智能战略》系列报告中,第一份报告于2018年公布于世,阐述了12个国家的国家战略;2022年,第二份报告《G20.AI:国家战略,全球雄心》随之问世,概述了G20国家的人工智能发展战略。IP5,由来自中国、美国、日本、韩国和欧盟的5个世界上最大的知识产权局论坛推动人工智能知识产权保护和国际合法性,促进人工智能技术的应用和创新。
1.1.1 双边合作相互协调
近年来,美国、英国、法国、日本等国家陆续加强交流,促进国家之间的人工智能合作。如,2020年9月,美国同英国正式签署《人工智能研究与开发合作宣言》,试图通过加强人工智能协同合作的方式,确保双方在人工智能合作发展方面能够规划优先事项。同年10月23日,日本与英国在东京正式签署《全面经济伙伴关系协定》(EPA),允许数据跨国自由流动,此举使得英日欧的数字经济有趋向一致的可能性。由此观之,各国目前意识到双边合作的方式可作为人工智能国际合作发展的一条重要路径。
1.1.2 多边合作全面联动
2019年5月22日,经济合作与发展组织经(OECD)批准了全球首个政府间人工智能标准——《OECD人工智能原则》,确立5项基本原则、5项公共政策以及国际合作建议。37个经济合作与发展组织成员国及5个非成员国参与,涉及AI标准和原则、数据共享、研发合作、数字基础设施等倡议内容。同年5月25日,《人工智能北京共识》针对人工智能的研发、使用、治理三方面,提出了系统的人工智能治理原则,有助于实现对人类和自然有益的人工智能。同年8月,美国、欧盟以及日本等国相继加入首个全球人工智能合作伙伴组织(Global Partnership on AI, 简称GPAI),旨在基于共同价值观,推动负责任、以人为本的人工智能发展。2021年,美国人工智能国家安全委员会通过的《人工智能最终报告》提出,加强与盟友的合作发展,提升人工智能创新潜力和应用能力。美国高频率联动英国、G7、G20等国家或国际组织,试图主导全球人工智能技术标准和价值原则。
另外,在伦理层面,欧盟委员会的人工智能高级专家组(High-Level Expert Group on Artificial Intelligence, AI HLEG)于2018年12月发布了《可信人工智能伦理指南草案》(Ethics Guidelines for Trustworthy AI),该指南提出一个可信人工智能框架将可解释性作为可信人工智能的4个伦理原则之一。2021年11月25日,联合国教科文组织正式通过全球首份有关人工智能伦理问题的具有广泛共识的协议《人工智能伦理问题建议书》(Recommendation on the Ethics of Artificial Intelligence),提出了十大原则之一,“透明度和可解释性”,以此确保人权、基本自由和伦理原则得到尊重、保护和促进。
中美欧三方利益体均考虑到人工智能的不透明性和不可解释性等特征,采取的人工智能监管方向趋向一致,仅在创新与监管的倾向上各有权重,并且希望继续保持监管路径的独有特色[1]。
自从2015年美国国防高级研究计划局(DARPA)提出XAI研究项目以来,XAI已日渐成为人工智能领域的重要研究方向,通过采取轻监管、促创新的发展路径,允许个人和企业自主发展,确保“多利益相关方”自由参与的美国价值观。
欧盟则注重通过可解释性原则指导具体立法和严格监管以降低潜在风险,彰显注重保障个人权利等欧盟基本价值观。
2021年9月25日,中国新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,旨在将透明性和可解释性等在内的多项伦理道德要求融入人工智能全生命周期,凸显“人类命运共同体”理念,整合多元主体价值观的差异,以确保人工智能有益于人类和自然,协调人工智能技术的创新发展与监管规制。
近年来,人工智能技术在世界范围内的发展日新月异,全球各国纷纷响应,通过指导人工智能政策,加速各行各业智能化、数据化、数字化转型。与此同时,囿于人工智能技术可解释性要求,诸多新型负面影响随之产生,如滞后的监管理念无法适应新环境、新的社会性风险、监管资源供需不均衡等问题亟待解决,以此完善未来深度学习的可解释性研究。
从全球发展趋势来看,人工智能技术的开发和应用得到迅速发展,将深刻改变人们的生活方式。然而,由于人工智能解释性要求的落实难以满足,人工智能产品、技术问题与人类普世价值观存在一定分歧,这是意识形态领先现实世界的必然结果,终将导致决策者陷入创新发展与审慎监管的困局。监管规制与创新需求之间相互制约又相互促进。监管规制介入潜在利益相关方的时机是个较为棘手的难题:其一,过早监管可能不利于创新,甚至阻碍创新,在一定程度上破坏人工智能给人类社会带来的潜在巨大好处。其二,放纵创新也可能绕过监管,将技术带入歧途,增加人类社会和经济风险。针对早期有关人工智能的监管理念仍处于起步阶段,且相关政策如欧盟《通用数据保护条例》第22条在技术创新与监管规制之间存在失衡。滞后的监管理念可能会限制“新”的人工智能技术创新发展,甚至加深“人机冲突”的尴尬局面。随着时间的推移,监管理念亦需审时度势,与智能化、数字化的社会相适应,与时俱进[2]。
人工智能行业的创新成果大量涌现,人们在享受人工智能红利的同时,社会不稳定风险因素伴随而生,正如“我们无法真正预测未来,因为科技发展并不会带来确定的结果”[3],给人类社会带来全新的挑战。
2.2.1 隐私问题
人工智能隐私问题一直是各界、各国以及国际社会的关注焦点。人工智能技术通过大数据采集和算法运用等技术来记录每个人的日常行为轨迹,使得个人隐私无法得到有效保护。为此,可解释的人工智能终将成为保障用户个人隐私相关权益的前提[4]。现代社会的工作和生活愈发离不开人工智能,诸如,学校、车站和机场等公共场所遍布监控设备用以采集人像资料,并且个人手机存在的众多APP同样会广泛搜集个人信息,这使得用户隐私无处遁形。除此以外,在法律层面,大数据时代的个人信息数据保护问题存在法律空白或泛化规则,关于隐私保护的相关法律规制也远远滞后于人工智能技术的更新迭代。
2.2.2 伦理风险
由于人工智能可解释性要求无法落地,人工智能系统在抉择困境中面临难题。进入大数据时代,人工智能的可解释性问题相较于以往没有灵性的机器人而言,人工智能可通过深度学习模拟出人的智性、灵性和心性,进而取代人类一些重复性工作,营造一种“人机协作”的社会氛围。然而,人工智能技术却隐含着诸多不确定性因素,在无形中引发了价值权衡等伦理风险[5]。即便人工智能技术可解释性要求无法满足,一些关于伦理的前瞻性立法却可先行绕过可解释性问题,从而使人工智能有益于人类和自然。在具体设计人工智能监管体系框架时,人工智能系统会陷入价值权衡的两难困境之中,比如,当人工智能行车驾驶路遇行人闯红灯时,它是遵循生命健康至上原则停车等待还是遵守交通规则“红灯不停车”?由此观之,抉择时刻的价值权衡将会是人工智能技术推广普行中亟待解决的伦理挑战。
各国政府虽然出台了不少有关人工智能监管的指导性政策,但由于人工智能技术蓬勃发展以及可解释性问题无法解决,监管机构的协调性以及监管规范的合理性在现代社会中难以灵活适用。
2.3.1 监管机构重叠
毫无疑问,各国政府若能对人工智能系统的每一个决策作出合理解释,人工智能的合理监管造福于国际社会将是题中之意。然而,监管规范的制定并非轻易完成,其中需要考虑多方综合因素。人工智能涵盖一系列多维度、多视角、多领域的范畴,近乎所有关于机器学习和数据的领域都可被认为属于人工智能范畴。质言之,人工智能涉及范围之广,若在缺乏伦理道德要求的情况下,统一监管无法短时间形成,其原因在于可能需要花费大量时间对人工智能系统输出的每一个决策提供合理解释。因此,监管机构的统一性有助于对人工智能发展提供清晰明确的监管指导,协调各监管机构之间的交流,同时加强其与被监管者之间的沟通,有效避免重复监管的尴尬局面。倘若监管机构与被监管者之间缺乏共识,必将加深双方的顾虑和误解,进一步激化双方存在的分歧。
2.3.2 监管资源浪费
囿于深入的高层交流和统一的顶层设计,政府无法提供合理的人工智能监管政策指引,监管标准无法统一、监管职权不明以及监管机构臃肿等现象随之产生。不仅如此,虚耗的监管资源配置同样无法落在实处。目前,各国政府关于人工智能的政策尚处于空白领域或规则泛化的情形,各监管机构可能在监管重叠范围内虚耗大量监管资源。因此,提升监管效率将是各国政府间监管合作的重要议题。
国际制度能降低谈判成本,为机制化解决国际合作监管问题提供交流平台。质言之,通过处理可解释性问题以完善人工智能技术,或许是目所能及的最优解之一,但大数据、生物识别、区块链等新一代信息技术的蓬勃发展,诱发的多种负面因素使得可解释性要求难以满足,各国政府自然需要对人工智能国际合作监管规范进行科学的顶层设计,重塑人工智能监管理念,构成与人工智能可解释性要求相适的监管体系。
鉴于人工智能的发展已经涉及到全球各个国家、地区、组织等多方层面,关系错综复杂,并且人工智能技术是一种待完善的高新技术,伴随而生的部分问题难以解决,如可解释性的要求。因此,以解决可解释性问题为导向,协调多方利益关系的监管理念自然成为人工智能国际合作的共同诉求。具体包括以下3种监管理念:
3.1.1 “协调性”监管理念
在信息大爆炸的现代社会,技术、政策、知识、风险等具有全球化特征,正因如此,人工智能技术的治理需要多领域、多部门、多维度乃至多国共同参与。人工智能国际合作监管需要协调各利益相关方,通过重塑理念引导国家之间的动态协同,积极推动区域性组织或全球性机构等进行交流与协作,降低可解释性难题引起的具有世界波及性的潜在风险[6]。
3.1.2 “包容性”监管理念
人工智能技术是一种待完善的新兴技术,正如美国DARPA关于可解释人工智能的报告所言,可解释性要求的发展进程十分缓慢。因此,当前最重要的是鼓励技术创新,秉持“包容性”理念,给予可解释性人工智能技术创新容错的空间,同时施加相应惩罚规制作为补充。
3.1.3 “开放性”监管理念
人工智能的技术发展需要全球相关利益方高度协作,其可解释性问题需要世界各国取长补短,协同解决。倡导“开放性”监管理念,集合各国智慧与经验,及时调整监管政策和监管制度共同促进技术发展,进而构建相关利益方之间的平等对话、技术交流。
目前,国内外立法尝试从数据、风险等方面对人工智能的可解释性进行规制,提出对技术应用、隐私保护、伦理道德、法律法规等维度进行体系化研究,统筹推进立法监管,构建完善的可解释性监管规制体系。
3.2.1 健全立法引领
有观点认为技术应用能解决一切问题,着重强调技术的绝对性。众所周知,技术应用不可能洁白无瑕。未来的人工智能治理需要“硬性的立法指引”和“柔性的技术标准”协同推进。“立法指引”需要对人工智能的总体布局作出概括性引领,旨在监管人工智能技术适用的基础,而“技术标准”的国际统一和兼容则是监管人工智能技术应用的前提[7]。因此,可在立法与标准层面寻求突破。首先,在立法层面积极借鉴国际规则和经验,深入研究人工智能新情况新场景,推动区域性国际组织、国际联盟等利益相关方共同参与全球人工智能规则制定;其次,通过规范国际标准,联动国际组织在国际标准方面的合作,寻求共识,推动形成“国际标准顶层设计引导,国际组织高频率协作,国际技术标准协同推进”的良好局面。
3.2.2 细化监管规范
建议积极加强各类标准规范,不断完善国际层面的监管法律法规,以其灵活性的特质对伦理、隐私等问题作出细致安排,推动人工智能发展规则落地,保障人权:其一,伦理方面。人工智能伦理治理的实施难点之一,就是构建可行的人工智能伦理监管准则,有效避免“人工智能伦理与可解释性要求撞车”的尴尬局面,发展易懂的可信人工智能[8],比如,2017年12月,电气与电子工程师协会(IEEE)发布《合伦理设计》报告,在五条伦理原则中,第四条即为透明性,指出透明性意味着可以发展人工智能系统如何、为何做出某个特定的决策。同时,IEEE强调透明性对不同的利益相关者有着不同的内涵,对于用户来说,透明性意味着它为用户提供某种简单的方式,用以理解人工智能系统正在做什么,以及为何这样做。其二,隐私方面。建议各国充分尊重和保护隐私权,考虑按照国际法准则制定监管法律法规,完善个人信息等方面的数据保护法规,充分考量侵犯女性以及儿童隐私权的救济[9]。
3.2.3 基于风险的监管规制体系
人工智能带给人类众多福祉的同时,也可能产生潜在风险。对人工智能进行有效的风险防控和法治化应对成为当务之急。第一,技术合规。技术完善是人工智能系统风险防控的基础和前提。人工智能系统的风险多半是因技术滞后等问题产生。因此,建议政府专业部门、业界人员等权威专家共同制定技术合规标准以适应技术创新发展,并且大力发展人工智能、区块链等新技术,与时俱进;第二,风险分级分类监管规制。风险无法完全根除,但可转而对其进行适度处理,采取风险分级分类监管方式,平衡创新发展与规制需要。比如,2021年4月21日欧盟发布了《人工智能法案》,这是世界范围内第一份综合性人工智能法案,为人工智能治理提供“硬法”支持。该法案采取风险分级方法,突出人工智能治理的道德优势,其中分为四类风险分级方法,分别是不可接受的风险、高风险、有限风险和最低风险,对以上不同风险级别的人工智能系统采取不同的限制措施。
在全球发展治理中,充分考虑各国人工智能监管的基础条件、相关政策的发展状况以及全球竞争情况等,努力识别监管机制的现存缺陷;通过倡导新型共识性合作、搭建算法治理平台和法律与技术的综合运用,逐步减轻各国监管负担,填补利益相关方的合作空白,真正建立全球化服务平台,扩散机制。具体而言:其一,推动国际社会在一些根本性原则和道德伦理要求上达成共识,努力创造一个具有共识性的治理决策机制[10];其二,算法、模型等解释方法的创新适用,有利于满足人工智能可解释性要求,因此,积极推动开展持续、明确的多边算法合作,确保人工智能技术的稳步创新[11];其三,技术控制是风险防范的基础和前提,法律控制又为技术发展提供法治保障,二者结合共同提升智能化、数字化的市场监管便利[12]。
坚持国际视野、全球思维和全球化道路,以问题为导向,秉持协同主义监管理念强化国际合作,呼吁世界各国搭建全球化服务平台,促进国际交流,广泛组织人工智能国际合作。鉴于单一化发展的局限与不足,通过借助国际合作的监管机制和平台,重塑人工智能国际合作的监管理念,形成一套与可解释性要求相适应的监管体系,突破监管困境。伴随大数据、云计算和区块链等新技术革命浪潮,各界有必要思考人工智能时代可解释性问题的可行性解决方案。人工智能行业的未来发展离不开多举措、多维度、长周期的跨越式国际合作监管。