文/刘艳红
(作者系中国政法大学刑事司法学院教授;摘自《法制与社会发展》2022年第1期)
2018年9月,美国国防高级研究计划局(DARPA)启动了被称为“加速第三波”的人工智能探索(Artificial Intelligence Exploration,AIE)项目,探索人工智能类人水平的交流和推理能力,以实现人工智能对新环境的自适应。自此之后,人工智能的可解释性成为人工智能领域的一个研究热点。2019年4月8日欧盟委员会发布的《人工智能道德准则》(Ethics Guidelines for Trustworthy AI,以下简称《准则》),和2021年1月6日欧洲议会和理事会制定的《关于人工智能的统一规则(人工智能法)并修正某些联合立法行为》,均从不同程度上对人工智能的可解释性进行了强调。鉴于人工智能的可解释性已经成为人工智能推广和应用以及解决其法律责任问题的前提条件,并成为人工智能研究领域的下一个前沿问题,本文即以人工智能的可解释性这一全新视角展开对人工智能法律责任问题的探讨。
为了避免遭受诸如“你们的哲学家没有付出哪怕最小的努力去理解非个体的存在和思想”的指责,人类必须主动放下身姿,关注人工智能的“存在与思想”,分析其行为是否具有可解释性。为了避免人工智能的行为充满不安全性与不确定性,人类必须主动思考,关注人工智能的可解释性与可诠释性,以合理实现对人工智能法律责任的制度安排。
当下学界在探讨人工智能的法律问题时,主要围绕人工智能的权利与义务这对范畴进行,也即讨论人工智能是否具有法律地位,能否成为权利的享有者和义务的承担者。但遗憾的是,这些学说均未有效回答人工智能为何有或者没有法律地位,为何以及如何承担法律责任,以至于学界围绕这两个问题一直争论不休,甚至导致人工智能法学研究呈现出“泡沫化”倾向。事实上,确立人工智能的法律地位是为了解决权利能力与义务承担问题,只要解决了权利与义务问题,也就解决了法律责任承担问题。“一般性法律与基本权利的交互性影响,系通过解释与实践调和的方式来平衡基本权利主体之间的利益,为基本权利的内在限制。”这意味着,在法哲学层面,权利理论的科学性指标有两个,一是可解释性,二是可实践性。只有具有可解释性的权利,才具有可实践性,可解释性是根本。行为只有具有可解释性,行为主体才能成为权利主体,才能承担法律责任,履行法律义务。因此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性展开,而不是纠缠于各种不同的主体论与责任理论。换言之,探讨人工智能的法律责任问题,应采用权利理论的视角和可解释性的标准,按此全新路径来推进对人工智能法律问题的探讨。
人工智能作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须解释其是如何行为的。如果人们愿意将人工智能理解为法律科技的核心技术,就意味着“对人工智能的理解是建立人工智能相关法律关系不可或缺的前提条件”。因此,只有人工智能的行为具有可解释性,人工智能才能与人类主体一样成为法律责任的承担主体,否则,不可解释的行为将会使人工智能成为炼金术或者魔幻,不可言说,不可理解,并最终导致法律责任无法得到精准确立与分配。
法律主体要对自己的行为承担责任,还意味着需要对人工智能的行为的可解释性予以法教义学的探讨,也即“以人类可理解的术语去解释或描述人类与人工智能之间的相互交流”。只有通过人工智能行为的可解释性,才能实现人工智能与人类的交互理解,进而将人工智能发展为可能的新型责任主体类型。
要解决人工智能的法律责任问题,就必须解决法律适用问题。按照卡尔·拉伦茨的观点,法律适用“是一种对向交流的过程”,因此,“必须考虑在可能适用的法条之下,由‘未加工的案件事实’形成作为陈述之终局的案件事实,同时也必须考虑在终局的案件事实之下,将应予适用的规范内容尽可能精确化”。对于人脸识别、医疗诊断、自动驾驶等领域的人工智能法律责任问题,仅通过结果难以导向对案件事实的全面而终局性的了解,必须经由对人工智能做出的识别、诊断、驾驶等行为的解释,了解行为过程的全貌,方能找到准确的适用规范,进而解决人工智能的法律责任问题。法学是探究法的客观意义的科学,无论是法教义学,还是法解释学,其内核都是要求对法律规范进行解释,解释者的目光在案件事实与法律规范之间往返逡巡,最终得出结论。法学的历史就是法解释的历史,自然法学派、概念法学派、自由法学派、利益法学派、社会法学派、历史法学派、分析法学派等各种学派之间的区别,无非是在解释理念与解释方法上的区别。探讨人工智能法律责任问题的前提在于,必须合理解决人工智能行为的可解释性,只有运用解释学的方法进行人工智能法律问题研究,才能使人工智能的行为所产生的事实具有法律上的意义。因为“规范对于行动具有重大意义”,人工智能的行为无论是适用现有法律规范,还是适用未来新制定的法律规范,我们都“必须用解释学或内在观点来理解它,尽管我们对于规范的规范性基础有着不同的意见,但使用能够为人类主体懂得的词语来理解和解释显得尤为必要”。只有对人工智能的行为进行解释并使其为人类所理解,才能准确适用法律规范,确立人工智能的法律主体地位及相应法律责任。基于法律解释思维,只有将人工智能的“识、判、动、作”亦即自主识别、自动判断、自主行动以及自主创作的过程予以清晰解释,才能证立或正当化某一结论。
法教义学的立场认为,“解决一个具体的法律问题,也就意味着将某一法律规范适用于具体的个案之中,但案件的解决必须建立在理由建构的基础之上”。这样的理由,对于人工智能而言,当然是指向AI是如何识别数据并进行判断进而作出某种决策的,这是决定人工智能能否对自己的行为承担法律责任的实质性理由。比如,在动态定价领域,人工智能可以适时根据消费者喜好、商品的市场价格、商品销量、购物车的停放数量、顾客评价等计算出理想的价格,实现全新的差异化定价。然而,如果因为定价前后不一而引发顾客对价格欺诈的投诉和索赔,那么,就必须解释清楚,在人工智能的定价决策过程中是否存在算法歧视。为了避免人工智能不被接受,通过解释,可以建构人工智能和人类之间的对话机制,从而使人工智能与人类之间具有更强的社会关联性以及社会可接受性。人工智能的行为只有具有可解释性,才能使人们对AI的认识达成共识。法律解释本身就是通过使用特定语言并遵守一定规则进行言说的方式,促进共识的达成,减少人们在人工智能是否具有法律主体资格以及如何承担法律责任问题上的分歧。
总之,在人工智能的法律责任问题上,如果人类能够理解人工智能的决策和行为,那么,对人工智能法律责任的制度安排与评判就会正当而合理。“这就意味着,对人工智能的理解是建立人工智能相关法律关系不可或缺的前提条件。”法律责任的承担意味着行为主体的行为能够被阐释和说明。
既然要讨论人工智能的法律责任,就必须讨论人工智能行为的可解释性。那么,人工智能的行为是否具有可解释性呢?如果说人的行为是意识的外在表现,那么人工智能的行为就是算法决策。人工智能具有可解释性,就是人工智能的行为亦即算法决策能够被解释,易言之,就是我们能够解释人工智能如何在大数据的基础上进行算法决策。
人工智能的行为应该具有可解释性。《欧盟通用数据保护条例》(General Data Protection Regulation)规定,使用者应具有“要求解释的权力”。2021年9月25日,我国国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》第12条规定,要在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性。易言之,人工智能应该具有可解释性。但随着AI的研究与应用不断取得突破性进展,“高性能的复杂算法、模型及系统却普遍缺乏决策逻辑的透明度和结果的可解释性,导致在涉及需要作出关键决策判断的国防、金融、医疗、法律、网安等领域中,或在要求决策合规的应用中,AI技术及系统难以大范围应用”。同时,对于人工智能在未来可能主导人类的生活,人类既期待,又恐慌,而恐慌的来源正在于,人工智能的行为似乎不具有可解释性,AI更类似于一个自循环的封闭系统,无法言说,且难以被理解。可解释性成为人工智能技术普及的重要因素,也成为决定人工智能在法律场景应用中是否应当承担法律责任的关键因素。
在当下,是否存在一个可解释的人工智能即XAI?从现有技术来看,人工智能的行为不具有可解释性。在人工智能领域,输入数据和输出答案之间存在着一个不可被观察的空间,这个空间通常被称为信息黑箱,正是它引发出了AI是否具有可解释性的问题。人工智能“黑箱问题的根源并非人工智能采用了人看不到的方式‘思考’,而是当前人工智能因采取了神经网络、深度学习等算法而导致数据极其复杂。当前,人工智能科学亦致力于提高数据的可解释度”。然而事实上,不仅仅是数据的复杂导致了人工智能的信息黑箱问题,人工智能本身的思考方式也确实无法被看到。因此,2020年2月19日,欧盟委员会发布《人工智能白皮书》,将提高人工智能的可解释性作为因应下一波数据浪潮的重要内容。尽管学习算法在自然和人类行为领域开辟了新天地,但它们仍被笼罩在神秘之中,“计算机‘吞入’数以万亿的字节,并神奇地产生新的观点,关于大数据的书籍甚至也避谈‘这个过程到底发生了什么’”。在AI领域,以深度学习为代表的人工智能技术虽然已取得了令人瞩目的成就,但如何在机器学习中实现可解释性的目标,亦即如何“确保可以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据”,仍是一个无法得到解决的难题。从当前的研究情况来看,AI领域的研究者已纷纷意识到人工智能的可解释性的重要性,并已展开了很多研究。比如,有研究提出了评价人工智能可解释性的若干标准,具体如算法结果具有合理性,算法可被改进,算法能提供学习的启迪,算法要符合法规要求等。然而,结果具有合理性以及算法可被改进等评价标准只是针对人工智能进行解释,而如何实现可解释性,才是真正的难点。为此,AI领域的研究者又在解释模型上进行探索。然而,无论科学家如何努力,人们都不得不接受一个并不乐观的现实,即可解释性研究还处于初级阶段,依然还有大量的科学问题尚待解决。“在解释模型为什么有效及如何运作方面,目前学界的研究还处于非常初级的阶段”,“对于可解释性的本质、研究手段,还未能形成统一认识,未能找到最佳方案”。并且,“不同学者解决问题的角度不同,对可解释性所赋予的含义不同,所提出的解释方法也各有侧重。迄今为止,学术界对模型可解释性仍缺乏统一的认识,可解释性研究的体系结构仍不明确”。毫无疑问,随着人工智能的发展,理解和解释深度神经网络的深度学习,是未来人工智能可解释性研究的重要目标。然而,由于人工智能深度学习和算法决策的不可预测性,以及机器自身无法进行言说,我们认为,未来对深度学习可解释性的研究仍会遭遇瓶颈。人类与机器建立“知其然”且“知其所以然”的人机互动的互信关系,恐难实现,人工智能具有可解释性,注定是人类不切实际的梦想。
关于人工智能法律责任的全部问题在于,人工智能应否成为法律系统中的法律责任人。人工智能的可解释性直接决定着人工智能的法律责任的有无,不具有可解释性的人工智能难以被问责,因此人工智能的法律责任论也应该被否定。
法律责任的本质是答责或者说应答,即“行为人需要对其试试的某些行为作出应答”,“负有责任与自我说明实践具有本质联系”,应答法律责任是责任主体的自由意志与决定论的体现。人具有自由意志,“意志自律是一切道德法则以及合乎这些法则的职责的独一无二的原则;与此相反,意愿的一切他律非但没有建立任何职责,反而与职责的原则,与意志的德性,正相反对”。这意味着,在实际生活中,人有不受外界约束的意志自由。康德指出,人不是根据规律来行动的,而是根据对规律的观念(Vorstellung) 来行动的,人是具有意志的理性生物。“在自然界中,每一物件都是按照规律起作用。唯独有理性的东西有能力按照对规律的观念,也就是按照原则而行动,或者说,具有意志。”“人身上具有一种独立于感性冲动的强迫而自行规定自己的能力。”黑格尔也指出:“自由的东西就是意志。意志而没有自由只是一句空话;同时,自由只有作为意志,作为主体,才是现实的。”这是自康德和黑格尔以来即已奠定的法律责任论的基石,即人类只对通过自由意志所选择的行为承担责任,或者说,人类只对自己所决断的行为承担责任。重要的是,对于自身的行为,人类是可以解释其原因的。因此,以自我决定为根据并可以对决定过程予以解释的自我答责,是法律归责的基本原理,“行为人违反‘自我决定’这个一般的实践原则而设定了任意、行为、结果的统一性时,行为人就应该自己对所发生的损害后果承担完全的刑事责任”。当然,这一点在被侵权人或者被害人的行为导致了结果的发生时除外。人工智能不具有自由意志,从设计到运行,从启动到结果,人工智能均处于人类指令的操控之下,而非作出自我决定。至于那些脱离人类操控的算法,其又因决策过程的不可解释性而无法实现对责任的承担。
总之,责任的本质是应答,而应答即行为人对自己行为的自我答责,它是以自由意志和自我决定为前提的,由于人工智能并不具有自我意志和自我决定,故其无法对自己的行为作出应答。人工智能只对人类输入的指令有算法反应,对于自己造成的侵权或损害的责任并无认识,更谈不上反应,其算法决策行为的不可解释性意味着其对于责任承担不可能有任何反应,这导致人工智能的法律责任基础是不存在的。
确立法律责任,既是为了惩处行为人的违法或犯罪行为,更是为了实现对违法或犯罪行为的预防。如果在法律责任领域一直存在着关于报应主义的惩罚和教育主义的预防之争,那么,在当下风险社会的现实中,预防主义无疑具有更重要的地位,预防已成为对行为人的行为施加法律责任的主要目的。不具有可解释性的人工智能无法实现法律责任的预防目的。人工智能的设计者也许能够说明设计原理和每个环节的细节,但没有人能够解释清楚,一旦进入算法决策过程,人工智能是根据什么来作出判断的。这导致人工智能的诸多错误一再发生,这意味着,不可解释的人工智能的算法决策错误是不可被预防的。如此一来,即便肯定人工智能具有法律责任,对于实现法律责任的预防目的,也是毫无助益的。
让人工智能承担法律责任并实现法律责任的预防目的,也许可以通过模型来实现。比如,“在刑事司法领域,人工智能有潜力更好地评估再次犯案的风险,并减少与犯罪和监禁有关的成本。但是,当使用刑事判决模型在法庭上预测再次犯罪的风险时,我们必须确保该模型以公平、诚实和非歧视的方式行事”。换言之,如何实现模型本身的公平公正,也是一个问题。模型也是通过科技研发的产品,其本身也需要得到解释,故将之应用于解释人工智能并评估其再次发生犯罪的可能性,很不现实。而且,就法律行为而言,所有侵权或违法犯罪行为的成立均需要由证据来证明,然而,“我们现在没有明显的证据理论来解释专家机器人产生的结果”,所有人工智能犯罪都是事后的结果,而不是能够通过证据来解释的结果,这使得对人工智能违法犯罪的认定极为困难。在人工智能的设计者、程序的编程者、机器人的操作者等当中,如果其中的任何人都能够代表机器人来解释人工智能的算法决策行为,那么恰恰说明,机器人缺乏专门的理由或证据来解释其决策、行为及结果,这给预防侵权或犯罪提出了难题。如果模型的作用有限,那么,为了更好地解释人工智能的行为并为预防违法犯罪提供良策,是否可以在未来充分发挥专家机器人的作用?有观点指出,“为了确保未来的专家机器人能够在发生诉讼时充分解释他们的行为,律师应该与机器人专家合作”。然而,关于专家机器人的期待更多的是一种美好的设想,人类专家可以很好地解释他们如何执行某些任务,但机器做不到,“如果一个机器人不能提供连贯的解释,它又怎么能发挥专家的作用呢”?
总之,如果人工智能的决策过程不能如同韦伯式的官僚决策那样得到理解,那么,现今广为传播的预防理论对人工智能来说就是无效的,因为无论是积极的预防理论,还是消极的预防理论,都要求责任主体的行为可以被解释。唯有如此,才能说明对责任主体适用法律规范是有意义的。“只有‘智能主体’的行动被视为‘违反规范’,才能通过对‘替代者’施以刑罚实现这一目的”,否则,人工智能是不能成为法律责任的适格主体的。
人工智能之所以会做出侵权或损害行为,并非人工智能的设计者通过规范其设计和部署过程就可以解决,因为在机器人接收所有数据之后,其内部的数据消化吸收与反馈过程会于数秒钟之内完成,其作出决策的过程并不完全可控,人类设计出的人工智能的行为并非完全按照人的意志去发展并可以得到解释。对于不可解释的人工智能,即便令其承担法律责任,在下一起事故中,同样的错误或者新型的错误仍然不可避免,因为算法是一个黑洞。此外,人工智能的可解释性还存在着一个话语转化的问题,即如何将人工智能数学表述式的可解释性话语转化为法学话语?“从法学角度看,这种对解释的要求不可或缺,人们用这种研究方法来探索能够使应用算法构成一种可担责行为的必要条件。然而,在转化时需要注意,对从大数据中获得的诊断进行解释与对基于法学知识说理的争议性结论进行解释有所不同。”而这个问题更具有超前性,它是在人工智能的可解释性问题得到解决之后,人工智能法学研究领域的下一个前沿问题。