人工智能司法决策的合法性辨疑

2021-11-29 23:49孙庆春
关键词:司法权合法性法官

陈 锐,孙庆春

(重庆大学 法学院,重庆 400045)

人工智能技术的发展使一些原本被认为只能由人类才能完成的工作开始由人工物来补充或替代,这种情形不断地将人们对人工智能的认知向更加确信的方向推进。在司法领域亦是如此,人工智能技术方法的改进使得人们对司法人工智能有了更多的期待——使用人工智能进行司法决策。然而,人工智能参与司法决策不可避免地会面临这样一个问题,即其应否被允许?这关涉到司法人工智能与社会合法性(legitimacy)判断系统的兼容性问题,是人工智能参与司法决策首先需要解决的问题。对此,学界往往从道德主体性、权力合法性、司法错误归责以及程序正义等方面质疑其合法性,进而反对人工智能参与实质性的司法决策。那么,人工智能参与司法决策不具有合法性吗?本文旨在对这种论断进行反思,以澄清一些关于司法人工智能的认识误区,从而为司法人工智能参与司法决策扫清理论上的障碍。

一、人工智能司法决策的合法性质疑

从司法人工智能的简史来看,合法性追问几乎与人工智能的司法应用是同步的,并伴随着人工智能技术的发展而起伏。在法律专家系统阶段,虽有学者持续致力于司法人工智能的建模工作,但皆没有达到与其初衷相匹配的法律论证系统。在这样的技术水平上,人们普遍认为,司法人工智能是不可能的也是不被允许的。近年来,在大数据与机器学习技术的支持下,新一代的司法人工智能逐渐克服了规则推理与小数据时代案例推理的技术局限,通过将原有的司法经验应用于待决案件,使得“基于不完全、不确定或不一致的知识而进行的法律推理”变得可能与有效起来。在法律实践领域,法律人工智能系统的层出不穷便是一个证明。

然而,这并没有改变学界对人工智能司法决策合法性判断的结论。从现有文献来看,学者们对于人工智能参与司法决策仍表达了一种普遍的质疑与担忧,即人工智能不应被用于实质性的司法决策,即使其具备了相应的司法能力[1-3]。这种否定性观点无疑为司法人工智能的应用设置了一道“先验”屏障,使得人工智能参与司法决策无论如何都不被允许。考虑到司法人工智能合法性判断的两个特性:一是技术指向性,即合法性判断的对象是人工智能技术及其方法论,技术方法在一定程度上决定了合法性判断的结果;二是认识导向性,即不同的认识论前提会导致不同的合法性判断结果。本文认为,在新的技术时代条件下,这种论断不仅缺乏对司法人工智能技术方法的考察,而且存在一种错误的认识论指导。因此,无论是从致知还是从致用的角度看,都应认真对待。

在详细评判之前,有必要简单介绍支持该论断的理由及其理论假设。约略而言,这种论断主要包括以下四个方面的论证:(1)若准许人工智能进行司法决策,将引起人类法官的主体性危机。该论证假定了在司法决策的可能性与道德主体性之间存在可通约性,即认为若肯定人工智能可进行司法决策,则实质上等于肯定了人工智能的道德主体地位,那必然会引起法官的主体性危机。有学者甚至忧心忡忡地提醒人们:人工智能司法决策可能意味着机器的统治与人类文明的终结,其无异于“开门揖盗、引狼入室”[2]。(2)若准许人工智能进行司法决策,会产生权力的合法性危机。该类论证大多从“权力论”出发,质疑人工智能司法决策的权力渊源与权力运行的合法性。它认为,从权力的来源看,法官的司法权有明确的法律授权,而人工智能司法决策却没有法律上的根据,故其合法性高度成疑;就权力的运行而言,若由人工智能取代法官进行司法决策,可能会偏离司法的公共属性,并影响司法权的独立运行[4]。(3)若准许人工智能进行司法决策,在出现司法错误时,会带来归责难的问题,甚至会引起明显的责任真空。由于人工智能进行司法决策,遵循的是一种相关性与概率论的逻辑,因此,它不仅无法确保个案裁判的“稳当熨帖”,而且会产生概率性错误[5-6],此时就会面临司法错误无法归责的窘境[7]。(4)若准许人工智能司法决策,会危及程序正义的实现。持这种观点的学者倾向于将司法人工智能的算法解释为“黑箱”,认为其因缺乏透明性而极易产生“先天”或“人为”的偏见[8-9],或因形式上的不透明而减损了必要的司法程序[6],进而损害程序正义。

上述论证显然延续了人文主义看待技术哲学问题的一贯路径,带有浓厚的伦理论色彩。不可否认,在这种人文或伦理的批判中包含有真理的成分,它极大地深化了人们对科学技术意义的思考。但人工智能司法决策并不是一个纯理论的思辨性问题,它更多的是一个工程实现的问题,单纯的伦理批判并不会产生有效的建议。基于此,本文将重点对上述四个论证进行逐条辨疑,并探讨一种有关人工智能司法决策的可能路径,以破除上述否定性观点为人工智能司法决策设置的“先验屏障”。

二、人工智能司法决策会引起人类法官的主体性危机吗?

反对或批判人工智能司法决策的大多数论证首先是从伦理的层面展开的,它们主张,若准许由人工智能进行司法决策,实质上等于肯定了人工智能的道德主体地位,进而会危及人类法官的主体性地位。

持上述反对意见者大多倾向于将人工智能视为一种威胁人类主体性的“类人”的存在。这一理解显然受到了心灵哲学(例如Searle的“中文屋论证”)对人工智能批判的影响,以及早期人工智能学家对人工智能模糊定义的影响。Turing在著名的“图灵测试”中,将一个系统具有智能性的标准定义为:如果该系统的回答和反应与人类的无法区别,那么,该系统便是智能的。客观地说,该定义不仅无法反映人工智能的真正本质,而且因其模糊性而制造了一个理解的误区,即人工智能是对人类智能的模仿或复制。根据这一理解,人工智能就是一种人类模仿计划,以期在机器上再现人类的自然能力,其结果就是:人们必然会追溯到心灵、意识与主观性来认识与评价人工智能。

但实际上,作为工程科学的分支,人工智能的研究很少与人类思维的运作有关,它“与生物有机体的关系主要是隐喻性或启发性的”[10]16,因此,理应更多地从工程技术哲学的角度对其进行认识与评价。工程技术哲学主张从工程学的角度认识技术,从抽象的理论知识回归到具体的技术实践。工程技术哲学认为,技术本质上是一套改造自然世界以满足人类需要的方法或产物。根据这种解释,人工智能只不过是一个通过工程技术有效而自动地解决问题的方法或系统。作为人类制造活动的产物,人工智能系统并未超出人工物的范畴,它的存在完全是心智依赖性的,它是什么或即将成为什么完全取决于人类[11]225。这决定了人工智能对人类的依附关系,也决定了司法人工智能不可能成为一种“类人”的存在。

一些学者可能会以“人工智能的自主性日益加强”为据而反对上述观点。由于人工智能的自主性日益增强,使得人工智能的行动范围会超出人类意向的范围,因此存在摆脱对人的依附、进而成长为独立道德主体的可能性。但这一观点明显建立在对“自主性”的多义解释或隐喻性修辞之上。当我们使用“自主性”一词时,通常意味一种完全的自由、独立或主导,其不仅体现在计划的执行方面,更体现在计划的制定与目的的自我确立方面。尽管人工智能已超越那种对具体行动进行直接编程的技术阶段,但所谓的人工智能“自主性”仍只是在计划执行的意义上而言的,与目的生成、行动规划无涉。也就是说,人工智能只能在人类预先设定的程序或算法规则内运行,就像僵住症患者需要借助别人的意识来行动一样,对于这种意义上的“自主性”,更合适的表述或许是“自动性”。即使人工智能借助所谓的自主学习获得了一定的环境自适应性——根据不同的经验数据生成不同的规则前提,但它不会产生超出经验数据范围之外的规则,更不会改变“加工数据”的目的本身。这种意义上的“自主性”并不构成对人工智能工具本质的真正挑战,更不会派生出所谓的“主体性”担忧。

仍有学者会质疑为什么作为工具的人工智能可以进行司法决策?尤其是在这些司法决策关涉人类主体该如何行动之类的问题时,这一质疑就变得特别严肃起来。正如本文论证的,人类与司法人工智能的关系只是一种使用与被使用关系,人们之所以设计出司法人工智能,有着明确的目的,那就是服务于人类的司法需要。在上述关系中,人工智能只是在司法事务上分担了法官的负担,是对法官的一种功能强化,就像工业机器人分担工人的劳动一样,我们并不会由于工业机器人逐渐分担了人的劳动,将人从繁重的劳动中解放出来,而担忧人的主体性会丧失。尽管司法人工智能从事的是脑力劳动,其本质及其与人类的关系并未从根本上改变,其存在的意义在于扩展人类的能力。因此,人工智能只是强化了人类的主体性,而非削弱更非危及其主体性。

三、人工智能司法决策存在权力合法性危机吗?

质疑人工智能司法决策合法性的第二类论证意在表明人工智能不具备权力上的合法性。这一合法性质疑主要包括两方面内容:其一,在权力的渊源方面,人工智能司法决策未获得公共授权,若准许人工智能司法决策,将会与人民主权原则相抵触;其二,在权力运行方面,若准许人工智能进行司法决策,由人工智能所代表的技术权力将侵蚀或重构司法权力,并因而可能会从根本上消解司法的独立运行。下文将对上述两方面内容进行剖析。

(一)权力渊源的合法性问题

现代法治国家是以人民主权为基础的,人民授权是一切权力的根据,同时也是司法权的合法性源泉。在对人工智能司法决策表示质疑的人看来,若准许人工智能进行司法决策,就存在权力渊源的合法性问题,因为人工智能未能获得人民的公共授权。而且,若由人工智能取代法官进行司法决策,无异于变相地为公民强加了“服从于人工智能的法律义务”,继而会偏离司法的公共属性[4]。

这一质疑明显混淆了“作为国家职能的司法权”与“法官的司法职权”。虽然二者在权力渊源上都可追溯到人民主权,但法官的司法职权与作为国家职能的司法权存在本质区别:与立法权、行政权相对的司法权是国家职能划分的结果,具有明显的外部性;而法官行使的司法职权更多的是法院内部分工的结果,具有明显的内部性。作为国家职能之司法权通常由法院来行使,其直接渊源为宪法或组织法;而作为法官之司法职权则通常由法官个体来行使,其直接渊源为法官法。若从公共授权的角度看,审判权应属于国家审判机关——法院,而非法官个人,法官只是具体行使而已。例如,我国宪法与法院组织法均明确规定,人民法院依照法律规定独立行使审判权。这种权力隶属关系也表现在司法责任的分配方面,即司法错误的责任主体主要是法院(或国家)。由此可见,司法权的直接主体是法院,法官的职权及其合法性均源于法院的内部分工,司法人工智能并不会改变这种权力隶属关系。在这个意义上讲,即使由人工智能替代法官进行司法决策,也不会破坏司法权的公共属性,更不会引起司法权的合法性危机。

显然,在这种权力结构与隶属关系中,人工智能司法决策并不会将“服从人工智能的法律义务”强加给公民。司法裁判的权力属于法院,其直接表现就是:裁判文书只能以法院的名义进行制作、发布,且因此具有法律效力。因此,在司法裁判中,是拥有司法权的法院而非法官个体赋予司法裁判以权威性的,在某种意义上讲,公民服从的是法院的权威、法律的权威,而非法官个人的权威,因此,所谓的“服从人工智能的法律义务”只不过是危言耸听罢了。

(二)权力运行的合法性问题

运用人工智能进行司法决策会威胁司法权的独立运行吗?一些学者质疑人工智能司法决策会威胁司法权的独立运行:一方面是私权力(技术平台)对司法独立的影响;另一方面是一般国家权力对司法权的控制或消解[12]。但本文认为,在合理的规制框架下,运用人工智能进行司法决策不是威胁而是保证了司法权的独立运行。

从一般意义上而言,人工智能技术本身不会影响司法独立。众所周知,独立性是保障司法公正的必要条件,这为各司法文明所普遍认可。但司法独立不是绝对的,而是需要进行必要的规制。在人工智能进行司法决策时,算法恰恰起到了必要规制的作用,它不仅规范着人工智能的运行,而且规范着司法决策的过程,既可以摒除法官基于偏私的主观判断而滥权,又可以极大地屏蔽其他权力对司法权的外部干预。因此,司法人工智能在排除外部干扰与规制司法权力的内部运行两个方面都具有明显优势。就此而论,关于人工智能会消解司法独立性的论断显然难以成立。

但是,一些学者从“技术即权力”的假设出发对此进行质疑,认为人工智能代表的技术权力本身对法律的权力构成了挑战。本文认为,尽管这种泛化的权力论在一定程度上揭示了权力演化的本质,但其并不适于解释制度性权力。以司法权为例,其首要特征在于制度性,即在特定的司法制度框架下产生与运行。泛化的权力则不然,其不具有制度性与规范性,仅仅是一种泛指的可能性。“技术即权力”并没有比“粮食即权力、石油即权力、金钱即权力”表达更多的内容。人们如此谈论的权力,并不包含司法权所具有的那种制度性意义。在“技术即权力”这一命题之下,人工智能技术代表了一种权力,也可以说电力技术代表了一种权力,二者没有本质区别。司法的技术史表明,每一次技术变革都是对司法权运行基础的更迭,是对司法独立的保障而非破坏。如果没有理由指责历次的技术革新破坏了司法权的独立运行,也就没有理由指责人工智能。

当然,这种质疑可能从另一角度提出,如“代码即法律”[13]6。在人工智能司法决策的情境下,它以“算法即法律”的形式呈现出来。根据其解释,代码或算法作为一种必然的、根本的规制对网络空间或人工智能情境的参与者施加规则,而代码或算法的设计者或控制者(科技平台)则获得了施加规制的权力。有代码或算法的地方,必然有施加这种权力的科技平台,它们以制定“法律”的方式从根本上影响着司法权的独立运行。但是,本文认为,这种解释基于一种错误的认识过分夸大了科技平台对司法独立的影响。或许这一理论准确地捕捉到了代码或算法在规制参与者行为方面的实际效用,无论是对网络空间还是对人工智能来说都极具洞察力,然而它仅仅是一种社会学意义上的观察,没有超越这一层面的效力。就像语言之于语言学一样,其语义与语法形成了社会生活深层的结构限制,超越这个层面便不再具有这种规制力。因此,不能因为这种社会学观察就将科技平台排除在司法人工智能的建设之外。这一方面是因为法院受自身技术能力的限制不可能独立建设司法人工智能,另一方面则是这种绝对的独立可能会导致司法滥权。更重要的是,法律可以为司法人工智能的运行构筑必要的制度基础,以规制代码或算法,继而规制其背后的权力。这恰恰体现了法律超越代码或算法的一面,也破除了“代码即法律”这种社会学观察所引起的规范混淆。

此外,一些论者持“技术权力将消解司法权”的消解论,即司法人工智能所依赖之算法不过是一种控制司法权的工具,它会为一般国家权力干预司法提供端口。这一论调显然建立在算法“黑箱论”基础之上,即只有当公众处于对算法的“无知”状态时,这种“邪恶”才是可能的。正如Susskind所说,“哪里有不透明和神秘化,哪里就有不信任和缺乏责任感”[14]37。但是,只要通过算法透明原则来确保算法的公开、可解释与可责性,就可以解决上述问题,就像可以通过制定一些程序性规则以确保人类法官在决策中保持透明一样,同样可以制定规则保障人工智能司法在阳光下运行。

四、人工智能的司法错误会导致责任真空吗?

质疑人工智能司法决策合法性的第三类论证主要集中在司法错误及其责任的分配方面。一些论者认为,人工智能不仅无法在个案裁判中实现“公正合理、稳当熨帖、让人心悦诚服”[7],而且,其存在统计学意义上的概率性错误,这本身让人难以接受,即使其能保持99%的正确性,亦是如此[3]。一些论者担忧,若准许人工智能参与或主导司法决策,将导致司法错误难以归责,甚至产生责任真空。以下对此进行具体分析。

(一)司法错误是不可接受的吗?

那些质疑人工智能司法决策合法性的人们对人工智能可能做出错误的判决持零容忍的态度,这种要求人工智能司法决策丝毫不能出现偏差的做法显然过于严苛。就个案例裁判而言,司法决策并不追求“真理符合论”意义上的绝对正确,而只寻求一种可接受的结果。这是因为法律本身是有价值负荷的,任何一条法律规则的产生、存在与适用都是价值权衡的结果。在这种意义上,法律是与价值有关的规范,司法是处理与价值有关的活动。但由于价值往往潜在于规范背后,因此,很难说清楚价值到底是什么。价值的这种不可或缺且又难以捉摸的特性使得法律适用过程不可能是简单的逻辑推理过程,法官通常需要诉诸“价值权衡”这一权宜方法来追求司法裁判的可接受性。通常,学者们倾向于将法律适用过程理解为完全主观的过程,如德沃金认为法律推理是一项建构性的解释活动。但其实,法律适用过程是一个将价值与事实相结合的过程,是一个主观见之于客观的活动。这与人工智能通过处理经验数据、解决价值问题的方式并无本质区别。如果以此来指责人工智能,在人类法官同样无法保证司法决策百分百正确的情况下,为何不以同样的标准苛责人类法官呢?

而且,从法律适用的结果看,无论是人类法官,还是人工智能,都不可能使所有的司法决策都正确。因为它(他)们总是在真实的环境中行动,而不是在理想环境或实验环境下发挥作用,这意味着,司法裁判的正确性不仅会受到理性水平的限制,而且也会受到法律规范是否明晰、案件事实是否清楚等因素的影响。那些追求裁判结果绝对正确的人无疑将法官想象为一个全知全能的人,他们能了解一切、掌控一切,因此能做出完美的裁决。但实际上,法官只能通过有限理性,在有限的时间、有限的空间以及有限的价值之内做出相对正确的判决。而且事实表明,即使这种有限的理性也会因诸多现实因素的影响而无法充分实现。因此,从实践理性的角度看,司法决策不过是在多个备选方案中选择较优的方案而已。如果我们研究司法人工智能的目的是为司法实践服务,而不是追求纯粹的理论思辨,那么我们就没有理由要求司法人工智能具备完全的理性,更不应苛求其决策百分百正确。

因此,对待人工智能司法决策可能产生错误的问题,应持一种现实的态度,既不能敷衍塞责,又不能苛求。如果人工智能法官能在正确率方面不低于人类法官,并在经济、效率、质量与可预测性等方面达到比较理想的状态,那么我们就没有理由对其提出过高的要求。正如杰西·休斯所说的,“如果它(工程)作为实践推理的方法是成功的,那么它就是成功的”[11]375。诚然,“人类法官同样不完美”并不能构成一个支持人工智能进行司法决策的充分理由,但也不能因噎废食,不能因为人工智能法官不完美就否定其作用。

(二)人工智能决策会产生责任真空吗?

除情感因素外,很多人对人工智能法官可能会引起司法错误表示担忧的重要原因与归责困难有关,即当人工智能司法决策出现错误时,该由谁来承担责任?以及该如何划分责任?由于会产生归责难的问题,以致一些学者对人工智能司法决策的合法性产生了怀疑。针对这一质疑需要区分以下几个层次的问题。

第一,人工智能司法决策如果出现了错误,是否难以划分责任?其实,若是人工智能法官出现了司法错误,反而比人类法官出现错误更容易被发现,因为人工智能不像人类法官那样,善于掩饰错误,其会错得明明白白,技术人员只要对人工智能的推理过程进行检视,就能发现这些错误到底是由软件的程序问题造成的,还是因法律存在模糊、含糊等原因造成的,以及因事实认识存在错误造成的,因此,责任划分上不存在困难。所谓的“算法黑箱”只是针对外行而言的,且有过分夸大之嫌。正如监视飞机飞行状态的“黑匣子”,对于外行来说可能很神秘、不透明,但在技术人员面前,它却是透明的,可以通过一定的技术手段进行解读,并以之作为解决飞行事故的客观依据。

第二,若人工智能法官做出了错误的判决,该由谁承担责任?毫无疑问,该由人类自己承担责任。因为人工智能是人类有目的活动的产物,它并没有超出人工物的范畴,故人类该为人工智能的设计、生产与使用负责。无论人工智能具有多么强大的功能,它总是人类有意向活动的结果,在出现司法决策错误时,明显应由人类而不是人工智能来承担责任。就这一点而言,人工智能在责任问题上“并不像许多人所说的那样具有革命性”[15]。在廓清这一点之后,散布于眼前的伦理迷雾便去了一半。但在澄清人类的责任主体地位后,并没有完全解决“由谁来承担具体责任”这一问题,因此,我们需要回答第三个层次的问题。

第三,对于由人工智能引起的司法错误,具体承担责任的应是“谁”?对于这个问题,本文的基本观点是:只要满足归责条件,法官个体、法院与国家都可能成为人工智能司法错误的责任主体。自亚里士多德以来,责任理论就突出强调了责任两个方面的条件:“控制”条件和“认知”条件。“控制”条件是指行动者对由其所引起的行动具有足够程度的控制;“认知”条件是指行动者知道自己在做什么[16]12-14。如果同时满足这两个条件,那么该行动者就负有责任。虽然这种责任理论是针对理性行为人提出的,但作为理性行为人集合的法院与国家同样获得了这种资格。在设计、部署与使用司法人工智能的过程中,法官、法院与国家都可能在某种情形下对其进行某种程度的“控制”,这实质上构成了人工智能错误行动的原因;而且在履行各自的角色职能时,三者都具有相对独立且充分的“意志”自由。因此,从“引起司法错误这一后果”的“原因”来看,三者都满足司法错误归责的条件要求。当然,考虑到可归责性(作为责任来源或原因的能力)与可惩罚性(实际承担不利后果的能力)的分离,三者在具体的责任分配方面可能存在某种归责与实际承担的不一致。但总体来说,这并不影响归责的实施,若人工智能在司法决策时产生错误,法官个体、法院与国家都应该而且能够在各自的责任范围内承担某种性质的责任。

综上所述,在人工智能司法决策中,司法错误并非不可归责,其责任主体仍然是人类,或是法官个体,或是法院,或是国家。而且就避免司法错误而言,人工智能可能比人类法官做得更好。只要进行合理的案件分流与制度安排,我们完全可以找到一种有效的责任分配方案来化解所谓的“责任真空”这一阻碍。

五、人工智能司法决策会损害程序正义吗?

质疑人工智能司法决策合法性的第四类论证是从程序正义方面展开的。一方面,一些学者认为,人工智能算法的“黑箱”属性可能遮蔽程序的透明性;另一方面,一些学者担忧,人工智能决策的形式性可能会减损必要的司法程序(如法律论辩),进而损害程序正义。但本文认为,从总体上看,人工智能在司法中的运用有利于维护而非损害程序正义。

(一)透明的算法决策有利于实现程序正义

作为主导人工智能司法决策的技术规则,“算法”实质地影响着司法决策的过程与结果,因此,其重要性不言而喻。但算法的“不透明性”却引发了学者们对其可能损害程序正义的担忧[9]。显然,这类担忧将人工智能司法决策的争论焦点转移到了“算法透明”上来,而且在他们看来,保证和维护算法的透明似乎极其困难。从现有文献来看,常见理由有三:一是算法的技术专业性使普通公众往往难以有效认知,从而极大地影响了公众对人工智能算法的公平感知与信任;二是商业秘密原则为供应商拒绝公开算法提供了正当理由;三是既使公开算法,在算法设计、部署与使用过程中,工程师、供应商甚至是法院也难免有意或无意的植入价值偏见[17]。不可否认,这些问题是客观存在的,而且会给人工智能司法决策带来透明度障碍,但却不是不可解决的,完全可以通过必要的制度设计与调整来消除这些阻碍。

首先,对于算法决策缺乏公平感知的问题,可以通过设置必要的公开与解释责任来解决。司法实践史表明,公开通常是司法公平的必要前提,而解释(给出理由)则构成了裁判可接受性的理性基础。在人工智能司法中,算法公开与解释同样可消除社会公众对基于秘密规则决策的担忧。当前学界已经提出了一些解决方案,其中“运行透明方案”得到越来越多的认可,其基本原理是公开算法实际的运行规则。这使得算法决策的依据与理由得以公开,从而使算法运行及其结果更具可解释性。实际上,许多现有的治理框架正是基于这种思路展开的。虽然这些原则性规定尚需完善,但却恰当地指出了维护算法透明的正确方向,可以在相当大的程度上化解人们对人工智能算法决策的信任危机。

其次,对于因商业秘密而产生的算法公开豁免问题,也可因司法的公共属性而重新调整对私主体利益的保护边界而维护司法的公正性。研究者担忧商业秘密可能成为算法公开的阻碍,例如著名的“State v.Loomis上诉案”就涉及到该问题。该案判决书中,威斯康星州法院认为巡回法院使用未披露算法信息的COMPAS系统来评估Loomis再犯风险的做法,并不侵犯其正当程序权利。在一些学者看来,这显然赋予了科技公司拒绝披露算法相关信息的正当理由,从而使算法透明难以实现。但值得注意的是,该判决还有另外几项重要的决定或意见:一是Northpointe公司必须在公开文件中告知法院关于算法商业秘密的注意事项;二是在使用COMPAS时,必须阐明它在判刑时考虑的因素以及这些因素如何影响它所判处的刑罚;三是法院在使用COMPAS时应“阐明一个有意义的推理过程”,从而提供一个透明且可理解的解释。这些决定或意见表明,商业秘密作为豁免理由并不是绝对的,在涉及司法公正时可以被限制与调整,以平衡科技公司与社会公众之间的权力不对称。

最后,对于算法存在价值偏见的问题,则可以通过必要的程序设定进行发现、阻止与纠偏。算法系统的设计部署不可避免地嵌入某些伦理假设与价值植入,而偏见可能存在于设计者对伦理与价值的理解之中,正如伽达默尔所说的,偏见植根于我们对世界的理解之中。就此而论,人工智能算法决策固有的偏见确实难以消除。但人类的伦理实践表明,价值偏见可以被有效抑制,方法就是通过伦理对话努力促成公共理性。这种方法也可以移植到算法偏见的治理中来,即在算法的设计阶段吸纳更多的公众参与与对话。这有利于在算法中植入更广泛的、更多元的价值考量,从而平衡不同群体的道德直觉与道德情感,以抑制价值偏差与失衡。作为司法领域应用的公共算法系统,司法人工智能也应如此。虽然这种方法可能无法实现一些学者隐晦表达的那种“完全无偏见”的理想追求,但伦理实践表明,这是抑制偏见的有效方法。

总而言之,尽管司法人工智能的算法决策可能存在不透明的问题,但人们已找到了解决问题的正确方向并正在接近或完善解决问题的方法,这意味着满意的算法透明是可能的,基于这种透明算法的人工智能决策将为实现司法的程序正义提供重大保障。

(二)人工智能决策不必然减损司法程序

该类反对意见的第二个方面是:人工智能的形式化特性可能会减损必要的司法程序,从而损害程序正义,这尤其体现在法庭辩论上。人们担忧当事人法庭辩论中言说的权利可能无法完整地嵌入人工智能决策中,从而影响司法的程序正义。

司法人工智能会取消当事人言说的机会与权利吗?依正当程序提出并论证自己的诉求与主张是当事人重要的程序性权利,也是法庭辩论的核心内容。正如哈贝马斯所说的,司法裁判不是一种法官独白式的活动,而是一种通过反思性的交互机制合理地推动同意的过程,因为法律帝国不只有法官,还有共同体成员。因此,充分的法庭辩论往往是程序正义的构成性条件。基于此,一些学者担忧人工智能的结果导向式决策可能无法充分地捕捉到法庭辩论的实践性,进而影响甚至剥夺当事人言说的机会与权利[6]。但是,人工智能司法决策并不意味着取消或减损必要的司法程序,也没有任何证据表明,司法人工智能的效用是建立在对司法程序的不当简化与对当事人权利的剥夺基础之上。更重要的是,在法律辩论中,司法人工智能并不排斥当事人的诉求表达与对话,恰恰相反,人工智能需要通过法庭辩论来确保其决策前提的“正确性”。一方面,法庭辩论要想达到说服的效果,论辩者需要充分地展开其理由;另一方面,法庭辩论有利于言明司法案件的内在逻辑,从而满足司法人工智能对事实的“可表达性”需求。可以说,人工智能司法决策的形式性是建立在法庭辩论的实践性基础之上的,法庭辩论越充分越有利于司法人工智能发挥作用。因此,人工智能不会剥夺当事人言说的程序性权利。

此外,还有学者担忧法庭辩论的形式替代可能会折损法官亲历性的程序性价值,从而影响人工智能决策的合法性。但是,在人工智能司法决策中,以亲历性来衡量程序正义可能并不适宜,因为司法人工智能存在的意义就在于部分或全部地分担或替代法官的工作,以缓解司法压力。从亲历性的含义看,其本质要求是进行决策的法官应该亲历决策前程序。显然,这种程序性要求是建立在人类法官司法决策的情形之上的,但在人工智能司法决策中,这种衡量程序正义的标准将因技术革新而失去了存在的意义。就此而论,人工智能将重塑司法的面貌,或许我们应该对这类反思本身进行反思。诚如反对观点所表明的,人工智能技术介入司法实践必然会引发一系列伦理思考,但更全面的伦理反思理应包括人工智能技术对司法伦理的重塑。

六、结语

技术本质上是人类解决自身问题并实现理想生活方式的活动,其不断革新的原动力正在于人们对美好生活的追求,这展现在人之为人的基本特征之中。通过赋予人类以满足自身需求的工具、方法与能力,技术的价值才得以实现。司法人工智能最鲜明地体现了这一点。在人工智能技术日益成熟的今天,将其运用于司法实践的原动力最直接地体现在司法系统所面临的“案多人少”的压力方面。因此,司法人工智能并非单纯的智力游戏,而是有其深刻的现实必要性。随着技术的不断革新,这种现实必要性逐渐转化为司法人工智能实现的可能性。大数据与机器学习为司法人工智能开辟了新的道路——有限理性的经验进路。在这种进路中,人工智能摆脱了理论进路的局限与机械主义的指责,以自下而上的方式实现了人类司法经验的未来面向,并且在有限理性的框架下化解了浪漫主义的主观性问题。尽管这种进路面临着经验主义承受的传统指责,即经验的可靠性问题(过去对未来是否具有必然的指导意义),但是在实践理性中不必追求这种必然性与绝对性,而只需满足必要的相关性与有限的可接受性即可,其余的则交由例外原则来处理。

也许有人认为人类可能就此失去在司法领域的独特性与控制力,但事实并非如此。尽管人工智能可以把人类从占大多数的简单案件中解放出来,但那些疑难案件的有效解决可能仍无法完全脱离人类智慧。更重要的是,人类将集中关注那些更具创造性的工作以确保人工智能决策的前提,包括技术规则的制定、案件的合理分流、数据可靠性与信息环境的保障、错误纠偏以及责任承担。相对于司法决策的具体运行,这些工作才具有根本的重要性与决定性。总而言之,在司法实践领域为人工智能设置“先验屏障”既无必要也不应该,虽然司法人工智能是有限度的,但这个限度不应限定在司法辅助性工作。

猜你喜欢
司法权合法性法官
Westward Movement
法官如此裁判
法官如此裁判
猴子当法官
合法性危机:百年新诗的挑战与应战
论刑事自由裁量权的准确公正行使
“斩断”行政干预司法的“黑手”
关于政治合法性研究的文献综述
美国司法干预大学自治的角色转型
简析孟德斯鸠的三权分立与权力制衡