司法决策的算法化趋向及其反思

2022-11-24 15:48帅奕男
关键词:裁量裁判法官

帅奕男

(中共中央党校(国家行政学院) 政治和法律教研部,北京 100091)

一、问题的提出

随着大数据与人工智能时代的到来,在越来越多的应用场景中开始将算法用于决策或辅助决策。算法本质上是解决问题的数学过程,介入社会科学领域之后,被广义地界定为一种特定的思维路径或方法。[1]算法代表着用系统的方法描述解决问题的策略机制,即能够对一定规范的输入,在有限时间内获得所要求的输出。而司法决策也构成一对输入/输出关系,即输入人的特定行为,输出是非的判断与裁决。这种技术性表征使得韦伯在一百年前便对司法有了“自动售货机”的设想。

事实上,自20世纪70年代开始,美国学者就在讨论建模法律研究和推理的可能性。布肯南(Bruce Buchanan)和海迪克(Thomas Headrick)在1970年发表的论文《关于人工智能和法律推理若干问题的考察》中,首次讨论了使用人工智能技术建立法律研究和推理模型的可能性,为人工智能在司法推理领域的研究和实践奠定了理论基础。[2]1981年,沃特曼和皮特森开发的法律判决辅助系统(LDS)被首次应用。而今,美国一半以上的州采用了罪犯矫正替代性分析管理系统(COMPAS)、公共安全评估(PSA)和服务级别目录修订版(LSI-R)三大风险评估软件,主要用于预测犯罪嫌疑人再犯风险,进而决定是否保释、假释等。[3]在我国,北京市高级人民法院的“睿法官”、上海法院的“刑事案件智能辅助办案系统”(简称“206系统”)等陆续上线运行,在司法裁判中承担证据审查、瑕疵提示、类案推送、文书辅助生成等任务。

人工智能在司法领域的实践应用,展现出算法决策在提升审判效率、优化司法资源方面的巨大潜力,以及推进司法判决的专业性和公正性方面的重要影响。然而,算法本身也存在着技术局限性,其深度应用于司法决策,可能带来论辩权利难以保障、裁判合理性难以解释、权利优先性难以回应等深层问题,对司法的公正性及权威性产生不利影响。鉴于此,本文在梳理人工智能时代司法决策发展趋向的基础上,反思司法决策算法化可能带来的正当性隐忧,立足技术赋权理念,提出司法决策算法化的应对之策。

二、司法决策的算法化趋向

自计算机得以普遍应用之后,国外学者就开始讨论机器是否可以具有法律思维、完成法律推理的问题。近年来,随着互联网、大数据、人工智能技术的融合发展,人工智能可以对海量的司法信息数据进行分析,进而构建证据模型、量刑模型,探索可解释的类案推送,为司法裁判提供全方位的智力支持。在这个过程中,智能系统为各类案件提供“定制化”的证据指引、类案推送及评估预测,使得裁判结果更加具有连续性、一致性和可预见性,呈现出建模化的算法决策趋向。

(一)证据审查程式化

在司法智能化背景下,证据指引以类型化的证据模型和结构化算法作为支撑,在减少司法任意性的同时呈现出证据审查的程式化趋势。一般来说,证据审查主要包括:(1)证据材料来源是否合法,是否依照法定程序收集;(2)证据材料同案件事实有无联系,特别是因果关系;(3)每一证据材料本身是否前后一致、合乎情理,证人与案件是否有利害关系,鉴定结论所依据的资料是否可靠,全部证据之间是否有内在联系、有无矛盾等。其中,只有证据材料的合法性被明确的证据规则所规范,至于个案中证据的真实性或关联性,证据链条是否完整、前后是否矛盾,特别是哪些证据应该被赋予什么“分量”或“说服力”或“证明力”,则是基于法官或陪审团的自由心证。[4]但这种情况在信息时代的司法裁判中发生了改变,依托强大的数据读取能力和分析能力,智能系统构建证据模型为案件审理提供清单式的证据指引及瑕疵提示,使法官在证据审查中受到针对性的指引和监督。

在司法智能化的科技创新中,证据标准指引的概念被提出,为要件证据及必要附属证据的判断提供了更为具体化和规范化的标准。证据标准指引是一种介于规则与原则之间的强制性标准,指的是根据具体案件证据结构特点及查证犯罪事实的繁简程度,对案件应当收集哪些证据的针对性要求。比如,在“206系统”中,根据证据收集的相对固定性和规律性,命案被分为四个类型:现场目击型、现场留痕型、认罪供述得到印证型、拒不认罪型。对于认罪供述得到印证型命案来说,其案件特点在于既无现场目击证人,也没有在现场发现重要留痕,犯罪嫌疑人到案后的供述与其他证据能够高度吻合,因此该类型案件的证据应当能够证明先供后证的相关事实,其证据标准指引主要包括犯罪嫌疑人供述、现场勘验检查笔录及照片、提取物品痕迹登记表等9项证据要点;但是对于现场目击型命案而言,案件事实有更多的直接证据支持,因而证据标准指引仅以现场目击证人证言、现场监控录像或被害人陈述等5项证据为要件证据。[5]128-129随着证据标准指引陆续被嵌入智能系统,法官对案件证据链的审查会越来越多地参考系统给出的清单式指引。在这个过程中,证据标准的类型化思维会进驻到证据准入的审查中,对于何种证据应当出现在案件中,是否满足证明案件事实的最低要求,法官将根据案件所属类型进行区分,而不再完全根据个案证据与个案事实进行判断。因此,随着更多的证据模型应用于司法裁判,证据审查会呈现出类型化的趋势。

(二)风险评估数据化

不同于根据法官专业性知识做出的定性判断,信息时代的司法风险评价更加依赖于数据基础上的定量分析。在刑事司法裁判中,再犯可能性和社会危害性是法官进行自由裁量的一个要素,基于算法的风险评估正在量刑判决中占据更高的权重。目前,美国各地的法院和社区矫正部门已经开始使用算法来确定被告的“风险”,范围从个人犯罪的可能性到被告出庭的可能性不等。皮尤公共安全绩效项目(Pew Charitable Trusts’ Public Safety Performance Project)显示,包括路易斯安那州、肯塔基州、夏威夷州和俄亥俄州在内的15个州,要求社区矫正部门采用数据化风险评估的方法开展工作;加利福尼亚州正在使用计算机化的个人评估来决定对假释犯的监管程度;2013年,西弗吉尼亚州开始要求所有重罪犯接受风险评估,法官会在判决前收到报告,并可以选择将分数纳入他们的判决。[6]我国司法部门也在通过大数据分析犯罪嫌疑人的社会危险性程度。“206系统”将影响犯罪嫌疑人、被告人社会危险性程度的因素细化为7个方面32项指标,采用深度学习方式构建社会危险性评估模型,由此提升了评估的全面性、科学性和准确性。[5]113这种量化方法能够在更大程度上降低法官的主观倾向性,排除政治等其他因素对司法裁判的干扰,在美国甚至“被认为是解决美国因两党纷争而陷入司法改革焦虑状态的潜在解决方案”。但相应地,这也会降低诉讼案件的个别化自由裁量,“卢米斯案”即是由法官部分地依据COMPAS风险评估工具进行量刑判决所引发的争议。(1)“卢米斯案”中,检察官向法院指出,COMPAS显示卢米斯“暴力风险高,再犯风险高,预审风险高”;法官告知卢米斯,“通过COMPAS评估,您被确定为对社区构成高风险的人”,并部分地依据这一评估,判处卢米斯六年有期徒刑和五年的延期监督。卢米斯认为,法院使用COMPAS评估进行判决,侵犯了其获得“个殊化判决”的权利和基于准确信息获得判决的权利。COMPAS是由Nortpointe公司开发设计的,该项目根据对犯罪者的访谈和来自司法部门的信息来评估再犯的风险,旨在帮助法官做出“更好”的或者至少是以数据为中心的司法决策。[7]从刑事领域风险评估的方式可以看出,在司法智能化的背景下,法官获取案件信息的方式将更加依赖于系统所给出的精简报告和“客观”数据,甚至通过数据分析获知诉讼参与人是否有良好的征信记录、是否有诉讼记录,以及其社会层级和社会地位等,并在此基础上“进一步地分析出各方当事人和解或撤诉的可能性,对争议标的的心理底线,上诉、申诉乃至上访的概率”[8]。而在数据化的风险评估进入审理裁判的过程中,司法决策的结果也将更加趋于数字意义上的标准化,算法的建议和监督成为控制司法自由裁量的一个新趋势。

(三)自由裁量标准化

司法所享有的自由裁量权是司法裁判权的一种表现方式,在不同语境下有着不同的含义,其可涉及司法的思维状态、对多种可行法律解决方案的选择、司法自由心证、终局裁量等多方面因素。[9]484-485但不管在何种语境中,其“自由”属性都使它存在着滥用的条件和倾向。为了监督和控制司法自由裁量权的行使,常常通过正当程序原则、正义原理、法的精神等理性要求抵御司法自由裁量的潜在威胁。在信息时代,对司法自由裁量的控制转向算法决策的监督和参考。在全流程要素抽取、全节点联动监督的前提下,资深法官的裁判经验、法律法规、司法文书中的原始数据等信息转化为预测模型,为法官最终的裁量结果提供参考。这一方面减少了裁判结果的偏差或失衡,另一方面使得司法自由裁量呈现出数字意义上的标准化趋向。

不同于以往自由裁量的控制中关于正当性目的、正当程序、正当性要素等宏观的理性考量要求,算法基于信息抽取和数据分析的个案裁量建议更为具体和可操作化。智能系统首先通过分析海量类型案卷进行信息抽取,归纳和提炼影响司法裁判的要素,之后进行科学化、体系化的数学建模,为法官提供针对特定案件的裁判参考。以“206系统”为例,其采用增强学习与迁移学习算法,以全国30万件盗窃罪案件为学习样本,从“法定刑、基准刑、宣告刑”三个维度对刑事文书进行数据标注,抽取犯罪行为、犯罪主观方面、犯罪人基本情况、罪前罪后表现等影响量刑结果的要素,同时结合法官的经验常识,输入影响案件量刑结果的通用和个案情节,构建智能量刑模型。[5]168在实践中,“206系统”可在案件信息读取的基础上对个案提供特定化的量刑参考。如果说思维理性的原则只能为司法自由裁量指明一个方向,那么智能化的裁量参考就为法官划定了一个相对确定的区域,在案件审理过程全部数据化监控的情况下,司法管理必然会对超出这个“区域”的裁判严格审查。比如,系统发现法官的判决结果与本院以及上级法院85%的类似情况下的判决是不一样的,就会自动提示,若法官坚持该判决,那么系统将自动把判决推送给庭长以供讨论。[10]可见,在司法智能化的背景下,司法裁量不仅受到法律法规、公平正义观念等传统因素的引导,而且在审理过程中会受到算法决策的影响。在“准判决书”与智能化预测结果的比对中,法官会更加容易地倾向于贴近系统的“标准答案”,特别是在偏离度预警的情况下,法官将及时调整司法决策中的“不当”观点,司法裁量的结果也将更加趋同。

三、司法决策算法化的法理反思

从证据审查、风险评估到裁量结果,信息时代的大数据与人工智能技术深度参与到司法裁判的决策过程中。这不同于以往的法院信息化建设,因为技术应用不再仅仅局限于“无纸化”的办公形式,而是通过嵌入证据校验、风险预警、量刑预测等功能模块,进而对司法裁判的结果产生重大影响。司法在与技术的结合中进一步提高了效能,表现为司法效率的提高和司法裁量的统一,但同时也呈现出很大的因由算法而来的局限性。

(一)代码规则难以保障论辩参与

智能化的证据审查依赖于证据标准和证据规则的代码表达,而计算机代码的自动化规制可能难以保障当事人的论辩参与。现代司法中,通过证据对案件事实的查明与认定,是先建立在对证据材料感性认识的基础之上,然后通过理性认识形成内心确信的一个心理过程。[9]422在智能辅助审判的情况下,证据审查的基础工作将会由智能系统承担,通过证据模型内嵌的证据标准指引、单一证据校验、关联证据之间的印证性分析、全案证据链审查等功能,证据认定将在智能系统对证据材料的即时性识别和判断中完成雏形。尽管这一过程减轻了法官对于证据认定和证据审查的工作量,但是由于受到系统给定结果的影响,政策制定者和法官逐渐依赖代码化的证据标准和证据规则来进行法条检索和分析比较,以便他们进行充分论证后直接得出更优决策。截至2019年6月底,“206系统”提供证据指引306 159次,提示证据瑕疵点7641次。在民事、行政领域司法审判中,证据规则指引也被陆续开发出来,并在读取案件事实的基础上进行证据合规性预判断。[5]238,242,243尽管目前人工智能还不能完全覆盖证据规则,部分需要人工复核(如手写体),但随着数据喂养的持续和机器学习能力的提升,智能证据校验将更加全面和精确,并在电子证据的审查中展现出突出的优势。系统会进行自动信息识别和要素整合,并基于案件要素库进行预判和思考,法官只需“对照检查”便可确定证据能否采信,或要求补正、予以排除。此时,当事人之间的对话关系,以及基于对话结构展开的论证活动都会受到削弱,进而影响当事人论辩权的实现。

(二)算法黑箱难以解释裁判合理性

司法决策算法化的另一个问题就是算法的隐蔽性和司法公开、透明性的冲突。算法运行本质是数据输入、输出的过程,但在输入输出之间存在无法解释的“黑洞”。一方面,不透明性源于统计模型或源代码的专有性特征,而这种特征受到商业秘密相关法律保护;另一方面,如果使用了机器学习和深度学习技术,则会面对更为棘手的“技术黑箱”问题。[11]自动化决策往往不是单一的某个算法可以完成的,多种算法的叠加及多个隐含层的存在加剧了算法的不可解释性风险。特别是基于神经深层网络的深度学习,在输入层与输出层之间存在着复杂的线性变换和大规模的神经元连接,很难准确解释其内部规则。[12]算法黑箱导致人工智能决策不可解释,而这显然与现代司法公开、透明的基本原则相悖,甚至使得相关判决陷入困境。前述“卢米斯案”中,卢米斯上诉的理由之一就是算法的保密特性。尽管卢米斯胜诉了,但是相关裁决也无法给人足够的说服力,因为“判决书中只讨论了被告是否可以质疑其犯罪记录和调查表答案的准确性(‘数据输入’),而没有关注他是否可以挑战关键的‘处理和计算’阶段”[11]。由于无法对决策过程做出充分而有效的解释,一旦通过算法进行最终决策,算法的不可解释性将会使基于这一技术的裁判结果难以得到民众充分的信赖、尊重和认同。

(三)群组正义难以回应权利优先性

在18世纪,现代精神从以神为中心的世界观走向以人为中心,“人是目的”成为现代社会的道德观,权利优先性成为法治的基本理念。智能系统在证据审查、类案推送、裁量监督等方面展示出强大的效率优越性,这代表的并不是以权利优先为核心的个人正义观,而是一种以效率为核心的群组正义观。“群组正义观”是建立在统计奇偶性(statistical parity)基础上的正义观。(2)辛西娅·德沃克(Cynthia Dwork)等人认为,统计奇偶性强调接受正负分类的人的人口统计学与总体人口统计学具有相同的特征,因此,统计均等性被认为等同于群体性的公平。[13]就司法算法决策而言,它不太考虑个案的差异性,寻求的是群组的同质化处理,比如证据审查的类型化处理、裁量结果的偏离度预警等。在法律大数据与人工智能技术的介入下,司法裁判的一致性和稳定性将会增强。这似乎实现了波斯纳的预想:“我期待着有一天,计算机可以从法官的意见和公开声明中建立法官档案,并随着法官发表更多意见而不断更新。这些档案将使律师和法官能够更准确地预测司法行为,并将有助于法官在他们希望的时候,与他们先前的决定保持一致。”[14]然而,这也可能导致与权利优先理念的冲突。当政策制定者和法官为了绩效正当性,选择“跟从”系统给出的“方案”时,个人权利就很容易被忽视了。群组正义观往往从后果主义出发,为了获得算法决策的便利,允许克减个人的一些权利。这无疑动摇了传统正义观中权利优先性这一核心理念。

四、司法决策算法化的应对思考

为了防范、化解可能存在的风险和挑战,以及顺应科技赋能司法的发展趋势,应当探索司法领域的算法正义,通过技术正当程序对司法算法决策进行过程规制,以促进决策过程、决策程序、决策结果的公开透明和可问责。

(一)算法正义:从“技术赋能”到“技术赋权”

面对互联网及人工智能技术所引起的生产革新与社会重组,世界范围内的司法部门都在寻求体制改革与正义实现之策。加拿大不列颠哥伦比亚省民事审裁处正在运用ODR程序为小额民事纠纷提供公共司法服务;美国一些州则开始使用“风险评估工具”(COMPAS)来预测犯罪嫌疑人的再犯可能性,进而参考评估结果确定刑期。[7]我国司法部门也在2015年提出了建设“智慧法院”的设想,并于2018年1月推出了“智慧法院导航系统”和“类案智能推送系统”,希望探索具有中国特色、适应时代要求的审判运行新模式。“技术赋能”成为人工智能时代司法改革的鲜明特征和目标要求。算法的合法性地位随着司法效率的提升、司法管理的加强以及司法服务的优化而得到巩固。效率与能力不仅成为检验真理的标准,也成了伦理、正义与审美的标准。然而,技术赋能并没有很好地处理人与机器的内在关系,导致司法算法决策并未实现与司法保障人权理念的有机统一。在具体应用实践中,当解决案多人少、提高效率成为司法人工智能追求的主要目标时,无论是法官的主体地位,还是当事人的权利保障,都将被遮蔽。

基于此,司法领域的算法正义应当以“保障人的权利”为依归,将人工智能业界推崇的以人为本、增进人类福祉与司法追求的保障人权有机融合,化约为“技术赋权”。[15]在技术赋权理念下,司法人工智能的研发、应用和评估应当以是否有助于保障、发展司法权利为判断基准,司法决策的算法化程度应当以是否有助于实现司法权利为价值原则。技术赋权理念可以为司法人工智能的研发、实施、评价提供“事前—事中—事后”的规制和指引。这既是对技术赋能被过度强调的纠偏,又是强化司法人工智能应用中权利保障的必然选择。因而,司法智能化背景下,应当立足于技术赋权理念,对司法人工智能进行合理规制。

(二)推进司法领域的算法公开透明

在传统司法理论中,司法公开主要指公开审判,包括立案公开、庭审公开、执行公开、听证公开、文书公开和审务公开。在司法智能化背景下,司法公开不仅包括程序公开,更涵盖司法数据的公开以及算法的开源。有学者认为,用于司法决策的算法高度复杂,对于非计算机行业的人而言,理解起来异常困难,即便公开也并无多大价值。然而,不透明的司法人工智能除了直接侵害当事人的知情权外,还会产生难以审核算法、无法评估算法准确性的问题,进而导致无法对司法人工智能的裁判结果有效行使抗辩权。当下,我国各地都在探索司法人工智能的应用,如北京市高级人民法院的“睿法官”、重庆法院的“金融案件智能专审平台”。如果不及时解决数据公开和算法黑箱问题,智能司法运行中的程序公开将面临严峻挑战。因而,传统司法理论中的司法公开需要增加新的维度,既需要通过完善司法大数据平台建设进一步推进司法数据的公开,更需要通过推动司法人工智能研发机构开源算法,促进算法的透明化。[15]随着研究的深入,在司法领域进行算法开源正在被越来越多的人认同,因为更大的透明度可以帮助外部研究人员分析其运作过程,以及需要权衡的各种因素。此外,在智能系统辅助的司法程序中,还应当充分尊重当事人事前的知情权和自主选择权,告知他们自动化决策工具的优势和潜在风险,以及以这种技术方式进行预测的局限,从而决定是否使用或退出自动化决策。

(三)加强智能辅助系统的可解释性

在依法治国和抢抓人工智能先发优势的背景之下,各地涌现出不同设计理念和应用功能的司法人工智能,其系统参数的任何细微变化都可能产生巨大的效应。人工智能设计具有意向性,当人类道德被“嵌入”产品时,系统就会通过技术设计影响人类行为。[16]司法人工智能不同于一般的智能化活动,它直接影响到被告人的实体性和程序性权利、义务和责任,其实际影响范围和影响程度也许会超出技术和司法人员的想象与控制范围。[7]为此,在以计算知识填补演绎逻辑的同时,还应在司法人工智能的研发设计中加强智能系统的论证性和可解释性,提高其可接受性,促进其在法律推理过程及程序方面的完善和扩展。法律语境下的论证活动既是一个知识更新的过程,也是一个开放的过程。诉讼各方参与刑事司法裁判过程,既能够监督裁判过程,也能够对最终的裁判结果发起救济。基于此,“在司法裁决中,凡涉及自主研制系统,都应提供一个有说服力的解释,并由一个有能力胜任的人员进行审计”这一原则已经为越来越多的人认可、接受。[15]59为了保证算法司法的合理运用,应当要求司法人工智能研发主体承担解释责任。这不仅有助于推动司法决策领域可解释权的建立,而且能够对司法人工智能的研发、应用主体加强约束,防范可能的设计或者应用缺陷,进而推动司法决策中算法正义的实现。

四、结 语

司法人工智能已经开始承担证据审查、风险评估、裁量参考等任务,辅助法官进行司法决策,科技赋能司法的趋势不可阻挡。但是应当看到,算法深度应用于司法决策,也可能带来论辩权利难以保障、裁判合理性难以解释、权利优先性难以回应等深层问题,引发数字司法的正当性质疑。为此,要在理念上探索司法领域的算法正义,以技术赋权理念推动司法权利保障;在程序上对司法算法决策进行过程规制,促进司法领域的算法公开透明;在技术上着力加强智能辅助系统的可解释性,助力智慧司法健康平稳运行。

猜你喜欢
裁量裁判法官
行政裁量自动化的风险规制
牙医跨界冬奥会裁判
人工智能情境下的行政裁量存在吗?
法官如此裁判
法官如此裁判
应如何确定行政处罚裁量基准
阅读理解两则
漫画