摘 要:是否有助于实现裁量正义关系到司法算法系统的应用上限和最终走向。形式正义和实质正义共同构成了裁量正义。司法算法决策通过提升裁量的一致性、中立性、客观性和高效性水平助力形式正义的实现,通过提升裁量的理性化水平助力实质正义的实现。但受科技应用自反性影响,司法算法决策会引发有违裁量正义要求的新风险:其一,和司法裁量权专属性相冲突;其二,引发正当程序制度被虚置;其三,无法合理开展价值判断;其四,司法责任难以适当分配。为此,需要遵循技术改进、实现人类法官和司法人工智能系统有机融合的进路,以提升司法算法裁量的优质性和可信性。具体而言,应将“明确适用司法算法决策的裁量模块,提升民众和法官对司法算法系统建构的实质参与性,建立完善的监督制度,充分保障当事人的诉讼权利以及建立合理的责任分配制度”作为应对司法算法决策背离裁量正义目标风险的主要方案。
关键词:算法决策;人工智能;算法裁判;裁量正义;裁量权;权利保障
中图分类号:D926;TP18 文章标志码:A 文章编号:1006-6152(2024)06-0016-12
DOI:10.16388/j.cnki.cn42-1843/c.2024.06.002
近年来,随着大数据、深度学习、区块链、云计算等技术取得突破性发展,人工智能算法开始被应用到政府治理、商业竞争、治安维护、环境保护等诸多领域,并推动了这些领域的变革性发展。同样的,人工智能算法也被应用到司法领域,并被视为推动司法现代化、高效化、公正化改革的重要契机。我国政府和法院也积极拥抱此次人工智能应用潮流,出台了一系列政策文件以推动智慧法院、智慧司法转型目标的实现。如最高人民法院发布的《关于加快建设智慧法院的意见》《人民法院第五个五年改革纲要(2019—2023)》,国务院印发的《新一代人工智能发展规划》等文件都提出了要创新发展信息技术和智能系统,通过打造智慧平台、智慧法院应用体系等方式推动司法审判体系和审判能力现代化改革目标的实现。
当前,积极探索和应用人工智能算法的主要动因之一在于推动司法正义的实现[1],而裁量正义无疑是司法正义最重要的组成部分,能否有助于裁量正义的实现在一定程度上决定着司法人工智能系统的应用上限和最终走向。但通过对现有研究的分析和总结可以发现:一方面,当前关于司法人工智能的绝大多数研究都主要讨论人工智能算法在司法领域的应用限度[2]和可能前景[3]问题,而将和裁量相关的内容作为研究例证。这类宏观研究往往会因为忽视司法裁量的独有特质而造成应对司法算法和裁量正义相冲突困境的方案缺乏针对性和可行性。另一方面,还有少数学者的研究涉及人工智能算法在司法裁量领域内的一些具体应用,如价值判断[4]、推理辅助[5]等。这样的微观研究虽然关注到了司法裁量的某些具体特质,但裁量正义的实现是一个系统性工程,只关注其某一侧面可能会造成片面评价司法人工智能算法发展前景的问题。因此,本文将以司法算法决策和裁量正义之间的冲突与融合为主题,对司法人工智能在实现裁量正义上的相关优势、可能风险以及应对策略展开系统化和全面性的分析,从而希望能够弥补现有宏观和微观研究的不足,为我们更加客观、理性地对待司法人工智能算法的发展前景提供助益。
一、司法算法决策在实现裁量正义上的优势
对于裁量正义而言,主要包含形式正义和实质正义两个方面的内容。形式正义就是要求裁决者在最短的时间内,站在中立的立场以具有一致性的裁量标准得出裁量结论。其中裁量的高效性保障了正义的实现是及时的,裁量遵循一致性原则保障了裁量的平等性,裁决者立场的客观性保障了裁量是符合公正要求的。实质正义则要求裁量是基于理性而展开,进而才能保障裁量的结果是契合社会正义认知、能够得到社会公众认同和接受的[6]。当前,对于人工智能算法可以全面提升司法裁决的高效性,理论界和实务界已经基本达成共识,并展开了较为全面的探索和论述。而对于人工智能算法在提升司法裁量的一致性、中立性和理性化方面,相关研究则较为薄弱。因此,本部分将对人工智能算法相较于传统人类法官在这三个方面的裁量优势展开论述,以深化我们对人工智能算法在提升裁量正义方面的有益价值的认知。
其一,司法算法决策有助于实现裁量的一致性。同案同判原则通过法律统一适用的方式保障了司法裁判具有重复性、可预测性、权威性和平等性,能够向社会释放稳定的行为规则信号,实现社会运行在可预期维度上的有序化,因而被视作实现裁量正义的基本要求。但由于受地域、文化、习俗、经济水平、法官知识背景等差异的影响,不同法官在展开裁量时常会得出不同的裁量结论。因而,排除案外因素干扰,在“依法裁判”的维度上,法官不同裁量尺度的选择是造成同案不同判的内在原因。欧文·费斯就指出,即便面对相同或类似的案件,每个裁判者的裁量都会有所差异,他们能够轻易地,甚至是无意识地在发现法律规则原意的名义下,将自身的偏好施加于裁量结果之中[7]。
司法算法的应用便可以有效克服司法裁量同案不同判的顽疾。司法人工智能算法的基本运作原理是通过算法对海量裁判数据展开分析,发掘其中裁判要素之间的关系,并以此为基础得出有关纠纷的确切描述。随后,人工智能算法便能建立裁判模型,这一模型可以根据特定的描述得出与之相关的裁判结论。此外,当模型建构完成后,司法人工智能算法还会根据新的数据集不断自动调试、自主学习、自我迭代,从而持续提升决策模型的精准性、鲁棒性、科学性和可靠性[8]。由于拥有一致的要素抽取标准、统一的算法建模、流水化的操作程式,司法人工智能便可以凭借统一的裁量逻辑和标准,对相同或类似的裁量信息输入给出相同或类似的信息输出。这一决策逻辑可以有效避免因不同法官对法律规则和事实理解上的差异而引发裁量尺度不一致的风险,从而全面提升司法裁量的一致性,确保法律统一适用目标的实现[9]。此外,“人工智能算法的一个主要特征就是可以详尽地描述组成最终结论的每一个细小的决定所依照的具体规则”[10],对由于法律的概括性和事实的多样性而造成法官在涵摄过程中不可避免地引发同案不同判的难题而言,司法人工智能则可以通过充分发掘先例中裁量因子与裁量结论的相关组合,实现案件事实要素和法律规范之间的具体对应,以对法律规范和法律现象极致分解和细化的方式,消解对法律规范和案件事实之间的涵摄过程。法律涵摄过程的压缩意味着司法裁量的空间和方向都被先例进一步固化,有助于全面提升司法裁量结论的一致性、确定性和可预测性。实践中,贵州法院就通过对大数据的挖掘和分析,建立了以关键要素为基础的裁判标准数据库,并以此为基础对类案和关联案件展开预测,架构起了相应的裁判偏离预警机制。如若法官的裁判偏离预测结果达到一定程度,系统便会提醒法官或合议庭展开自查,院长、庭长等也可以对偏离度较高的案件展开审查,从而避免类案非类判现象的发生,充分保障了裁判尺度的统一性[11]。
其二,司法算法决策可以保障裁量的中立性和客观性。司法裁量担负着解释、补充、校正和发展法律,引领社会正义,回应不同时期社会诉求的能动功能。此时,裁决者立场的中立性就关系到裁量结论的公正性和可接受性。对此,达玛什卡指出,理想的裁决者应当处于白板状态,如果决策者对于当事人的法律辩论是一种保持开放状态的空白接收器,那么纠纷解决的程序就会更加纯粹,并且裁量也将在一个更高的水平上运转[12]。然而,传统法官在裁量时不但会受到个体认知、道德、直觉、偏见等主观因素影响,还会受到上级干涉、社会舆论、人情关系等案外因素影响而偏离客观、中立的立场。为此,我们设计了庭审公开制度、裁判文书公开制度、法官宣誓制度、司法责任制度、法官任职保障制度等,希望能够提升法官裁量的独立性和公正性。另一方面,由于裁量行为是在法律允许范围内展开的,这也会造成法官的偏见或偏私往往在合法外衣的掩护下而难以察觉。所以,希望通过精密的外在制度建构监督法官裁量立场的方法,因缺乏内在规制能力而陷入了困境。
司法人工智能则凭借自动化决策的优势,可以将外界干扰排除在司法裁量的循环过程之外,通过彻底改变裁量运转流程的方式,保障了相关裁量过程的中立性和客观性。自主学习、自动决策、全程留痕等特质都决定了司法人工智能在面对需要裁量的法律争议和事实争议时,会最大限度地以当前数据展现的、具有客观性的法律语境和事实语境为参照,自主选择出其中最具正当性和可靠性的裁量结论,有效排除了法官可能会因受案外因素影响而做出偏离中立立场的裁决的风险。对此,塔妮娅·索丁指出,法官会受到一系列主体因素,如进食时间和内容、是否疲劳、个体价值理念、对直觉的依赖程度、无意识的假定、个体情绪等的影响而做出不公正或武断的裁量,而AI法官的引入将使这些问题不复存在[13]。
其三,司法算法决策可以提升裁量的理性化水平。司法裁量整合和对接法律与事实的过程也是一个法律意涵、事实信息、正义维度、知识证立的选择过程,为了保障所得出的结论是契合社会正义期待的最优解,这就要求司法裁量是基于理性而展开的。然而,受制于个体阅历和精力的有限性、裁量的期限性、事实和法律的限定性以及认知的偏向性,法官的裁量往往是在特定时空内、特定信息获取水平下展开的具有节制性和片面性的决断。人工智能算法的使用则能够通过聚合与分析海量案件裁量过程和结果的数据信息的方式,弥补法官信息获取数量不足、数据分析能力不足、经验累积程度不足以及社会影响预见不足等问题,从而全面提升司法裁量的科学性、周全性和系统性。
首先,借助于数学模型和强大算力的支持,人工智能算法可以实现多维矩阵运算,高效、准确地处理海量数据,并对复杂和分散的数据进行结构性重组。这也就意味着它可以轻易学习和掌握蕴含于上亿份裁判文书中的司法经验和司法规律。并且,通过系统联动和互通,司法人工智能还可以学习和累积跨学科、跨地域、跨文化的裁量知识,能够有效弥补人类法官因知识获取和分析能力不足而产生的裁量视野受限的困境。
其次,司法人工智能可以通过最大限度拟合先例中蕴含的法官裁量规律和经验的方式,为案件提供基于法官群体理性和共同体背景的裁量结论,以法官整体理性的方式回应和化解法官在新型、疑难、复杂等案件裁量中可能存在的知识结构缺陷、思维方式固化和裁量理念滞后等问题。此外,尽管当前司法人工智能还处于初级发展阶段,被定位为裁量辅助工具,但仍可以通过事先提供裁量结论的方式帮助法官回归到论证机器裁量是否周全的“论证—决策”这一理性思维模式上,从而可以有效避免“决策—论证”模式加剧法官证实性偏见的风险[14]。
最后,具备预测能力的司法算法模型可以通过预测不同裁量结论可能引发的司法后果的方式,在多种可能的裁量结论假设中作出最契合社会正义理念和民众正义认知的选择,充分提升司法裁量的社会回应和社会引导能力。如冯兰萍等人就基于EGM(1,1)模型和简化粒子群算法(SPSO)建构了一种基于“政府干预—主流情绪引导”的群体情绪演化模型。实验结果表明,这一模型可以刻画不同情绪和政府干预强度对主流情绪的影响力,从而为政府干预决策提供可靠依据[15]。在热点案件中,可以将这一模型用于司法裁量结论的舆情演化预测中,提升司法裁量对舆论的回应能力和引导能力。
二、司法算法决策和裁量正义的冲突
我们在应用算法技术以提升司法裁量理性化和科学化水平的同时,还需要面对因科技应用的自反性特质而引发的有违裁量正义要求的新风险。由于司法算法决策在技术发展、知识结构、权力形态、应用场景、认知理性等方面的内在限度,使得它在实现裁量正义目标上还存在诸多的缺陷与问题。因而我们有必要在技术发展还未产生“锁定效应”之前及时对司法算法决策可能给实现裁量正义目标带来的危害予以梳理和分析,为我们更加理性和客观地看待司法算法裁量的可能空间与发展前景,提出更具有针对性和可行性的风险应对方案奠定基础。
(一)和司法裁量权的专属性相冲突
司法人工智能的应用可能引发司法裁量权被技术公司俘获,进而危及裁量权专属原则的风险。一方面,由于算法技术的复杂性、专业性、先进性,司法机构人员往往缺乏相关专业知识,所以,当前绝大多数司法人工智能系统都是由商业技术公司单独或与法院合作开发的。实践中,在简单将司法人工智能系统仍视为辅助工具而不是重塑系统的惯性思维下,司法机关人员往往较少参与司法人工智能系统的需求提炼、方案设计、产品研发、审核修正甚至是试点运行等工作之中[16],这就造成技术公司实际上主导了司法人工智能系统的设计、运行和维护工作,技术公司在对裁量逻辑的编订、规则要旨的提炼、数据要素的标注、知识图谱的绘制、证据认定标准的制定、价值冲突的选择过程中实际上行使了部分法官的裁量权,成为司法裁量的实际控制者之一。
另一方面,相关实证研究表明,“虽然我们明确地表达了将机器决策系统视为辅助性工具的想法,但在对自动化决策模型的信任、节省时间、减少思考负担以及避免担责风险等心理的影响下,即便参与者明确知晓自动化决策系统并不是完美无缺的,人们还是不自觉地倾向于信任自动化决策系统的结论”[17]。虽然当前司法人工智能系统被定义为法官裁量的辅助性工具,但在案多人少压力、司法数字化管理压力、社会舆论压力、道德责任压力等因素影响下,法官往往更加倾向于接受人工智能系统的裁量结论,而不是耗费更多的精力论证偏离机器裁量的理由以及承担更加严格的裁量偏离审查风险。
在技术外包和依赖心理的双重作用下,便会形成部分司法裁量权被技术公司所俘获的事实。而技术公司俘获司法裁量权是和司法裁量权专属原则相冲突的,存在引发司法裁量权被滥用、人文关怀缺失、裁量标准离散化等风险。首先,司法裁量的权威性和合法性来自经过民众或法律通过严格公开的程序授权。一方面,商业算法平台裁量权的获得不但并未经过民众或法律通过严格、公开的程序授权,而且算法设计人员在相关法律的运作、纠纷的解决、社会正义理念的理解等司法专业技能方面往往也是缺失的,这就会造成商业平台裁量权的行使缺乏正当性与规范性,其裁量结论的合法性和权威性也将面临挑战。另一方面,由于算法黑箱的存在以及与司法监管制度的脱钩,传统监管司法裁量的制度往往难以对算法商业平台予以监管,这就会造成受算法商业平台所影响的裁量行为脱离监管的问题。在权力滥用法则的影响下,缺失了监管的裁量权的行使便极易受到外界干扰而偏离客观、公正的轨道。
其次,司法裁量往往需要对法律规则进行解释以契合案件特质,这一过程实际上就是对法律的发展、对社会正义理念的修正和引领的过程。这就要求司法裁量始终以社会正义理念为引领,以实现和保护人的尊严和价值为基本参照,以让人民群众在每一个司法案件中都感受到公平正义为目的。而商业平台的行动逻辑则与之不同,它是以效率和经济利益为主要价值追求的,这就可能会使商业算法平台在对司法人工智能系统展开设计时简单地将提升裁量效率和社会效益作为参照,从而引发司法裁量的公共属性和人文关怀被损害的风险。
最后,算法商业平台掌控司法裁量权还可能会引发司法裁量标准不一致的问题。实践中,有学者就将同一起交通事故案件数据分别输入两个量刑辅助系统,二者给出的刑期却相差了四个月[18]。其原因在于,一方面,和法院统一领导的纵向管理模式不同的是,为不同法院设计算法系统的商业平台之间对数据的筛选、对数据要素的标注、对决策模型的选取等不可避免地会存在一定的差异性;另一方面,为了保障在商业竞争中的优势,尽可能多地向不同法院出售司法人工智能系统,商业平台还会对所设计的司法人工智能算法的决策逻辑严格保密,通过强化算法黑箱的方式营造技术壁垒。这就会进一步加剧司法人工智能系统法律适用不统一、裁量标准不一致的难题。
(二)正当程序制度被虚置
裁量是一个辩驳和疏导的过程,需要遵循适当的程序规定以保障当事人能够深度参与到法官决策的过程中,通过表达自身诉求、监督裁量行为、参与裁量过程、影响法官决策、获得合理解释等方式消除内心的疑虑和困惑。然而,受技术的复杂性、算法迭代的自主性以及保护商业秘密需求的影响,司法人工智能算法系统运转不可避免地呈现出黑箱化的特点。在司法人工智能算法黑箱的阻隔下,传统程序正义制度也将面临被虚置的命运。
一方面,虽然司法人工智能裁量具有中立性的特质,但研究表明,对程序公正是否认可以及对裁量结论的接受程度还和当事人的参与程度具有紧密联系。“当事人看重自己在决策的过程中是否被重视,他们的社会地位和应有权利是否得到尊重,一旦当事人认为他们的语言或行为会对争议结果产生影响时,相关参与效应就会显现,当事人也将更加乐意认可裁决者作出的决定。”[19]而封闭的司法算法裁量却会将当事人排除于决策过程之外,当事人既无法通过对证据展开质证、对行为予以辩解、对裁量幅度发表意见等方式表述自己的观点和立场,也无法通过主体间对话、互动、协调等方式展开有意义的沟通和交流。
另一方面,司法裁量实际上是一种说理、论证的过程,只有将关涉裁量结论选择的相关法理、事理、文理、情理予以详尽说明,才能充分保障裁量结论的正当性、可接受性。然而司法人工智能系统的裁量是以大数据要素之间的相关关系而不是因果关系作为决策基础逻辑的,这种数据要素联结仅仅是以计量的方式将事件和法律后果相联系,并不是在因果推理意义上以“理由—结论”的方式对待二者的,因而司法人工智能系统往往只能给出裁量的结论,却无法解释结论背后的理由[20]。正如舍恩伯格等人所指出的,人工智能时代,机器只会告诉我们“是什么”,却无法告知我们“为什么”。我们只能让数据自己发声,而无须知道隐含于现象背后的原因[21]。但法治是理由之治,一旦当事人无法获悉支撑裁量结论的理由,那么就意味着当事人对相关结论提出异议的权利也被一并剥夺,进而裁量结论的说服力和可接受性都将会因无法提供理由和论据而被严重削弱。
(三)价值判断难题
需要裁量的案件往往是那些事实和法律不清,需要裁量者发挥主观能动性展开事实还原和法律解释从而弥合事实和法律之间间隙的案件。而在这一弥合的过程中,需要司法机关结合案件的具体内容、社会环境、常识、常情、常理等开展适当的价值选择、价值确认和价值引导,因而裁量活动是具有鲜明价值导向的司法活动。然而擅长于数据计量的司法人工智能在面对难以量化的价值选择问题时,时常是无能为力的,其原因主要有以下几点:
其一,司法裁量中的价值决断是具有高度综合性、系统性、社会性的事项,所遵循的图谱是“法—理—情”相关联的多维图谱。因而,为了保障价值选择的合理性和社会可接受性,裁量者在开展价值决断时,时常需要考量社会情感、道德文化、风俗习惯、公共利益等价值因素。这些因素由于具有开放性、多元性、流动性、模糊性等特质,往往难以通过数据化的方式予以展现。这也就决定了以数字计量为基础的司法人工智能对于这些案件往往是力所不逮的。
其二,由于法律价值具有多样性、分层性和流动性,在具体个案的司法裁量中,难免会出现自由、平等、公正、人权等不同法律价值之间的冲突问题。由于不同价值准则之间并非存在天然的位阶排序,个案的具体实情、当事人的不同立场、社会的不同发展阶段等都有可能引发个案中相关价值排序的重大波动,因而,司法裁量中的价值选择是一项充满权益平衡策略的活动。由于司法人工智能算法的价值选择位阶排序是通过先例学习和人为选择而被预先设定的,往往难以应对不同个案具体价值冲突中不断变动的价值选择需求。对此,托马斯·F·戈登甚至认为,当前涉及法律推理的所有关系模型都无法取代法官的权宜平衡,并不存在可以解决所有价值冲突的终极算法[22]。实践中,杨延超通过实证研究发现,司法人工智能决策的正确率和判定事项的价值判断占比呈反相关,人工智能更加擅长于诸如评价证据和客观事实真伪的高维运算,而对于需要进行复杂推理的价值决断事项,人工智能则表现出了较高的错误率[23]。
其三,受到算法设计人员价值取向、大数据中蕴含的社会偏见等因素影响,司法人工智能的裁量还不可避免地会产生歧视风险①。首先,虽然司法人工智能算法决策的过程是客观中立的,但是负载价值判断的裁量代码确是被制造和选择的。这也就意味着司法人工智能决策模型的选择实质上是可控的,算法设计人员会有意无意地将自身的价值倾向通过编码的方式嵌入司法人工智能系统之中,从而影响司法人工智能系统裁量的价值选择倾向。如仅用于分类的算法就有神经网络(BP)、模糊神经网络(FNN)、自主适应神经网络(ANFIS)等多种神经网络模型[24],每种模型在不同场景下的决策逻辑和决策优势都存在一定的差异性,个体喜好、知识背景、认知范围和情感偏好都有可能影响算法设计者的选择,造成相关司法决策模型在裁量时偏离本应遵循的客观中立立场。其次,因为反映社会运行状态,司法裁量选择的大数据不可避免地会内涵人类社会所蕴含的偏见因子,在“偏见进则偏见出”定律[25]的影响下,司法人工智能算法也会挖掘和学习内涵于相关司法数据中的歧视要素,作出具有歧视性的裁量选择。最后,司法人工智能系统的裁量歧视还具有系统性和反复性的特质,可能造成少数群体、数字弱势群体被锁定于算法决策循环之中,遭受反复歧视的风险。一方面,与在法官个体裁量中相关歧视的发生是个体的、局部的、分散的不同,司法人工智能决策歧视往往会呈现出规模化、体系化和自动化的特质,所造成的危害后果具有长期性、规模性和反复性。另一方面,由于算法机制的互通性和扩散性,分享和学习类似数据的算法可能会对少数群体形成类似的歧视倾向,而一旦被困在算法决策循环之中并不断被印证决策结果的正确性,那么少数弱势群体便会被算法结构性锁定,从而难以逃出被反复歧视的困境[26]。
(四)责任分配困境
司法人工智能介入案件裁量还会引发相关责任难以明确分配的困境。首先,司法人工智能的介入会引发责任主体多元化、责任分配复杂化的问题。一旦司法人工智能介入司法裁量活动,那么裁量结论出现违法或不当的环节链便会被拉长,在这一决策链上,司法数据收集人员、算法设计人员、算法商业平台、算法审计机构、司法机关、法官均有因自身过错而导致错判、误判的可能性。由于算法决策系统的叠加性、交互性以及各主体对裁量结论影响力的分散性和隐蔽性,如何在复杂且多元的链条上界定担责主体、分配相关责任将成为难题。
其次,在规避责任心态的影响下,不当的责任分配方案还存在加剧法官对司法人工智能系统裁量结论过度依赖或过度排斥心理的风险:如若完全要求司法人工智能系统设计者、生产者承担全部责任,那么便可能会进一步加剧法官对人工智能系统的依赖性,危及司法裁量结论的可接受性和可信赖性。而如若要求法官承担全部责任,则又存在加剧法官对司法人工智能系统的不信任性,阻碍智慧司法建设进程的风险[27]。
最后,由于虚置了裁量程序制度,司法算法裁量还存在无法依照程序规则展开追责,架空程序责任的问题。由于裁量正义具有浮动性和难以量化性,因而依照形式正义标准,通过审查裁量行为是否符合具有确定性、公开性、流程性的程序正义要求,是界定裁量责任的重要标准。当司法人工智能介入裁量过程之后,原有阶段性的裁量决策程序便被具有自动化、瞬时性的机器裁量所取代,这也就意味着我们无法再参照程序规则这一具有明确性和可操作性的标准去界定裁量过程是否存在瑕疵,进一步加剧了相关责任认定、分配的复杂性和困难性。
三、司法算法决策实现裁量正义的前景展望
对于司法算法决策在实现裁量正义方面的缺陷,我们要做的不是悲观地否定司法人工智能的应用,因为人类法官同样会持有偏见、同样也会犯错[28],我们要做的是在最大限度发挥司法人工智能在实现裁量正义方面优势的同时,有效预防司法算法决策可能给裁量正义带来的损害。对此,相关研究进路是清晰的:一方面,我们需要通过技术改进的方式,不断优化人工智能裁量的可靠性和科学性;另一方面,我们还需要加快人类法官和司法人工智能系统相互融合的进程,使二者能够相互配合、相互补充,全面提升司法裁量的优质性与可信赖性。
(一)明确适用司法算法决策的裁量模块
将简单案件交由司法人工智能处理,将疑难、新型、复杂案件仍交由人类法官处理已经基本上成为当前人工智能司法决策的共识[29]。然而对于需要开展裁量的案件而言,情况又有所不同。由于部分需要裁量的案件仍属于简单案件以及即便被归属为疑难、复杂的案件仍然有司法算法裁量的应用空间,因此,我们应当进一步精细化建构人机共同裁量的混合模式,通过分类化和模块化的方式充分发挥和融合司法算法系统和人类法官各自的优势,最终为司法人工智能的精细化发展指明更具可行性的方向。
其一,我们应根据不同裁量案件的特质而列出清单,明确哪些案件更契合司法算法决策的特质。为此,本文尝试给出一些基础性标准。首先,那些更具结构化和计量化特质的案件更适宜由人工智能算法做出裁量,因为一方面,这些案件的相关数据信息往往因能够计量而更加完善和全面,另一方面,这些案件也更契合人工智能的计算化特质。典型的如金融纠纷、网络购物纠纷等数字化程度较高的案件就可以更多地依赖司法人工智能展开裁量。其次,当事双方争议不大的案件也可交由司法人工智能裁量。因为这类案件的事实和相关法律依据都较为清晰,双方对裁量结论都有比较稳定的预期,相关司法裁量也将承担更少的说服、教育、引导等需要人类共情能力才能完成的说理任务。因而将此类案件交由人工智能裁量不但不会显露出在价值判断上的缺陷,而且即便出现误差也很容易被发现和纠正。其中较为典型的,如认罪认罚从宽的案件就可以交由人工智能算法展开裁量。最后,对于那些纠纷金额较小或刑期较轻的案件可以交由人工智能裁量。不同于多数大额纠纷或重刑案件具有较强的个性化特征,诸如小额借贷、醉驾等纠纷金额较小或刑期较轻的案件往往具有多发性、类似性等特征,并且因为数量较多,其相关数据基数也更大,因而借助于机器学习对这些案件架构的裁判模型往往具有较高的鲁棒性和容错性[30]。
其二,我们还应结合技术发展的特质,通过模块组合的方式,积极推动人类法官和司法人工智能系统相互配合开展裁量,以“司法产品生产线”的形式优化案件的裁量工作。实际上在具体的裁量中,人类法官和司法算法以“全有或全无”的方式参与其中并不科学,在得出裁量结论的“生产线”上,我们可以充分挖掘和发挥人类法官和司法人工智能各自的优势而将之应用到不同的模块之中,最终通过模块组合的方式“生产出”当前技术背景下的裁量最优解。如在刑事案件中,可以将定罪工作交由人类法官处理,而将那些具有结构化、可计算化特质的量刑工作交由主要通过量化赋值展开决策的司法人工智能系统来决定②。
其三,为了保障裁量结果的可靠性和可信赖性,我们可以通过优化司法人工智能系统设计和应用的方式为法官创造友好、清晰、简洁的裁量支撑界面,在保障司法裁量由法官主导下展开的同时,又能充分发挥司法人工智能的留痕、监管、辅助、引导等作用。一方面,在案件裁量分类化、模块化的模式下,司法人工智能系统的应用应当具有便捷性、操作界面应当具有简洁性、裁量结论依据应当具有清晰性和可获得性,才能在不过多增加法官额外学习、操作、修正系统工作量的同时,为法官的裁量提供丰富的、具有实质意义上的支撑。另一方面,司法人工智能系统还应当发挥引导法官展开理性裁量的功能。在相关裁量数字选择环境的设计中,我们可以利用视觉的偏向性改变视觉选择架构策略、选项介绍方式、选择内容分布甚至是字体设计等,打造个性化的选择环境,让相关裁量完成的过程不再过于简单化和直觉化,从而提醒甚至引导法官在自主理性的指引下做出更加稳妥和明智的裁量选择[31]。
(二)提升民众和法官对司法算法系统建构的实质参与性
司法人工智能裁量的可控性不足以及司法人工智能系统建构过程中相关主体的参与度不足是司法算法裁量可信赖性不足的重要诱因。为此,一方面,我们可以通过完善论证、听证制度等方式将相关程序性事项前置,从而提升民众和司法人员对司法人工智能算法模型建构的参与度。虽然由于算法黑箱的存在,司法人员和民众无法有效参与到算法决策的过程之中,但通过提升司法人员和民众对算法设计过程参与度的方式可以实现参与程序的前移,弥补司法算法决策所引发的民众和司法人员对裁量过程的感知和控制能力不足的缺陷。具体而言,在司法人工智能系统建构过程中以及投入使用前,可以通过召开专家论证会、听证会等方式,广泛要求民众代表、专家代表、司法机构代表等对司法人工智能系统的可靠性、科学性、准确性等展开听证。为了保障听证人员对司法人工智能系统建构的实质参与性,应当予以算法设计机构或人员解释说明义务。相关设计人员或机构应当就算法模型类型的选择、训练数据集的选择与标注、算法裁量基准的选定、算法决策逻辑的设定、法律规则代码的转译方式、算法准确性的测试结果、算法决策结论是否存在歧视风险等以普通民众可以理解的方式予以说明。
另一方面,我们还应当通过提升司法机关人员算法认知能力的方式进一步强化司法人员对相关算法建构、运行和维护流程的参与度。强化司法机关对司法人工智能系统设计和运行的参与度不但是减轻法官对算法系统的技术依赖、防范司法权被不当攫取、保障司法机关主导司法裁量的重要方案,也是保障司法人工智能系统的裁量符合司法理念、契合司法目的、遵循司法规律的重要方面。短期来看,我们可以通过技术培训的方式,提升司法机关人员对司法人工智能系统的认知和操作能力,保障司法人员拥有最低限度的识别、应用、监督和纠正能力。长远来看,我们需要通过积极培育计算机专业和法律专业复合型人才的方式,推动法律工程师等人才的培养。只有大量的复合型人才进入司法系统并主导和监管司法人工智能算法的建构、维护工作,才能够保障司法人工智能算法契合司法运行的规律,同时也是体现司法系统主导司法裁量、避免司法裁量权被商业算法平台俘获的重要方式。
(三)建立完善的监管制度
在司法人工智能系统已经开始被大规模应用于司法审判、管理工作的背景下,当前有必要建构一个统一、权威的司法人工智能系统审查机构对相关司法人工智能系统的研发、应用展开监管,保障司法人工智能系统法律适用的统一性、裁量标准的一致性、裁量结论的科学性。此外,由法院主导设立的司法人工智能审查机构制定审查标准、决定算法系统能否投入使用,实质上也意味着司法裁量权最终归属于法院,从而缓解司法人工智能系统外包建构有违司法裁量权专属性的困境。
在借鉴相关实践经验的基础上,为了保障人工智能裁量正义的实现,本文将尝试就司法人工智能审查机构的基本运转方式展开架构:其一,在审查启动的方式上,当司法人工智能系统设计完成后,都应当事先交由统一的司法人工智能审查机构展开审查,只有通过相关审查的系统才能够被投入到司法裁量实践应用中去。此外,我们还应当建立常态化的监管机制,在相关算法投入使用后,审查机构仍应当通过定期检测、随机抽样的方式对相关司法算法裁量的正义性展开监管。其二,在审查的内容上,审查机构可以事先制定相应的审查标准,对相关算法展开审查,统一的、事先确定的审查标准有助于避免不同司法人工智能系统裁量标准不一致性的问题。在审查中,监管机构既要审查相关司法算法系统的设定是否契合算法设计目标、是否存在算法歧视、是否过于追求效率而忽视公平、是否有违司法裁量规律等事项,还应当通过黑盒测试的方式,随机选取数据库中的数据对系统的裁量结论是否在合理的误差范围内进行审查。其三,在审查的后果上,对于那些有违裁量正义要求的司法人工智能系统应当及时停止使用,并要求相关算法设计机构对算法漏洞、算法错误、算法误差等予以补正。只有待相关问题解决并经过复查之后,司法人工智能系统才能够被投入到司法裁量实践应用之中。其四,监管机构还应当善于使用技术手段提升对相关算法裁量公正性的监管效果。又如,监管机构可以在算法决策的关键节点设置“伦理安全阀”,当司法人工智能算法可能做出有违伦理安全准则或处理不属于它应对的裁量事项时,便会自动触发熔断机制。此时,系统便只能将裁量事项交由人类法官处理,从而保障了司法算法决策是在可控的伦理安全范围内展开的[32]。
(四)充分保障当事人的诉讼权利
为了缓解原有程序制度失灵造成当事人合理诉权被侵害的困境,我们还应当围绕司法算法决策的新动向建构相应的诉讼程序制度以保障当事人能够充分参与司法裁量过程、获得明晰的裁量结论解释以及得到有效的救济。在具体的制度建构上,其一,应当保障当事人对司法人工智能裁量的选择权、上诉权和申请审查权。首先,如若在一审案件中使用司法人工系统进行裁量,应当事先将这一系统的使用告知当事人。此时,当事人可以选择是否接受由人工智能做出裁量,如若当事人拒绝,则应当由人类法官做出裁量。其次,如若一审由司法人工智能做出裁量后,当事人提起二审或法院依程序启动再审,此时则只能由人类法官做出裁量。这是由于司法人工智能系统具有一致性,如若二审或再审中还使用这一系统,在决策逻辑不变的情形下仍然会得出相同的裁量结论,这就违背了二审或再审纠偏的用意。由法官掌控二审裁量的决策权也保障了裁量权最终仍然是归属于司法机关而不是算法商业平台的。最后,当事人如若对司法人工智能系统裁量的公正性和合理性有质疑,还可以要求算法审查监管机构对相关算法进行审查。算法审查监管机构在收到相关审查申请后,有义务对相关算法展开审查,并将审查结果告知申请人。
其二,保障当事人获得人工智能裁量结论解释的相关权利。一方面,我们应当提升人工智能系统的交互性和可视化水平。在司法人工智能系统设计的过程中,应当充分考虑到对于社会公众尤其是对于那些学习、掌控、认知数字技术能力不足的数字弱势群体的友好性程度,积极帮助他们更好地将自身的诉求、辩解反馈到司法人工智能系统之中,保障相关算法决策的可接近性、可控制性和可参与性。另一方面,司法人工智能系统在给出裁量结论的同时,还应当通过图表、思维导图等方式一并给出影响裁量结论的相关要素考量比重,使当事人理解算法的决策逻辑和依据。如我们可以借助研究者开发的“概念激活向量定量测试算法”(TCVA),将影响裁量结果的相关因素通过量化赋值的方式予以显示,帮助当事人直观地了解司法人工智能系统内部的运行状态[33]。
其三,我们还应当保障当事人能够得到专家帮助,获得平等诉讼地位的权利。无论是在民事诉讼还是刑事诉讼中,处于知识、经济、认知等方面弱势地位的当事人都可能因难以了解和掌握相关算法的裁量逻辑而处于诉讼劣势之中,这就造成了当事人诉讼能力之间的不平衡,违背了裁量正义实现的基本要求。为此,一方面,我们应当积极强化对律师的培训,帮助律师群体熟悉和掌握司法人工智能裁量的基本原理和可能风险,通过提升律师辩护能力的方式保障当事人的诉讼权利[34];另一方面,我们还可以借鉴法律援助制度,为需要获取技术指导和技术支持而又无法支付费用的当事人提供专家援助。一旦当事人在司法审判过程中申请专家辅助以避免因自身缺乏司法人工智能裁量相关知识而处于不利地位时,便可以由监管机构派出相关专家予以支持。
(五)建立合理的责任分配制度
责任分配制度是避免责任推诿、推动裁量主体认真对待裁量行为的重要制度,合理的责任分配制度可以有效提升裁量结论的可信赖性。对此,本文认为,首先应当将裁量违法或不当的责任交由法院承担。其一,由法院首先担责契合裁量权专属原则,无论是谁主导了裁量结论的形成,最终都是以法院名义发出并由法院的权威作为裁量结论合法性和强制性背书的,因而由法院担责更具正当性和合法性;其二,和算法设计机构以及算法设计人员担责相比,要求法院担责无疑能够减少受害人举证或辨析担责主体的负担,从而提升维权成功的概率;其三,法院既是使用人工智能算法裁量的最大获利者,也拥有着更强的经济实力,由法院担责更具经济上的合理性[35]。
法院承担相应的责任并不意味着责任分配的完结,为此,我们可以通过在算法系统中预先埋入审计线索的方式,以保障司法人工智能系统能够全程记录法官和系统的裁量过程,进而以此为基础确定人类法官、司法人工智能系统以及司法人工智能系统设计者的相关工作对裁量结论的贡献比例,应对混合裁量可能造成的相关责任比例无法确定的难题。此外,在人工智能系统已经被大规模使用的今天,我们也应当适时引入保险制度。对于参与司法裁量的人工智能系统而言,法院在购买相关系统时,应当要求算法供应商购买一定数额的保险,在出现需要损害赔偿的问题时,由保险公司进行赔偿。虽然保险制度的引入可能会增加算法供应商的生产成本,但也会起到激励供应商提升算法决策可靠性的作用。如若所设计的算法出错的概率越小,那么相应的保费就会越低,相关司法人工智能算法的总体成本也会越低,这样在市场竞争中的优势就会越明显。长远来看,保险制度的存在并没有过度增加司法人工智能算法供应商的生产成本,反而还有效推动了市场的良性竞争,最终有助于提升相关司法人工智能算法的可靠性和优质性。
四、结 语
随着司法人工智能技术的不断探索和成熟应用,和司法裁量之间的深度融合已经成为不可阻挡的趋势和潮流,然而如何实现二者的有机融合并降低相关负面影响是我们需要认真对待的问题。首先,我们应当肯定司法算法决策对司法裁量的赋能效应,在提升司法裁量中立性、一致性和理性化水平的同时,也推动着司法裁量理念和方式的转型,为更加接近裁量正义目标提供了支撑。其次,我们还应当认识到司法算法决策存在着违背程序正义、和裁量权的专属性相冲突、价值判断片面、价值歧视、难以合理分配责任等背离裁量正义目标的问题。这就要求我们客观看待司法人工智能的应用成效和风险。一方面,二者之间的逻辑并不存在冲突,无论是成效还是风险都是技术应用所展现的一个侧面。如对于客观性和中立性而言,虽然司法人工智能凭借机器决策逻辑可以克服人类法官的主观偏向,但机器本身的设定以及学习数据的映射又会产生新的歧视问题。另一方面,我们也不能因噎废食,而是应当直面现有问题,不断地通过技术改进以及细化和优化融合机制的方式,提升人工智能系统应用的可靠性和可信性。最后,我们有必要及时调整现有司法制度架构、司法运行机制以及司法人工智能介入司法裁量的思路,缓解司法算法决策和裁量正义之间的冲突,推动二者的有机融合。第一,通过清单制度,明确不同类型案件和司法算法决策的适配度;通过司法模块组合的方式,以“司法产品生产流水线”的形式推动裁量最优解的获得;以为法官和当事人提供清晰、友好、简洁的应用界面为目的而持续优化相关系统的设计和应用。第二,通过民众和司法人员介入司法人工智能算法模型建构的方式,实现裁量介入程序的前移;通过提升司法人员数字素养的方式保障司法人员在算法建构、运行、维护流程中的参与度。第三,建立统一的司法人工智能审查机构并明确和优化审查启动方式、审查内容、审查后果,对司法人工智能系统展开全流程审查。第四,充分保障当事人对人工智能裁量的选择权、申请审查权、获得解释权、得到专家帮助权,并通过图表、思维导图等方式帮助当事人能够真正理解算法的决策逻辑和依据。第五,将裁量违法或不当的责任首先交由法院承担,其后再根据预先埋入的审计线索而确定不同主体的责任分配比例。总之,只有司法算法决策的发展和应用遵循节制性和有序性原则,才能帮助我们理性地梳理和重构算法时代的司法文明图景,最终保障算法技术发展和应用在助益裁量正义实现的轨道上行稳致远。
注释:
① 这里的算法歧视问题和本文第一部分所提出的算法决策的客观性表面看存在一定的张力,但实际上二者之间并不矛盾:算法裁量的客观性是相对法官裁量而言的,它可以排除外界对法官裁量的干扰,并避免法官个体认知、直觉、偏见等主观因素对裁量结论的影响。但这并不意味着使用算法决策就能够完全避免歧视问题,其原因在于算法设计人员和算法学习数据中蕴含的歧视因素会被映射到算法之中。可以看出,对于裁量客观性产生的影响,二者是从不同角度展开的,实际上并不冲突。并且本文也多次提出,我们应当辩证看待算法决策对于裁量正义的实现价值,在带来改良契机的同时,还会引发新的问题。同样的,本部分中关于算法黑箱、算法裁量差异性问题的论述和第一部分相关算法决策优势论述之间的张力问题,也是遵循这一逻辑的。
② 关于定罪量刑程序,存在英美法系的定罪量刑分离模式和大陆法系的定罪量刑混合模式。典型的,美国法院在一些刑事案件中会由陪审团、治安法官对被指控事实和罪名事先予以认定,而后法官再单独展开量刑听证以确定刑罚。虽然我国采取的是混合模式,但在法院量刑规范化改革中,已经表现出了要保障法官听取控辩双方量刑意见、探索建立相对独立的量刑程序的倾向。国外被践行的分离模式以及我国的量刑规范化改革为本文提出的部分案件定罪工作交由法官、量刑工作交由司法算法系统的设想提供了实施可能性支撑。
参考文献:
[1] 魏斌.司法人工智能融入司法改革的难题与路径[J].现代法学,2021(3):3-23.
[2] 孙海波.反思智能化裁判的可能及限度[J].国家检察官学院学报,2020(5):80-99.
[3] 左卫民.从通用化走向专门化:反思中国司法人工智能的运用[J].法学论坛,2020(2):17-23.
[4] 彭中礼.司法人工智能中的价值判断[J].四川大学学报(哲学社会科学版),2021(1):160-172.
[5] 王竹.司法人工智能推理辅助的“准三段论”实现路径[J].政法论坛,2022(5):28-39.
[6] 蔡卫忠,王文玉.以裁量正义提升司法公信力问题研究[J].中州学刊,2019(12):62-67.
[7] 欧文·费斯.如法所能[M].师帅,译.北京:中国政法大学出版社,2008:13.
[8] Sandra Wachter,Brent Mittelstadt.A Right to Reasonable Inferences: Re-thinking Data Protection Law in the Age of Big Data and AI[J].Columbia Business Law Review,2019(2):494-620.
[9] 马长山.司法人工智能的重塑效应及其限度[J].法学研究,2022(4):23-40.
[10] 卢克·多梅尔.算法时代: 新经济的新引擎[M].胡小锐,等,译.北京:中信出版社,2016:139.
[11] 贵州省高级人民法院.探索“类案类判”机制 确保法律适用统一[N].人民法院报,2018-01-26.
[12] 米尔伊安·R·达玛什卡.司法和国家权力的多种面孔[M].郑戈,译.北京:中国政法大学出版社,2015:181.
[13] Tania Sourdin.Judge V Robot:Artificial Intelligence and Judicial Decision-Making[J].UNSW Law Journal ,2018(4):1114-1133.
[14] 王文玉.司法人工智能:实现裁判正义的新路径[J].大连理工大学学报(社会科学版),2022(6):100-109.
[15] 冯兰萍,严雪,程铁军.基于政府干预和主流情绪的突发事件网络舆情群体负面情绪演化研究[J].情报杂志,2021(6):143-155.
[16] 刘品新.智慧司法的中国创新[J].国家检察官学院学报,2021(3):81-101.
[17] Linda J Skitka,Kathleen Mosier,Mark D Burdick.Accountability and Automation Bias[J].International Journal of Human-Computer Studies,2000(52):701-717.
[18] 聂友伦.人工智能司法的三重矛盾[J].浙江工商大学学报,2022(2):66-75.
[19] Tom R Tyler.Social Justice:Outcome and Procedure[J].International Journal of Psychology,2000(2):117-125.
[20] 冯洁.大数据时代的裁判思维[J].现代法学,2021(3):41-55.
[21] 维克托·迈尔-舍恩伯格,肯尼思·库克耶.大数据时代[M].盛杨燕,周涛,译.杭州:浙江人民出版社,2013:19.
[22] 托马斯·F·戈登.诉答博弈:程序性公正的人工智能模型[M].周志荣,译.北京:中国政法大学出版社,2018:8.
[23] 杨延超.算法裁判的理论建构及路径选择:基于若干人工智能实验的启示[J].治理研究,2022(4):108-122.
[24] 杨剑锋,乔佩蕊,李永梅,等.机器学习分类问题及算法研究综述[J].统计与决策,2019(6):36-40.
[25] Sandra G Mayson.Bias In,Bias Out[J].Yale Law Journal,2019(8):2218-2300.
[26] Danielle Keats Citron,Frank Pasquale.The Scored Society: Due Process for Automated Predictions[J].Washington Law Review,2014(89):1-33.
[27] 张凌寒.智慧司法中技术依赖的隐忧及应对[J].法制与社会发展,2022(4):180-200.
[28] 陈锐,孙庆春.人工智能司法决策的合法性辨疑[J].西安交通大学学报(社会科学版),2021(3):123-130.
[29] 郑曦.人工智能技术在司法裁判中的运用及规制[J].中外法学,2020(3):674-696.
[30] 胡铭,宋灵珊.“人工+智能”:司法智能化改革的基本逻辑[J].浙江学刊,2021(2):12-23.
[31] Ayelet Sela.E-Nudging Justice: The Role of Digital Choice Architecture in Online Courts[J].Journal of Dispute Resolution,2019(2): 127-164.
[32] 柳亦博.人工智能阴影下:政府大数据治理中的伦理困境[J].行政论坛,2018(3):97-103.
[33] Been Kim, Martin Wattenberg,Justin Gilmer,et al.Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV)[EB/OL].(2018-06-07)[2024-03-17].https://arxiv.org/pdf/1711.11279.pdf,2018.
[34] 陈俊宇.司法程序中的人工智能技术:现实风险、功能定位与规制措施[J].江汉论坛,2021(11):99-104.
[35] 王文玉.算法嵌入政府治理的优势、挑战与法律规制[J].华中科技大学学报(社会科学版),2021(4):26-36.
责任编辑:郑晓艳
(E-mail:zxyfly@ 126. com)
收稿日期:2024 - 04 - 22 本刊网址·在线期刊:http://qks. jhun. edu. cn/jhxs
基金项目:国家社科基金项目“常识常理常情融入司法裁判的法律方法论研究”(22BFX012);教育部人文社会科学重点研究基地重大项目“习近平总书记关于科技与法治发展重要论述研究”(22JJD820004)
作者简介:王文玉,男,河南商丘人,西南大学法学院讲师,博士,E-mail:wangwenyu199201@163.com。