丰怡凯
(中国政法大学,北京 100088)
“人工智能辅助量刑”①需要明确的是,本文表述的“人工智能辅助量刑”概念旨在表示抽象性的司法应用,以便于理论探讨;而当指代具体性的人工智能量刑技术或者产品时,则统一表述为“智能量刑辅助技术”。是我国近年来刑事司法人工智能应用的核心图景与重大场景创新。②当前实践中开发并应用了一系列智能量刑辅助技术,如上海市高级人民法院的“上海刑事案件智能辅助办案系统”、广州市中级人民法院的“智审辅助量刑裁决系统”以及海南省人民法院系统广泛使用的“量刑规范化改革‘23+2’全方位智能辅助系统”。人工智能技术之所以在量刑活动中适用更为广泛,其原因在于:相较于其他刑事司法环节的严格性,在案件事实认定清楚、罪名确定之后的量刑环节更能充分发挥出人工智能的技术性优势。参见郑曦:《人工智能技术在司法裁判中的运用及规制》,载《中外法学》2020 年第3 期,第691 页。在这一特定场景下,可以将智能量刑辅助技术赋能量刑活动抽象概括为以下基本逻辑:以大数据与机器学习为技术依托,以自动生成量刑预测意见为目标导向,以为量刑裁判者①实践中主要指法官,但当涉及量刑裁判构造这一抽象场域时,本文将使用“量刑裁判者”作为对应概念。提供参考、减少量刑偏差为价值取向。据此,智能量刑辅助技术具有鲜明的促进量刑公正的实体功能。但同样应当认识到,人工智能辅助量刑不仅仅关涉实体层面,同时也与量刑程序紧密相关:在人工智能辅助量刑场景下,如何以合法且可检验的程序实现量刑算法决策;如何在程序设计中更好地尊重并保障各方当事人的诉讼权利;如何规范智能量刑辅助意见的司法适用等,都是实践中无法回避的程序性问题。如果无法妥善解决上述量刑程序正义问题,可能会引发一系列的连锁反应:量刑程序正义及其保障机制的缺失,将削弱智能量刑辅助技术自身的正当性;长期缺乏量刑程序正义的制度供给与程序保障,也势必损害并影响智能量刑辅助技术的实体功能——促进量刑结果公正。
然而,面对人工智能辅助量刑场景下量刑程序正义课题产生的全新挑战与迫切需求,既有研究未能从理论层面予以有力且精准的回应:首先,以对抗性程序正义理论与协商性程序正义理论为代表的传统程序正义理论②传统程序正义理论以法治主义为基本价值取向,根据诉讼模式的不同形成了两种形态的程序正义理论,即对抗性程序正义理论与协商性程序正义理论。前者适用于对抗性司法程序,其构成要素包括程序的参与性、裁判者的中立性、程序的对等性、程序的合理性、程序的及时性以及程序的终结性;后者则主要适用于协商性司法程序,其基本要素包括可弃权性、弃权的自愿性、可协商性、诉讼结果上的可获益性以及最低限度的参与性。参见陈瑞华:《程序正义理论》(第2 版),商务印书馆2022 年版,第188-196 页、第251-256 页。,适用场域局限在物理性诉讼空间,其对人工智能算法所形塑的数字性诉讼空间缺乏充分的理论解释力。其次,虽然有研究注意到了人工智能算法对程序正义所造成的冲击,并据此提出建构数字时代程序正义的相关理论主张,但就人工智能辅助量刑这一特定场景而言,相关研究宏观有余却失之具体,无法为量刑算法决策正当程序保障提供针对性理论供给。有研究将所有类型的人工智能算法视为一个整体,在此基础上试图建构一套庞大的“算法程序正义”理论③参见郭春镇、勇琪:《算法的程序正义》,载《中国政法大学学报》2023 年第1 期,第165 页。,显然无法为具有独特运行逻辑的智能量刑算法及其程序正义实现提供精准的理论指引。有研究从整个刑事司法人工智能应用角度出发,期待通过一种“技术性正当程序”理念实现对刑事司法人工智能的包容性规制与程序正义保障。④参见李训虎:《刑事司法人工智能的包容性规制》,载《中国社会科学》2021 年第2 期,第56-59 页;刘金松:《数字时代刑事正当程序的重构:一种技术性程序正义理论》,载《华中科技大学学报(社会科学版)》2023 年第2 期,第21-24 页。然而,由于量刑活动是刑事司法中的特殊存在,该项研究尽管能够为整个刑事司法人工智能的程序正义保障提供具有启发性的理论进路,但具体到人工智能辅助量刑的特定场景,其仅能作为原则性的理论指引,同样无法深度契合量刑程序正义的特殊需求。再次,虽然部分研究聚焦于人工智能辅助量刑场景,但其讨论主要限于如何为量刑裁判者提供准确的量刑意见参考这一实体法层面,并未过多涉及从程序法层面讨论智能量刑辅助技术的规范适用问题⑤参见孙道萃:《人工智能辅助量刑的实践回视与理论供给》,载《学术界》2023 年第3 期,第163-174 页;冯文杰:《人工智能辅助量刑公正取向的双重构建》,载《华东理工大学学报(社会科学版)》2020 年第6 期,第88-96 页。,故而缺乏对潜在司法适用风险的理论关切。最后,尽管有个别研究已经注意到人工智能辅助量刑场景下的量刑程序正义问题,但囿于研究视角的局限性,就相关问题的论证略显单薄,且欠缺系统性。例如,有研究分别从实体方面和程序方面对人工智能辅助量刑可能存在的问题提出解决对策,但二元化的研究视角及论证方式使其对人工智能辅助量刑场景下量刑程序正义问题的论述并不深入①参见程龙:《人工智能辅助量刑的问题与出路》,载《西北大学学报(哲学社会科学版)》2021 年第6 期,第163-174 页;李立丰、齐弋博:《数字算法时代的量刑公正及其构建》,载《学术探索》2022 年第4 期,第88-96 页。;也有研究将智能量刑算法的司法适用作为核心研究对象,但相关完善建议,却仅将“程序法回应”作为优化智能量刑算法司法适用的对策,缺乏必要的理论高度。②参见张玉洁:《智能量刑算法的司法适用:逻辑、难题与程序法回应》,载《东方法学》2021 年第3 期,第195-198 页。
以上表明,要使程序正义在智能量刑辅助技术的实践应用中“开花结果”,理论研究不仅需要深刻意识到人工智能辅助量刑场景下量刑程序正义问题的紧迫性,及时跟进实践发展趋势,并予以与时俱进的理论关切;更重要的是,还应当认真对待这一问题的重要性,这需要在研究视野上由零散依附式转向系统专门性,并在此基础上从批判走向建构。鉴于此,本文将以人工智能辅助量刑这一特定场景为切入点,依次论述以下三部分内容:第一,智能量刑辅助技术参与、影响量刑程序的程序面向与内在逻辑;第二,以类型化的视角,系统阐释智能量刑辅助技术应用可能引发的程序正义挑战与风险;第三,在此基础上,就上述潜在结构性风险的消解与治理,尝试提出一套相对体系化的理论方案,以期对人工智能时代下的我国量刑程序正义完善以及量刑程序规范化改革有所助益。
智能量刑辅助技术的适用不仅与实体结果相关联,同时还与量刑程序深度融合。因此,为了充分讨论人工智能辅助量刑场景下的量刑程序正义问题,应首先了解和厘清智能量刑辅助技术作用于量刑程序的基本思路。以下将从程序功能构造与程序运行逻辑两个维度揭示人工智能辅助量刑的程序面向。
1.程序功能取向:规范量刑裁量权
量刑裁量权是法官刑事裁判权的重要组成部分,且常态化地存在于日常量刑实践。③参见臧冬斌:《量刑自由裁量权制度研究》,法律出版社2014 年版,第39 页。例如,在量刑过程中,法官需要在控辩双方平等提出意见的基础上,通过量刑程序实现对被追诉人适当刑罚的最佳估计。虽然适当的刑罚裁决离不开法官合理行使量刑裁量权,但过于宽泛或不受限制的量刑裁量权势必导致量刑失衡问题的产生。④参见杨志斌:《中英量刑问题比较研究》,知识产权出版社2009 年版,第9-14 页。鉴于此,魏根特教授曾指出,不受约束的量刑裁量权是毫无道理的,其严重违反了公民在合理范围内预测其刑罚责任的合法性原则。⑤See Thomas Weigend, Norm versus Discretion in Sentencing,25 Israel Law Review 628,628-629(1991).
在此背景下,“由传统估堆式量刑方式向精细化量刑方式转变”已经成为近年来国内外规范法官量刑裁量权、推进量刑公正与均衡化的基础性改革路径。⑥参见石经海,严海杰:《中国量刑规范化之十年检讨与展望》,载《法律科学(西北政法大学学报)》2015 年第4 期,第170 页。这一改革的底层逻辑在于:通过规范化的量刑方式适度约束法官量刑裁量权,在推动刑罚个别化与量刑统一动态平衡基础上实现“类案类判”。人工智能辅助量刑同样契合这一改革逻辑:智能量刑辅助技术依托自然语义识别技术海量抓取公开性的类案案件信息,据此形成庞大的类案量刑信息大数据;通过对类案量刑信息大数据的深度智能化分析,智能量刑辅助技术能够对已有判决中的量刑规律进行归纳和总结,在生成、分析与计算相关变量、指标体系等要素的基础上,对个案予以精准匹配,最终智能输出预测性的量刑意见。①参见孙道萃:《人工智能辅助量刑的实践回视与理论供给》,载《学术界》2023 年第3 期,第115 页。简言之,就规范法官量刑裁量权的程序功能而言,人工智能辅助量刑以类案量刑信息大数据为蓝本,将其中蕴含的鲜活量刑实践及其共性规律注入个案量刑之中,在参照法官集体量刑经验的基础上,制衡个案中法官量刑裁量中可能出现的恣意与偏差②参见吴雨豪:《量刑自由裁量权的边界:集体经验、个人决策与偏差识别》,载《法学研究》2021 年第6 期,第110 页。,由此实现刑罚个别化与量刑统一的有机融合。就此而言,人工智能辅助量刑具有鲜明的约束和规范法官量刑裁量权的程序功能。
2.程序功能实现路径:量刑算法决策
“在人工智能应用方面,人类最大的贡献在于设计了一系列的程序运行所依赖的算法……(基于此)人工智能能够高效收集与分析海量大数据,并可以在识别大数据相关关系、模式和依赖性的基础上,辅助人类在理论上作出更为准确的决定。”③See John.Villasenor & Virginia.Foggo, Artificial Intelligence, Due Process and Criminal Sentencing, 2020 Michigan State Law Review 295,304-305(2020).据此,人工智能的本质在于算法和数据处理。④参见胡凌:《人工智能的法律想象》,载《文化纵横》2017 年第2 期,第110 页。事实上,人工智能辅助量刑也正是依托其内在量刑算法决策机制,得以实现对量刑裁量权的规范。易言之,量刑算法决策机制实际上已成为人工智能辅助量刑有别于其他传统精细化量刑方式的关键因素,同时也是二者在规范法官量刑裁量权方面“同归”却“殊途”的内在动因。
关于量刑算法决策机制,需要明确以下两点:其一,量刑算法决策以“类案类判”为指导理念。“类案类判”是指同类的案件获得相同或者类似的判决结果,其既是自然正义的要求,也是宪法法治统一原则的体现。⑤林振通:《统一裁判标准 实现“类案类判”》,载《人民法院报》2019 年7 月16 日,第2 版。但长期以来,我国事实相近的“类案”常常在不同人民法院甚至在同一人民法院的不同法官之间出现结果不同的“异判”现象,严重损害了司法公信力。⑥参见四川省高级人民法院、四川大学联合课题组:《中国特色案例指导制度的发展与完善》,载《中国法学》2013 年第3 期,第35页。为解决这一问题,最高人民法院印发了《关于统一法律适用加强类案检索的指导意见(试行)》,明确指出类案检索是实现“类案类判”的重要法宝。而智能量刑辅助技术即是一种智能化的类案检索手段,其在有效规避手动检索方式潜在的类案案件数据不全面、不准确等缺陷的同时,还能极大提高类案信息检索效率。在“类案类判”理念的指导下,量刑算法决策程序能够获取海量的类案量刑信息大数据,并按照既定的智能化算法运行规则,在对所有已决类案量刑信息和量刑趋势分析、核查的基础上,与相关个案进行匹配与验证,最终生成较为精准的量刑意见供法官参考,由此保障“类案类判”司法效果的实现。
其二,量刑算法决策以“量刑数据集中处理—量刑意见智能生成”为基础运行范式。根据实践中不同类型智能量刑辅助技术的运行共性,量刑算法决策一般包括案件知识图谱构建、相关量刑要素提取、类案量刑信息识别、算法模型训练分析以及量刑预测与偏离度测算等基本环节。①参见王禄生:《司法大数据与人工智能开发的技术障碍》,载《中国法律评论》2018 年第2 期,第48-50 页。在此过程中,案件知识图谱构建、相关量刑要素提取、类案量刑信息识别等环节,都属于对相关量刑数据的智能化集中处理,旨在为后续的算法程序运行提供基础性的类案量刑信息大数据;而算法模型训练实质上表现为,拥有深度学习能力的人工智能技术对经过集中处理后的量刑数据的分析建模,旨在获取类案量刑数据与量刑规律之间的高置信度的关联规则,并建构量刑算法程序。在此基础上,通过量刑算法程序智能生成的量刑意见,将用于对未决案件的量刑判决预测或对已决案件的量刑判决偏离检视。
探究人工智能辅助量刑的程序运行逻辑,意在厘清人工智能辅助量刑场景下量刑程序运行的内在机理,从而有助于直观了解智能量刑辅助技术介入量刑时给传统量刑程序运行带来的冲击和变化。可以从驱动模式与责任分配两个维度解构人工智能辅助量刑的程序运行逻辑。
1.程序驱动模式:人机协同
在我国,法官在量刑程序中居于主导地位,是运行和推进整个量刑程序的核心。但在人工智能辅助量刑的特殊场景下,法官不再是唯一的承担量刑工作的主体:随着人工智能介入量刑程序,量刑工作不再由法官所“垄断”,而是部分交由智能量刑辅助技术分担。在此情况下,原有独属于法官的量刑工作开始向智能量刑辅助技术进行部分转移,后者事实上成为了一种新的量刑工作承担主体。据此,形成了一种新的量刑主体模式,即由原来的法官单一型量刑主体转变为“法官-人工智能”复合型量刑主体。②参见李立丰、齐弋博:《数字算法时代的量刑公正及其构建》,载《学术探索》2022 年第4 期,第91 页。
人工智能辅助量刑场景下,随着量刑主体模式的革新,量刑程序的整体运行驱动力也相应发生了变化,即由原有人(法官)的单核主导驱动转变为“法官与人工智能”的双核协同驱动(以下简称“人机协同”)。具体来说,“人机协同”的量刑程序驱动模式主要体现在两个方面:其一,“人机协同”模式能够提升量刑裁判效率,加速量刑程序环节的推进。基于技术优势,原有量刑裁判中的重复性、程序性工作不仅可以交由智能量刑辅助技术处理,其还能快速集中处理海量类案量刑信息,并据此完成对个案量刑裁判的预测。因此,在“人机协同”模式下,法官能够从繁重的机械化工作中解放出来,从而有助于其将有限的理性与精力充分运用于核心的量刑裁判工作,提高量刑裁判效率。其二,“人机协同”模式在一定程度上能够对量刑程序过程产生形塑作用。例如,随着量刑算法决策的运行以及量刑意见的自动化生成,法官基于量刑公正的考量,将不得不考虑增设包括核验量刑算法决策是否公开透明、智能量刑辅助意见如何适用等新型量刑程序环节,以供控辩双方发表意见,从而为量刑程序的运行描绘了新的图景。
2.程序责任分配:人主机辅
从智能量刑辅助技术介入量刑活动开始,便产生了一个无法回避的现实问题:到底应当如何认识人工智能在量刑裁判中的定位? 有关这一问题,主流观点认为,应将智能量刑辅助技术定位为辅助法官量刑裁判的工具助手与“参谋”角色,而非直接代替法官行使量刑裁判权。①参见孙道萃:《人工智能辅助量刑的实践回视与理论供给》,载《学术界》2023 年第3 期,第118 页;胡佳:《人工智能辅助刑事审判的限度》,载《政法学刊》2022 年第3 期,第28 页。其中,在司法裁判中,有关人工智能为何只能发挥辅助作用的原因,参见胡佳:《人工智能辅助刑事审判的限度》,载《政法学刊》2022 年第3 期,第28 页。最高人民法院于2022 年12 月发布《最高人民法院关于规范和加强人工智能司法应用的意见》(法发〔2023〕33 号)(以下简称《人工智能司法应用意见》),明确将“辅助审判原则”作为人工智能司法应用的基础性原则之一。据此,尽管智能量刑辅助技术可以帮助法官分担部分量刑工作,但其实际上扮演的是辅助法官量刑裁判的工具角色,并非量刑裁判的主体。
因此,就人工智能辅助量刑的“人机协同”程序驱动模式而言,其并非一种“人机平等”的协同样态,而是更多地表现为一种“人主机辅”的协同模式,也即在“法官主导”与“人工智能辅助”的合力下推动量刑程序运行。就此而言,在人工智能辅助量刑场景下,法官实际上担负着主导性的程序责任,而智能量刑辅助技术仅需承担辅助性的程序责任。值得注意的是,这种“人主机辅”的程序责任分配格局,事实上也是法官与智能量刑辅助技术有关量刑工作主次分工、权责一致的逻辑映射:法官不仅是量刑程序运行的实际主导者,负有保障控辩双方平等参与、贯彻直接言词原则、保障辩护方质证权等一系列旨在促进量刑庭审实质化的传统裁判义务,其同时也是智能量刑辅助技术的实际使用者,肩负以裁判者认知理性弥补人工智能技术理性不足的新型司法责任,如对人工智能生成的裁判文书的校正与完善②虽然当前智能量刑辅助技术能够自动生成裁判文书,但这种自动化裁判文书呈现出说理性薄弱、公文程式化明显的缺陷,因此仍有待法官以其自身理性对其进行完善与补充。参见胡铭、张传玺:《人工智能裁判与审判中心主义的冲突及其消解》,载《东南学术》2020年第1 期,第221 页。,故而法官肩负着主导性程序责任;而就智能量刑辅助技术来说,前文已经提及,其主要是依托量刑算法决策这一技术层面参与量刑程序,因而只需要承担保障算法程序具有可审计性、透明性以及一致性等辅助性程序责任。③See John.Villasenor & Virginia.Foggo, Artificial Intelligence, Due Process and Criminal Sentencing, 2020 Michigan State Law Review 295,339-350(2020).基于此,“人主机辅”的程序责任分配格局,实际上可以进一步具化为“法官统筹整个量刑程序正当的程序责任”以及“智能量刑辅助技术保障局部量刑算法决策程序正当的程序责任”。
人工智能辅助量刑所独有的程序功能构造与程序运行逻辑表明:一方面,适用智能量刑辅助技术是量刑程序的重要组成部分,同样需要接受量刑程序正义理念的约束与调控;另一方面,智能量刑辅助技术作为一种新介入量刑程序的力量与因素,一定程度上冲击和改变了近年来量刑程序规范化改革所巩固和发展的传统型量刑程序样态,并描绘了新型的量刑程序图景。其中,就后者而言,由于人工智能辅助量刑从程序维度深刻重塑了传统的司法权力运行机制、司法行为运作方式,因而将不可避免地对传统量刑程序的制度设计、司法伦理以及程序正义理念带来不容忽视的结构性挑战。①参见季卫东:《人工智能时代的司法权之变》,载《东方法学》2018 年第1 期,第132 页。正视并厘清这些挑战与风险,不仅是从程序视角认真对待人工智能辅助量刑的应有之义,同时也是实现人工智能辅助量刑场景下量刑程序正义、指明未来我国量刑程序规范化改革方向的必然要求。为此,以下将对人工智能辅助量刑场景下的程序正义挑战与风险予以体系性的阐述。
应当承认,在传统刑事司法语境下,无论是对抗性程序正义理论还是协商性程序正义理论,对于相应的刑事司法程序实践都具有较强的理论解释力,并能够通过设置相应的正当程序标准评判、推动、助力相应诉讼程序的正当化发展。但是,在人工智能赋能刑事司法的新型场景下,以参与性、中立性、自愿性等要素为核心的传统程序正义理论,则很难适用于人工智能刑事司法活动的程序运行逻辑,难以为刑事司法人工智能背景下程序正义的实现提供科学的理论指导。②参见刘金松:《数字时代刑事正当程序的重构:一种技术性程序正义理论》,载《华中科技大学学报(社会科学版)》2023 年第2期,第19-21 页。据此,在宏观层面,面对蕴含技术主义的刑事司法人工智能应用,仅以法治主义为底层逻辑的传统程序正义理论面临前所未有的严峻挑战。③参见李训虎:《刑事司法人工智能的包容性规制》,载《中国社会科学》2021 年第2 期,第57 页。
不仅如此,具体到人工智能辅助量刑的特定场景,传统程序正义理论解释力同样面临诸多挑战,包括但不限于以下层面:其一,量刑正义的传统原则,如量刑主体参与性原则,逐渐发生了动摇。在量刑程序(主要是对抗式量刑程序)中,根据传统程序正义理论要求,任何对量刑裁判可能产生影响或者可能受到量刑裁判影响的相关主体,均应积极参与量刑裁判的制作过程,并在相互对抗、争辩过程中对量刑裁判结果的形成发挥实质性作用。然而,在人工智能辅助量刑场景下,传统程序正义理论所主张的量刑主体参与性原则,似乎难以有效体现。一方面,随着人工智能介入量刑,事实上产生了一系列的新的量刑活动参与者,如智能量刑辅助技术的开发人员以及该技术产品的部署者、运用者。上述新介入的量刑活动参与者虽然可能对量刑裁判结果产生实质性影响④智能量刑辅助技术的开发者和部署者有关量刑数据信息提取的范围与方式以及其本身的价值观、选择偏好等因素将直接决定该量刑算法模型的精确性,进而影响最终生成的量刑意见预测。参见刘金松:《数字时代刑事正当程序的重构:一种技术性程序正义理论》,载《华中科技大学学报(社会科学版)》2023 年第2 期,第20 页。,但就实践情况来看,除控、辩、审等智能量刑辅助技术应用端主体外,其开发人员以及部署人员等开发端、部署端主体,实际上游离于量刑程序之外,并不受程序参与性原则的约束。另一方面,就对抗式量刑程序中被追诉人、被害人等传统诉讼参与主体而言,其在人工智能辅助量刑场景下的程序参与能力十分有限。具体来说,不同于传统法官决策场域下,当事人能够通过对自己不利的证据和意见进行质证、反驳等方式实质性参与并影响量刑裁判;在新型量刑算法决策场景下,尽管被追诉人、被害人等诉讼主体直接受到量刑算法决策影响,但由于商业秘密或知识产权保护等原因,量刑算法模型的运行和存在可能处于保密状态,因而对其可能形成事实上的“量刑算法黑箱”。退一步来说,即使能够实现量刑算法模型运行原理的公开透明,但对于绝大多数属于普通民众的诉讼主体而言,量刑算法这一技术性知识壁垒同样可能导致其难以实现有效的量刑参与。①当前,由于算法本身欠缺可解释性,因此大多数情况下算法的运行是令人不安且不可预知的。换言之,基于技术性知识壁垒的原因,普通民众很难理解量刑算法在内的算法运行逻辑和机理,在此情况下遑论行使参与权、异议权。
其二,引发了量刑主体自愿性等新的问题。协商性程序正义理论围绕自愿性提出了弃权的自愿性、协商的自愿性等一系列要素性概念,用以保障协商性司法程序运行的正义性。②参见陈瑞华:《论协商性的程序正义》,载《比较法研究》2021 年第1 期,第12-13 页。但需要明确的是,上述协商性程序正义理论中的“自愿性”具有特定的功能指向,即专指被追诉人对协商性诉讼制度或审判程序类型选择适用与否的自愿性。但在人工智能辅助量刑场景下,如果被追诉人选择的是协商性司法程序,那么量刑裁判者将不得不面临两类自愿性审查问题,即:被追诉人是否基于自愿而选择协商性司法程序? 被追诉人是否基于自愿而选择智能量刑辅助技术? 需要注意的是,上述两类自愿性问题,背后的条件、场域及功能指向均不相同。在此情况下,虽然协商性程序正义理论能够对第一类自愿性问题作出充分的理论解释与实践指导,但就被追诉人是否可以基于自愿而选择适用智能量刑辅助技术,是否可以在适用过程中反悔等新式自愿性问题,则难以提供有效的解释与回应。
此外,同样需要指出的是,无论是对抗性程序正义理论抑或协商性程序正义理论,均无法就如何规制量刑算法决策中可能产生的“黑箱”或偏见提供有力的理论指引。以上表明,在人工智能辅助量刑的特定场景下,传统程序正义理论在量刑程序正义保障方面具有明显的局限性,亟待新的理论供给。
从量刑正义的传统理念出发,在智能算法决策应用于量刑活动的场景下,同样应当努力保障量刑算法依循正当程序进行决策,以避免量刑算法决策的不公正或不准确。据此,一套完备的量刑算法决策正当程序机制应当成为人工智能辅助量刑场景的基本配套制度,这也是保障量刑程序正义、推进量刑程序规范化的应有之义。但就相关立法以及智能量刑辅助技术应用的司法实践来看,当前我国尚未建构起明确的量刑算法决策正当程序机制。
1.规范层面:量刑算法决策缺少必要的正当程序保障机制
当前,我国主要从义务层面对人工智能司法应用进行规范和约束。2017 年国务院印发的《新一代人工智能发展规划》明确指出,要“建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管。”具体到人工智能辅助量刑的特定场景,理论界同样普遍认为量刑算法决策应当秉承公开透明、公正对待以及可监督追责等一系列正当程序原则。①参见熊秋红:《刑事司法中的人工智能应用探究》,载《上海政法学院学报(法治论丛)》2022 年第6 期,第112-114 页。在此基础上,《人工智能司法应用意见》有意识地吸收了上述有关人工智能算法规制的主张,明确将“安全合法”“公平公正”“辅助审判”“透明可信”“公序良俗”作为我国人工智能司法应用时应当遵循的基础性原则。
毋庸置疑,通过制定专门的规范性文件,能够对人工智能司法应用提供亟需的规范性指导,也有助于构建人工智能司法应用场景下算法决策正当程序运行机制。但就后一目标而言,我国立法决策者依然任重道远,亟待强化立法供给:一方面,就当下专门性的人工智能司法应用立法规范来说,其仅限于从宏观方面为智能算法决策运行予以原则性的宣示或指导,但并未就人工智能司法应用场景下的裁判者以及其他诉讼主体②根据“两高三部”2020 年《关于规范量刑程序若干问题的意见》(以下简称《规范量刑程序意见》)规定精神,除量刑裁判者外,控方、被追诉人方以及被害人方都是规范化量刑程序中的诉讼主体。为便于行文,本文以下将其统称为“当事人”。的具体权利义务、程序步骤等基本要素予以具体细化规定,因而无法为量刑裁判者及当事人提供明确且可供遵行的量刑算法决策正当程序机制。另一方面,就一般性的量刑程序规范而言,2020 年,最高人民法院、最高人民检察院、公安部、国家安全部、司法部发布了《关于规范量刑程序若干问题的意见》作为我国近年来量刑程序规范化改革的最新成就,并没有对实践中已经广泛适用的智能量刑辅助技术予以任何回应,致使量刑算法决策正当程序至今依然游离于量刑程序规范化改革之外。易言之,尽管我国智能量刑辅助技术在司法实践中已经广泛适用,但迄今为止,针对该特定场景,立法上并未形成一套可供遵循的成熟正当程序指引。因此,诸如量刑算法决策如何对当事人透明,是否允许当事人对此质疑或请求回避,以及当事人是否有权要求对量刑算法决策意见进行审核等关涉量刑程序正义的基本问题,尚未得到妥善解决。
2.实践层面:量刑算法决策的程序运行方式具有封闭性特征
重实体、轻程序是我国刑事司法中的传统弊病。受此影响,在规范层面上缺失量刑算法决策正当程序机制的情况下,智能量刑辅助技术的实践应用很难实现正当程序的理想图景。结合实践情况来看,我国量刑算法决策的程序运行方式呈现出较为明显的封闭化特征。
其一,类案量刑信息大数据选定的非公开化。依据智能量刑辅助技术基本原理,量刑算法所依据的类案量刑信息大数据将直接框定个案量刑意见预测的基本范围,因此,相关类案量刑数据的抓取是否完整,将直接决定该量刑算法决策机制是否存在偏见,进而影响最终生成的量刑预测意见的精确性。③参见冯文杰:《人工智能辅助量刑公正取向的双重构建》,载《华东理工大学学报(社会科学版)》2020 年第6 期,第117 页。尽管量刑信息大数据十分重要,但实践中其筛选与抓取不仅完全由审判机关决定,甚至审判机关只侧重考量有罪证据,带有明显的入罪倾向④参见郑曦:《司法人工智能运用背景下的被告人质证权保障》,载《政法论坛》2022 年第6 期,第48 页。;此外,在运行量刑算法决策前,法官通常不会就该量刑信息大数据的筛选依据、抓取原理等听取控辩双方特别是被追诉人一方的意见。⑤以上海市高级人民法院主持研发的“上海刑事案件智能辅助办案系统”以及广州市中级人民法院主持研发的“智审辅助量刑裁决系统”为例,其系统内的类案量刑信息大数据库均由负责研发的审判机关设计与构建,但在个案应用中,控辩双方等当事人是否可以就该类案量刑信息大数据的准确性、全面性等方面进行审查则并未提及与明确。参见李哲:《当司法进入“人工智能时代”》,载搜狐网,https:/ /www.sohu.com/a/156544511_120078003,2023 年4 月24 日访问。由于量刑活动的其他参与方无法实质性审查量刑信息大数据,因而增添了量刑算法决策偏见风险。
其二,量刑算法决策运行的非透明化。“在类案量刑信息大数据的基础上,量刑算法决策自动识别和提取个案中的量刑事实、量刑情节等案件要素,最终依托既定的算法模型生成量刑意见预测”是当前智能量刑辅助技术的基本特征。①例如,海南省人民法院系统广泛使用的“量刑规范化改革‘23+2’全方位智能辅助系统”可以与原有审判管理系统无缝对接,从前置文书中智能识别提取案件基本信息、量刑事实和情节等案件要素,并将这些案件要素自动地运用于后续的量刑以及程序性法律文书、裁判文书的生成。参见潘睿:《大数据人工智能助力司法改革 海南法院深化量刑规范化改革》,载海口网,http:/ /hkwb.net/news/content/2017-07/25/content_3300556.htm,2023 年4 月23 日访问。在案件要素提取整体自动化的趋势下,为保障量刑的公正与准确,一些具体个案中的非共性要素,仍可能需要智能量刑辅助技术操控者(一般是主办法官)的手动输入。②例如,作为全国试点单位之一,深圳市罗湖区人民法院在2022 年初正式上线运行智能裁判辅助办案系统。该智能裁判辅助办案系统尽管在自动提取量刑事实、量刑情节等案件要素方面的准确率已经超过了85%,但个别案件要素的提取仍然离不开系统操控者的手动输入。参见《智能裁判辅助办案系统上线,智慧法院建设再上新台阶》,载澎湃网,https:/ /www.thepaper.cn/newsDetail_forward_16193262,2023 年4 月24 日访问。但从当前实践来看,无论是基于自动识别、提取抑或手动输入个案量刑情节、事实,被追诉人一方均未能有效参与其中,无法及时在量刑算法决策的运行过程中提出及时的辩护意见③从部分公开披露的相关智能量刑辅助技术的运行细节来看,无论是智能量刑辅助技术自动提取案件要素抑或系统操控者手动添加、修改案件要素,均未显示控辩双方特别是被追诉人一方能够及时参与其中,对案件要素的提取进行监督。参见《智能裁判辅助办案系统上线,智慧法院建设再上新台阶》,载澎湃网,https:/ /www.thepaper.cn/newsDetail_forward_16193262,2023 年4 月24 日访问;潘睿:《大数据人工智能助力司法改革 海南法院深化量刑规范化改革》,载海口网,http:/ /hkwb.net/news/content/2017-07/25/content_3300556.htm,2023 年4 月23 日访问。,这实际上严重损害了被追诉人一方的正当程序权利,使得“质疑嵌入工具中的歧视性计算变得更具有挑战性。”④[加]费尔南多·阿维拉、凯莉·汉娜-莫法特、波拉·毛鲁托:《诱人的公平:机器学习是答案吗? 刑事司法系统中的算法公平》,载[荷]马克·舒伦伯格、里克·彼得斯编:《算法社会:技术、权力和知识》,王延川、栗鹏飞译,商务印书馆2023 年版,第143 页。
在人工智能辅助量刑场景下,量刑裁判者通常需要依次考量两方面的司法适用问题:一是,有待裁决的具体案件是否适合适用智能量刑辅助技术;二是,在确定适用智能量刑辅助技术之后,需要进一步考虑应当如何正确适用量刑算法决策自动生成的个案量刑预测意见。理想图景下,量刑裁判者在处理上述司法适用问题时,应当遵循量刑程序正义理念的指引:在研判具体个案是否可以适用智能量刑辅助技术时,量刑裁判者应当考虑智能量刑辅助技术适用的案件范围并听取控辩双方特别是被追诉人一方的意见,保障当事人选择量刑算法决策的自愿性;在适用智能量刑辅助意见时,量刑裁判者同样应当依照控、辩、审的量刑裁判构造,在充分听取当事人意见的基础上最终决定是否参考、多大程度上参考该量刑预测意见。但是,在司法实践中,由于现行法律规范未能就此予以必要的指引和有效回应,在当前智能量刑辅助技术的实践应用中,量刑裁判者往往表现出对智能量刑辅助技术的盲目信赖,甚至是盲从。具体表现为以下两个维度:
1.对智能量刑辅助技术的路径依赖
根据《人工智能司法应用意见》的规定,各类用户有权选择是否适用人工智能技术,有权随时退出与人工智能产品和服务的交互。据此,在人工智能辅助量刑场景下,作为用户端主体之一的被追诉人,一定程度上享有是否适用智能量刑辅助技术的选择权、决策权。但是,仅靠该项规定尚不足以对量刑裁判者选择适用智能量刑辅助技术形成实质性制约:(1)欠缺有效的外部制约机制。值得注意的是,现行法律规范尚未就可以适用智能量刑辅助技术的案件范围作出必要的限定。受此影响,对于具体个案是否可以、是否适宜适用智能量刑辅助技术,量刑裁判者实际上享有较为宽泛的选择适用权。(2)内部制约机制形式化。虽然《人工智能司法应用意见》体现了对被追诉人等用户端主体选择适用权的尊重,但由于欠缺配套的救济或制裁机制,其能发挥多大的实际功效,仍需打上一个问号。此外,在量刑程序实践中,基于量刑裁判者的权威以及被追诉人对智能量刑辅助技术的理解有限性,一旦法官倾向或者建议适用智能量刑辅助技术,被追诉人很难提出有效的拒绝理由。
因此,在人工智能介入量刑的特定场域下,一旦量刑裁判者体验过智能量刑辅助技术带来的便利(如节省裁判时间、高效处理量刑案件要素、保障“类案类判”等),囿于缺乏必要且有效的内外部约束机制,量刑裁判者很容易形成对智能量刑辅助技术的路径依赖和心理依赖,从而习惯性地选择适用智能量刑辅助技术,进而产生“从技术辅助到技术依赖”的司法适用风险。
2.对智能量刑辅助意见的结果依赖
根据量刑程序规范化改革要求,量刑裁判的形成离不开控方、辩方以及被害人等当事人的有效参与。但在人工智能辅助量刑场景下,由于智能量刑辅助意见的证据法定位尚未得到规范厘清,也未就此形成理论共识,因此,实践中有关该智能量刑辅助意见的法律属性认知存在较大争议,致使其很难像证据一样得到当事人的质证性检验。①参见程龙:《人工智能辅助量刑的问题与出路》,载《西北大学学报(哲学社会科学版)》2021 年第6 期,第169 页。鉴于此,在量刑算法决策自动生成量刑预测意见后,法官通常并不会将其纳入诉讼化的量刑裁判构造中予以审查,而是直接将其作为量刑裁判的参考。
在此情况下,量刑裁判者对智能量刑辅助意见的“应然参考”实际上可能异化为“直接采纳”,从而产生过度依赖,甚至是带来盲信盲从智能量刑辅助意见的司法适用风险。具体而言,一方面,面对以类案量刑信息大数据为基础的量刑算法决策,本应自主心证的量刑裁判者很容易受到人工智能技术权力的牵引与规训②有观点认为,人工智能技术权力作为一种弥散于刑事审判场域的权力范式,其与作用主体之间形成了“泛在”的权力关系,表现为对人或主体无处不在地进行引导或操纵,这种“无意识”的权力治理术规训着法官在裁判过程中的自主性。参见卫晨曙:《刑事审判人工智能的权力逻辑》,载《西安交通大学学报(社会科学版)》2021 年第3 期,第144 页。,进而对其裁判形成一定的“锚定效应”③参见朱体正:《人工智能辅助刑事裁判的不确定性风险及其防范——美国威斯康星州诉卢米斯案的启示》,载《浙江社会科学》2018 年第6 期,第79 页。,从而使得智能量刑辅助意见的辅助参考功能异化为对量刑裁判结果的实质操控。另一方面,由于缺少当事人对智能量刑辅助意见的充分讨论,量刑裁判者事实上缺失了“兼听则明”的制度支撑,因而可能难以在全面考量个案特殊化量刑要素的基础上,审查该智能量刑辅助意见潜在的不足,并及时予以调试。
人工智能辅助量刑作为我国量刑活动中的重大场景创新,其独特的功能构造与运行逻辑,为传统量刑程序及其程序正义目标的实现带来了结构性的风险与挑战,同时也对我国人工智能时代背景下的量刑程序规范现代化改革提出了新的迫切要求。以下将据此尝试提出具有针对性且体系化的程序正义风险治理方案。
为了应对迅猛发展的人工智能技术对传统正当程序理论的冲击,美国学者率先提出了“技术性正当程序”①基于我国刑事诉讼理论概念适用习惯及本文语境,以下统称为“技术性程序正义”。的概念:该理论认为,为了维护正当程序原则,自动化决策系统的设计和应用应当以透明度和问责制为首要目标。对此,可以通过优化当事人的被告知权、听证权等权利保障以及设置具体规则或标准等形式,提高自动决策系统的透明度、可问责性与准确性,推动实现以自动化决策为代表的新兴技术与正当程序规范的融合。②SeeDanielle Keats Citron, Technological Due Process,85 Washington University Law Review 1249,1250-1308(2008).简言之,“技术性程序正义”理论通过强调透明性、准确性、可问责性、参与性等核心要素③SeeDanielle Keats Citron & Frank Pasquale, The Scored Society: Due Process for Automated Predictions, 89 Washington Law Review 1,20(2014).,为人工智能技术介入司法领域的程序正义保障提供了一个颇具启发性的理论框架。
在当前人工智能广泛且深度介入司法活动的现实情境下,我国理论界对作为舶来品的“技术性程序正义”理论展开了深入的本土化研究,并取得了一系列代表性成果。④参见李训虎:《刑事司法人工智能的包容性规制》,载《中国社会科学》2021 年第2 期,第42-62 页;刘东亮:《技术性正当程序:人工智能时代程序法和算法的双重变奏》,载《比较法研究》2020 年第5 期,第64-79 页;苏宇:《数字时代的技术性正当程序:理论检视与制度构建》,载《法学研究》2023 年第1 期,第91-107 页。以刑事司法领域为例,有代表性观点指出,为克服传统程序正义理论对人工智能背景下刑事司法运作乏力甚至失灵的难题,避免刑事程序正义风险,应当考虑引入“技术性程序正义”理论内核,并据此详细论证了“技术性程序正义”理论用以规制刑事司法人工智能的必要性与可行性⑤参见李训虎:《刑事司法人工智能的包容性规制》,载《中国社会科学》2021 年第2 期,第56-59 页。;在此基础上,有学者从人的主体性和尊严理论、司法公信力理论以及分布式道德责任理论等方面出发,细致论证了刑事司法人工智能时代呼唤“技术性程序正义”理论的正当性,且就宏观的刑事司法人工智能应用维度,初步提出了“技术性程序正义”理论的配套机制。⑥参见刘金松:《数字时代刑事正当程序的重构:一种技术性程序正义理论》,载《华中科技大学学报(社会科学版)》2023 年第2期,第24-28 页。因此,引入“技术性程序正义”理论并结合我国人工智能司法运行实践予以本土化改造,已经逐渐成为当前人工智能司法背景下程序正义保障的共识。
但值得注意的是,我国当下有关“技术性程序正义”理论的研究中,部分观点十分推崇技术赋能对程序正义的保障作用,也即强调通过优化或升级人工智能算法技术的方式,实现“技术性程序正义”理论所追求的算法系统的透明性、准确性、可问责性以及参与性等基本价值目标。例如,有观点认为,代码编写和算法设计的高度复杂性是造成算法不透明的核心原因之一,对此应当通过技术手段如开发相关技术措施,通过程序的代码化提升算法运行的透明性①参见刘东亮:《技术性正当程序:人工智能时代程序法和算法的双重变奏》,载《比较法研究》2020 年第5 期,第74-75 页。;也有观点主张,为应对自动化行政对正当程序的挑战,应对自动化行政进行分级,根据程度不同的自动化来匹配相应的行政程序要素②参见张涛:《自动化行政对行政程序的挑战及其制度因应》,载《华中科技大学学报(社会科学版)》2022 年第 5 期,第 67-68 页。;此外,在刑事司法人工智能应用领域,也有观点指出,应当在法治主义之上叠加“技治主义”,从数据治理、算法治理以及应用系统治理等层面建构技术性正当程序。③参见熊秋红:《刑事司法中的人工智能应用探究》,载《上海政法学院学报(法治论丛)》2022 年第6 期,第113-114 页。就基本观点来说,上述技术性程序正义理论范式较为强调作为技术本身的“人工智能算法”的重要性,也即将技术赋能作为实现技术性程序正义的主要依托,而对其内在“以人为本”的价值理念关切不足,一定程度上忽视了以裁判者、当事人为代表的“人”在实现技术性程序正义过程中的内在主观需求和基础性作用。
应当承认,就基本意涵与核心要素而言,“技术性程序正义”理论包含两方面的基本要求:一是进一步推进技术赋能,通过优化或升级人工智能算法技术的方式,不断提升智能算法系统的透明性、准确性;二是立足于“以人为本”的价值理念,建构“一切为了人类的算法程序正义”④参见雷刚、喻少如:《算法正当程序:算法决策程序对正当程序的冲击与回应》,载《电子政务》2021 年第12 期,第22 页。,具体要求可以概括为:强化程序责任者的可问责性、保障程序参与者的可参与性。但应当明确的是,相较于强调“人工智能技术本位”的技术赋能理念,“以人为本”才是“技术性程序正义”理论的核心要求与价值依归:一方面,人工智能技术的辅助性地位决定了,其发展完善必须坚持“以人为本”的价值理念,这已经成为一项基本共识;另一方面,从“技术性程序正义”理论的时代使命来看,其旨在建构契合人工智能司法运行逻辑的程序正义机制,防止人工智能算法技术的司法应用妨碍当事人基础诉讼权利的行使。就此而言,技术性程序正义所关注的重心并非处于辅助地位的人工智能算法,而是实质参与诉讼、作为诉讼主体的人。在此意义上,注重技术赋能的人工智能,只是实现技术性程序正义的基础性手段,而“以人为本”才是技术性程序正义的最终价值追求。因此,为防止人工智能司法背景下传统程序正义理论的失灵,我们不仅需要将目光转向技术性程序正义理论框架,更重要的是,还应当深刻意识到技术性程序正义所应然涵摄的、旨在对“人”赋权的“以人为本”基础价值理念⑤参见苏宇:《数字时代的技术性正当程序:理论检视与制度构建》,载《法学研究》2023 年第1 期,第92 页。,从而从理论高度实现对过度强调技术赋能主张的纠偏。
同时,应当强调的是,“以人为本”的技术性程序正义理论并不试图取代传统程序正义理论,而只是在人工智能算法时代,结合人工智能司法应用逻辑对后者予以重新诠释,二者相互支撑,共同致力于人工智能司法背景下的程序正义保障。⑥参见李训虎:《刑事司法人工智能的包容性规制》,载《中国社会科学》2021 年第2 期,第57 页。具体到人工智能辅助量刑这一特定场景,以裁判者中立、当事人参与为代表的传统程序正义理论内核,仍然是“以人为本”的技术性程序正义理论的核心追求;同时,基于其独特程序运行逻辑,“以人为本”的技术性程序正义理论呈现出不同的具体要求与表现形式。
其一,以辅助量刑裁判者为导向的技术应用伦理。如前文所论,虽然人工智能赋能司法直接形塑了“人机协同”诉讼样态及程序驱动模式,但本质上仍体现为“人主机辅”的程序责任分配格局。据此,在人工智能辅助量刑场景下,如何保障量刑裁判者的最终决策与责任承担的主体地位,显然是构建“以人为本”的技术性程序正义机制所需要认真对待的问题之一。然而,与传统程序正义理论强调裁判者应当中立有所不同,“以人为本”的技术程序正义理论尽管也强调量刑裁判者的中立性,但鉴于智能量刑辅助技术的运用,其更加侧重于强调量刑裁判者的自主意识与主体地位,这同样是传统裁判中立性的应然要求,旨在确保量刑裁判者不被人工智能技术权力所规训,深化人工智能技术决策的辅助性与非决定性地位。
其二,以保障当事人量刑算法权利为核心内容的技术应用逻辑。人工智能技术依托其深度调配运用数据资源方面的机器优势、架构优势以及嵌入优势,会逐渐形成一种事实上的技术权力。①参见张凌寒:《权力之治:人工智能时代的算法规制》,上海人民出版社2021 年版,第35-37 页。基于量刑的加减运算特征,这种技术权力逻辑在人工智能辅助刑事审判中往往表现得更为明显。②参见卫晨曙:《刑事审判人工智能的权力逻辑》,载《西安交通大学学报(社会科学版)》2021 年第3 期,第142-144 页。在此情况下,“以人为本”的技术性程序正义要求,应当及时将当前智能技术权力逻辑转变为以人为中心的技术性权利逻辑。具体到人工智能辅助量刑场景,应当通过赋予当事人一系列新型量刑算法权利,如数据审查权、智能技术适用的自愿选择权、算法解释权以及不受算法自动决策约束权等,强化智能量刑算法本身的可知性、可理解性③依据2022 年《人工智能司法应用意见》的精神,包括智能辅助量刑技术在内的人工智能产品在司法应用时应当满足公开透明的基本要求。但需要指出的是,人工智能技术运行的公开透明不代表人工智能技术本身及其原理能够为用户熟知。参见沈伟伟:《算法透明原则的迷思——算法规制理论的批判》,载《环球法律评论》2019 年第6 期,第28 页。据此,在人工智能辅助量刑场景下,应当设置一系列面向当事人的量刑算法解释机制,强化作为诉讼主体的当事人对作为辅助工具的量刑算法技术的实质性认知。,并对量刑算法决策程序予以诉讼化改造,以保障用户端的当事人能够及时发表意见,裁判者能及时听取意见,进而达致技术性程序正义“以人为本”价值观的两个基本目标:(1)推进当事人实质性参与算法决策运行程序,并为其带来程序上的可获得感、尊严感、控制感以及参与感等主观程序正义感受④See Jay Thornton, Cost, Accuracy, and Subjective Fairness in Legal Information Technology: A Response to Technological Due Process Critics,91 New York University Law Review 1821,1848-1850(2016).;(2)通过赋予当事人一系列实质性算法权利实现对人工智能技术潜在权力属性的制约。
“刑事诉讼法学研究与立法改革在关注法治、正义等宏大叙事话语的同时,也应当将注意力放到刑事诉讼制度操作者身上,毕竟后者才是实现法治化的最终力量。”⑤左卫民:《刑事诉讼中的“人”:一种主体性研究》,载《中国法学》2021 年第5 期,第96 页。通过对技术性程序正义理论“以人为本”价值内核的挖掘与解读,本文为人工智能辅助量刑场景下的量刑程序正义保障难题提供了相对清晰的解决思路,即在关注和强调参与量刑程序的“人”的主体性地位的基础上,推动实现以“人的正义”为中心的技法融合。需要特别强调的是,“以人为本”的技术性程序正义理论涉及两方面的诉讼主体:一是就技术应用而言,智能量刑辅助技术本质上是量刑裁判者的司法辅助手段。也即,“以人为本”的技术性程序正义理论强调智能量刑辅助技术的功用属性以及量刑裁判者的司法主体地位、责任要求;二是在法律功能层面,“以人为本”的技术性程序正义理论强调量刑程序的法律保障功能,并赋予被追诉人一系列新型的算法权利。
前文论及,囿于立法规定,当前我国并未形成一套明确且具有可操作性的量刑算法决策正当程序机制,由此导致实践中量刑算法决策程序呈现出封闭化的运行逻辑。为解决当下量刑算法决策正当程序方面存在的“广泛的实践需要”同“滞后的立法供给”之间的矛盾,首先应当尽快完善有关量刑算法决策的立法规定,以期为量刑算法决策正当程序机制的建构提供规范指引。对此,就未来有关量刑算法决策的基本立法思路而言,应当考虑以“技术性程序正义”理论为指导,坚持“以人为本”的价值理念,推动原有“义务型”立法逻辑转向以新型算法权利为基础的“权利型”立法逻辑。主要有以下原因:
其一,权利保障的紧迫性。人工智能介入刑事司法的最大危机在于不断消解当事人参与诉讼的行动空间、影响范围以及救济渠道,虚化被追诉人应然享有的诉讼权利。①参见余鹏文:《现象、原理与规制:人工智能司法与刑事程序正义的融合之路》,载《天府新论》2023 年第1 期,第122 页。然而,《人工智能司法应用意见》中“安全合法”“公平公正”“辅助审判”“透明可信”“公序良俗”等规定,主要是从义务层面确立了人工智能司法应用的正当程序原则,而一定程度上忽视了作为诉讼主体的人的新型算法权利,因而使得其欠缺有效参与量刑算法决策程序的直接性规范依据。
其二,域外成熟经验的镜鉴。面对算法决策风险,当前以欧盟为代表的立法者侧重于通过数据保护框架赋予数据主体选择权、控制权等新型算法权利,寻求保障算法决策的透明、公平和负责之道。②参见张欣:《人工智能时代的算法治理:机制与方案》,法律出版社2022 年版,第6 页。例如,根据欧盟2016 年批准通过,并于2018 年生效的《通用数据保护条例》第22 条规定,相关数据主体在算法决策中享有免受仅基于单独自动化决策支配权、对算法决策异议权以及获得人工干预权等个体算法权利。以上述新型算法权利为基础,欧盟逐渐建构了算法决策的正当程序框架。③See Margot E.Kaminski, The Right to Explanation, Explained,34 Berkeley Technology Law Journal 189,204(2019).
其三,量刑程序规范化改革的内在要求。《规范量刑程序意见》进一步扩充了被追诉人、被害人等在内的诉讼当事人在量刑程序中享有的权利,其以“权利制约权力”为底层逻辑的量刑正当程序改革目标日趋明显。据此,转向赋予当事人新型算法权利的权利型立法逻辑,实际上与我国当下同样以权利为底层逻辑的量刑程序规范化改革相契合。
基于上述“权利型”立法逻辑以及“以人为本”的技术性程序正义理论进路,本文认为,应当推动量刑算法决策从封闭化的技术实用主义转向变为开放性的法治保障逻辑,对量刑算法决策的程序运行予以法治化改造,以期建构契合量刑程序规范化改革的量刑决策算法正当程序机制。
其一,应当明确被追诉人就是否适用智能量刑辅助技术的自愿选择权。对此,法官应当就智能量刑辅助技术及其适用后果等事项充分告知被追诉人,使其自由决定是否需要适用量刑算法决策系统。
其二,应当赋予被追诉人对类案量刑信息大数据的审查权。类案量刑信息大数据的全面性和准确性是量刑算法正确决策的前提,一旦其提取的量刑信息不完整,则决策结果就有可能失准。①参见熊秋红:《刑事司法中的人工智能应用探究》,载《上海政法学院学报(法治论丛)》2022 年第6 期,第113 页。因此,为了防止因类案量刑信息大数据不完整引发的量刑算法偏见,应当赋予当事人特别是被追诉人的数据审查权,以期实现量刑算法偏见风险的溯源治理。
其三,当事人应当享有以量刑算法解释权、发表意见权、质证权为核心的实质性参与权利。其中,量刑算法解释权表现为对量刑算法决策运作机理的可知,这不仅是当事人作为用户端主体知晓并理解量刑算法运行逻辑的权利,也是其行使技术性正当权利、防止算法决策武断恣意、促进算法决策可信公正的关键。②参见张欣:《人工智能时代的算法治理:机制与方案》,法律出版社2022 年版,第21 页。为保障当事人特别是被追诉人量刑算法解释权的实现,可以探索建立量刑算法决策系统技术人员出庭说明情况机制,在确保量刑算法运行及其决策的可理解性与可解释性的同时,将上述人员纳入责任制框架之内。③参见[瑞典]弗吉尼亚·迪格纳姆:《负责任的人工智能何以可能?》,谢蓉蓉、陈明晰、程国建译,上海交通大学出版社2023 年版,第73-74 页。此外,在实质性的量刑算法解释权的基础上,还可以进一步允许当事人就量刑算法决策中的不同看法发表相关意见,或者基于技术水平等因素对量刑算法决策的可靠性进行质证④参见郑曦:《司法人工智能运用背景下的被告人质证权保障》,载《政法论坛》2022 年第6 期,第53 页。,供法官量刑裁判时参考。
其四,应当赋予当事人特别是被追诉人相对的、停止适用智能量刑辅助技术的退出权。一方面,智能量刑辅助技术本质上是量刑裁判的辅助性工具,因而当事人应当享有选择适用以及退出适用的主导权。易言之,被追诉人一方就量刑算法决策程序的自愿选择并非不可逆。⑤有观点认为,虽然被追诉人享有量刑算法决策程序的自愿选择权,但该选择是不可逆的。被追诉人一旦选择适用量刑算法决策程序,则无法中途退出。本文对此观点持反对意见。参见张玉洁:《智能量刑算法的司法适用:逻辑、难题与程序法回应》,载《东方法学》2021 年第3 期,第197 页。同时,为了防止因肆意退出人机交互可能导致的诉讼资源浪费与诉讼效率低下,可以考虑对当事人的退出权予以适当限制。例如,如果当事人能够就类案量刑信息大数据的完整性、量刑算法决策运行的透明性、可知性等方面提出具有一定证据支持的异议,法官应允许其退出智能量刑辅助技术的适用,转而回归传统量刑程序。
其五,构建体系性的量刑算法决策诉讼化运行机制,还应当赋予当事人量刑算法决策运行的救济权。例如,可以考虑将上述当事人量刑算法权利受侵害情形作为提起上诉、发回重审的具体事由,在相应的救济程序中予以审查、救济。⑥参见程龙:《人工智能辅助量刑的问题与出路》,载《西北大学学报(哲学社会科学版)》2021 年第6 期,第173 页。
在人工智能辅助量刑场景下,作为整个量刑程序的责任主导者,法官有关智能量刑辅助技术的司法适用将直接关涉量刑程序正义的实现与否。因此,面对当前可能存在的“对智能量刑辅助技术的路径依赖”“对智能量刑辅助意见的结果依赖”等司法适用风险,应当以“以人为本”的技术性程序正义理论为指导,及时予以理论层面的回应。为此,以下将从“严格司法适用”维度设计具有针对性的风险防范与治理方案,以期巩固人工智能辅助量刑场景下法官的司法自主意识、主体地位,强化法官的量刑程序主导责任,确保智能量刑辅助技术被负责任地适用。
1.严格限制智能量刑辅助技术的适用场域
前文论及,当前智能量刑辅助技术案件适用范围限制的规范缺失,是导致量刑裁判者产生智能算法依赖风险的关键原因。因此,在赋予被追诉人智能量刑辅助技术适用选择权的基础上,还有必要从规范层面框定智能量刑辅助技术的适用场域,其主要原因在于:(1)人工智能技术理性的有限性。由于当前我国的智能量刑处于起步阶段,智能量刑辅助技术运用尚未完全成熟①参见李立丰、齐弋博:《智能量刑算法决策与刑事自由量刑裁量权的差异与融合》,载《科技与法律(中英文)》2022 年第1 期,第15 页。,因而面对包含复杂或特殊量刑事实、量刑情节的重大案件,智能量刑辅助技术很难实现精准的量刑信息识别、提取与个案匹配。在此情况下,如果强行适用智能量刑辅助技术,只会徒增量刑预测偏差的风险。(2)以审判为中心诉讼制度改革要求的必然性。刑事庭审实质化作为以审判为中心诉讼制度改革的共识性目标,旨在要求贯彻直接言词规则,保障辩护方质证权利,保障当庭裁判等一系列具体制度的施行。在人工智能辅助量刑场景下,如果不对智能量刑辅助技术的案件适用范围予以适当限制,那么“每个案件都适用智能量刑辅助技术”的实践图景并非不可能;在此情况下,无处不在的智能量刑算法将可能严重冲击已有的以审判为中心的诉讼制度改革,如颠覆直接言词原则、减少司法裁判亲历性等②参见胡铭、张传玺:《人工智能裁判与审判中心主义的冲突及其消解》,载《东南学术》2020 年第1 期,第217 页。,甚至从“审理者裁判、裁判者负责”的应然图景异化为“法官审理、算法裁判”。③参见张玉洁:《智能量刑算法的司法适用:逻辑、难题与程序法回应》,载《东方法学》2021 年第3 期,第194 页。
在明确智能量刑辅助技术并非应然适用于任何案件类型的理念基础上,需要进一步解决的问题是,应当如何合理划定案件适用范围。对此,本文认为,应当将智能量刑辅助技术的适用限定在“可能判处三年及以下刑罚的”轻罪案件场域④参见李立丰、齐弋博:《智能量刑算法决策与刑事自由量刑裁量权的差异与融合》,载《科技与法律(中英文)》2022 年第1 期,第15 页;胡铭、张传玺:《人工智能裁判与审判中心主义的冲突及其消解》,载《东南学术》2020 年第1 期,第220 页。,原因可从两个层面予以把握:其一,基于技术上的可行性。不同于重大复杂案件中蕴含较多的量刑信息要素,轻罪案件中的量刑事实、量刑证据等往往较为简单、明了,人工智能技术在介入量刑时不存在太多的技术难题⑤参见胡铭、张传玺:《人工智能裁判与审判中心主义的冲突及其消解》,载《东南学术》2020 年第1 期,第220 页。,有助于保障量刑算法决策的精确性。其二,契合轻罪治理理念。近年来,随着我国刑事犯罪结构的变化,轻罪治理理念应运而生。⑥参见戴佳、刘怡廷、黄越:《汇聚各界智慧力量共议轻罪治理良方善策——“轻罪治理现代化的理论与实践”学术研讨会综述》,载《检察日报》2023 年4 月7 日,第3 版。其中,在程序方面,“积极探索适应轻罪案件自身特点的刑事诉讼规则和审判规则”⑦参见卢建平、吴宏耀、刘辰等:《轻罪治理现代化的推进路径》,载《人民检察》2023 年第1 期,第50 页。是轻罪治理理念的重要内涵。据此,将智能量刑辅助技术的适用框定在轻罪案件领域,能够将量刑算法自动化决策优势与实践中轻罪案件高频性、简单性等特点有机结合,有助于彰显鲜明的轻罪治理现代化理念。
鉴于实践中重大疑难复杂案件的有限性,以轻罪案件作为智能量刑辅助技术的适用边界,实际上意味着大部分案件都可以纳入智能量刑辅助技术的适用范围。由此,量刑裁判者在判断是否适用智能量刑辅助技术时,需要遵循以下逻辑步骤,二者层层递进,缺一不可:首先审查待决个案是否属于轻罪案件;其次,在此基础上进一步履行告知义务,审查被追诉人是否具有选择适用的自主意愿。上述任何一个适用条件不能满足的,即不应适用智能量刑辅助技术。
2.严格限制智能量刑辅助意见的适用程序
为矫正潜在的“量刑裁判者对智能量刑辅助意见的结果依赖”的司法适用风险,确保量刑裁判者的主体地位以及当事人对量刑裁判过程的实质性参与,应当对智能量刑辅助意见的适用程序予以严格限制。其一,明确智能量刑辅助意见的法律属性。虽然《人工智能司法应用意见》将智能量刑辅助意见定位为量刑裁判的参考材料,但未言明量刑裁判者应当如何“参考”以及当事人是否有权参与“参考”过程,因而容易造成实践适用的混乱。为此,可以考虑在立法层面明确智能量刑辅助意见的规范性参考材料性质。这一定位优势在于:一方面,有助于明确智能量刑辅助意见的法定辅助地位,即属于规范性参考材料而非任意性参考材料。规范性参考材料与任意性参考材料属性的核心区别在于,前者是一种法定参考材料,量刑裁判者必须将其作为裁判结果的参考依据,无论最终是否采纳都应当予以充分的阐释;后者则对量刑裁判者没有法定拘束力,量刑裁判者是否采纳、是否予以说理有赖其个人正义良知,欠缺规范意蕴。①参见甄航:《人工智能介入量刑机制:困境、定位与解构》,载《重庆大学学报(社会科学版)》2023 年第4 期,第196 页。就此而言,将智能量刑辅助意见定位为规范性参考材料,也与量刑程序规范化改革的价值内涵相一致。另一方面,规范性参考材料的性质定位不仅能够为量刑裁判者的参考适用提供规范约束,同时也为当事人参与评价智能量刑辅助意见提供了规范依据,有助于解决当前智能量刑辅助意见因性质定位模糊而无法得到控辩双方质证性检验的困境,从而强化人工智能辅助量刑场景下控辩双方对量刑裁判结果的形塑力。
其二,设置有关智能量刑辅助意见的异议听证程序。将智能量刑辅助意见定位为规范性参考材料,意味着其无法以量刑证据的形式直接进入诉讼程序并接受控辩双方的质证。鉴于人工智能技术在价值判断与道德推理等方面存在先天性缺陷②参见魏斌:《智慧司法的法理反思与应对》,载《政治与法律》2021 年第8 期,第123 页。,为防止量刑裁判者垄断对智能量刑辅助意见的评价权,轻信甚至迷信智能量刑辅助意见,应当赋予当事人特别是被追诉人享有对采纳智能量刑辅助意见的异议权、否决权。为此,在决定适用智能量刑辅助技术时,量刑裁判者应当以书面形式履行程序告知义务。在此基础上,对被追诉人及其辩护人明确提出异议的案件,可以考虑设置专门的异议听证程序。有关智能量刑辅助意见的异议听证程序,需要明确以下两点内容:(1)在制度优势方面,由于听证程序深度契合“决定的准确性”“公正的外观”“可预测性、透明性、合理性”以及“参与性”等正当程序价值①SeeKate Crawford & Jason Schultz, Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms, 55 Boston College Law Review 93,127(2014).,因此,依托专门的异议听证程序,当事人能够通过诉讼化方式充分行使其智能量刑辅助意见异议权,并对智能量刑辅助意见的合理性发表实质性意见,进而推动量刑裁判者在诉讼构造下进行公正的“参考”。(2)在制度设计方面,建议以现行刑事相关听证程序规范为参照,构建适宜且凸显“以人为本”价值理念的异议听证程序。例如,该项异议听证程序至少应当具备以下核心要素:首先,适用条件。该听证程序应当以保障辩护权为导向。立足辩护方的异议权,辩护方对智能量刑辅助意见提出异议的,可以申请听证;量刑裁判者认为确有必要时,也可以依职权自行启动听证程序。其次,参与主体的多元化。即除当事人、量刑裁判者外,还可以考虑吸收相关领域的算法工程师、实务专家等参与。再次,证明方式的简易化。为保障参与异议听证程序各方意见的充分发表,应考虑采用自由证明的证明方式。最后,听证结果的拘束力。通过听证,认定异议成立的,则该项智能量刑辅助意见不得作为量刑裁判的依据,并予以排除;认定异议不成立,量刑裁判者可以将该智能量刑辅助意见作为量刑裁判的直接依据。
其三,强化裁判文书中有关智能量刑辅助意见的论证说理。前文业已提及,当前智能量刑辅助技术虽然可以自动生成裁判文书,但在内容与逻辑上仍有明显缺陷,仍需要以法官的认知理性填补技术理性的不足。在此情况下,为了保障智能量刑辅助意见司法适用的透明性与可解释性,应当严格裁判文书中有关智能量刑辅助意见适用的释法说理。对此,量刑裁判者应当重点就该智能量刑辅助意见的生成根据,当事人就该智能量刑辅助意见的适用意见(如果适用异议听证程序的,还应载明异议听证过程和结论),以及量刑裁判者本人有关参考该智能量刑辅助意见过程中的价值判断等部分予以充分分析、论证。此外,为了敦促量刑裁判者切实重视智能量刑辅助意见适用的释法说理,应当强化量刑裁判者在此过程中的可问责性。对此,可以考虑将智能量刑辅助意见适用说理作为量刑上诉程序的重点审查对象,并对诸如说理不充分,甚至不说理等情形予以发回重审救济。
“如果刑事司法系统继续依靠算法来增强决策能力,就有必要积极参与快速发展的技术领域,并制定新的保障措施和原则,以维护和保护个人权利,使其免受基于机器学习的风险评估任意性的影响。”②[加]费尔南多·阿维拉、凯莉·汉娜-莫法特、波拉·毛鲁托:《诱人的公平:机器学习是答案吗? 刑事司法系统中的算法公平》,载[荷]马克·舒伦伯格、里克·彼得斯编:《算法社会:技术、权力和知识》,王延川、栗鹏飞译,商务印书馆2023 年版,第146-147 页。因此,在拥抱刑事司法人工智能化的同时,如何将人工智能技术的刑事司法应用纳入程序正义的轨道予以规制,是当前我们面临和亟待研究的新课题。基于当前智能量刑辅助技术在我国刑事司法实践中广泛应用的现实情境,以及近年来持续推进的量刑程序规范化改革背景,相关程序正义理论研究不能仅止于较为宏观的人工智能刑事司法应用角度,还应当聚焦于人工智能辅助量刑这一特定场景。
有鉴于此,本文试图专门深入人工智能辅助量刑这一特定但实践中频发的场景,从程序角度解构其独有的程序面向,同时揭示其运行过程中可能存在的程序正义风险,并在此基础上提出体系化的风险治理方案,以期为人工智能辅助量刑场景下的量刑程序正义及量刑程序规范化提供智识帮助。此外,可以预见的是,随着未来人工智能技术的愈发完善,其适用范围将会越来越广。因此,本文有关人工智能辅助量刑特定场景下程序正义的反思与重塑努力,还旨在为其他特定刑事司法人工智能应用场域下的程序正义保障研究提供一个可供借鉴和批评的理论框架。