程 龙
(云南大学 法学院, 云南 昆明 650032)
法律人工智能是当下业界与学界最为火爆的研究热点之一。在刑事司法领域,人工智能的大面积应用几乎涉及了刑事诉讼的所有阶段[1]。在实践层面,人工智能辅助量刑已广为接受。所谓人工智能辅助量刑,是指在大数据、云计算的技术支撑下构建法律图谱,通过提取法律文书要素,进行类案识别和模型训练,用机器学习等人工智能方法形成量刑算法,在此基础上实现量刑预测和偏离度测算[2]。值得注意的是,人工智能辅助量刑不等于电脑量刑。所谓电脑量刑只是根据小数据、部分法官经验和法律法规数据化后的简单推理判断[3],更多呈现为“自动化”量刑而非“人工智能”量刑。开宗明义,本文研究对象仅为人工智能辅助量刑。
目前, 我国人工智能辅助量刑发展正盛。 海南省的“量刑规范化智能辅助系统”、 贵州省的“法镜系统”、 上海市的“智能辅助办案系统”等都包含了人工智能辅助量刑的核心功能。 上述应用尽管有所差别, 系统开发的科技公司也不尽相同, 但是底层逻辑基本一致, 即法官输入案件基本信息(在一定条件下也可以通过OCR识别), 人工智能辅助系统对案件信息进行分析、 评价, 进而生成量刑建议参考值; 法官根据该参考值进行量刑。 然而, 由于种种原因, 当下“法律+人工智能”的研究还存在一定局限。 左卫民教授曾指出, 法律人工智能呈现出理论话语与司法实践中“冷与热”的差别, 原因在于法律人工智能在前期准备条件、 研究方法、 法律数据充分性上的不同以及法律人工智能的技术瓶颈等[4]。 还有研究发现, 既往法律人工智能应用中, 重管理轻服务, 导致系统林立,“数据孤岛”现象突出, 难以发挥各人工智能司法辅助系统间“1+1大于2”的预期效果[5]。 另有研究认为, 目前刑事司法中人工智能的应用在于追求效率而非绝对精确, 追求裁判与案件的相关性而非因果性[6]。 也正因如此, 目前绝大多数人工智能系统在处理不确定性上尚显不足, 也存在一定的可解释性风险, 使得裁判的不确定性风险增加[7]。
上述研究均在不同层面揭示了实践中人工智能辅助司法——特别是刑事司法的深层次问题。具体在量刑领域,此次人工智能辅助量刑的风潮正好伴随着量刑规范化改革的推进,而量刑规范化与量刑科技化、智能化有着密切联系。有学者已经发现,过去单一的实体法研究进路或程序法研究进路并不能完全适应量刑规范化的要求,为解决量刑失衡和量刑公信力低两大问题,有必要通过实体与程序的复合治理模式构建量刑规范化制度理论[8]。有鉴于此,本文依循量刑中实体与程序两个维度,系统梳理人工智能辅助量刑存在的深层理论与实践问题,进而为规范其应用和发展提出对策建言。
人工智能辅助量刑首先是一个实体法问题。无论何种量刑技术,都应当遵循刑法的基本要求,符合刑法的基本原理。引入人工智能辅助量刑,会对既有刑法理论与刑事司法实践产生一定的冲击,其中,突出表现在量刑机械主义倾向、量刑要素抽取困难、共犯量刑障碍等方面。
有研究指出,目前人工智能辅助量刑领域存在三大问题:其一,量刑科技化取代量刑规范化,以人工智能辅助量刑作为规范化的唯一抓手;其二,量刑具体化取代量刑规范化,过于依赖量刑指导意见,不敢突破、质疑;其三,量刑划一化取代量刑规范化,片面追求同案同判[9]。是否应当并且可以通过人工智能辅助量刑,其中涉及的关键性前置问题即为:量刑究竟是一个机械过程,还是机器无法理解的裁量过程?这就是量刑机械主义与裁量主义的争论。
首先,量刑规范化的目标并不是实现量刑的科技化。司法裁判的关键在于获取公信力,量刑亦复如是。量刑失衡是量刑规范化希望解决的首要问题。过去很长一段时间里,量刑“因人而异”甚至“看人下菜”现象较为突出,个别刑事判决中出现的量刑失准,违背了社会公众朴素的“同罪同罚”正义观,民众反映强烈。人工智能辅助量刑的优点在于其客观性较好、智能化水平较高,能够弥补裁判者主观判断的不足,实现量刑的标准化。基于当代人类的“科技信仰”,逐渐出现以量刑科技化取代量刑规范化的倾向;同时,人工智能技术装备的引入,部分增强了量刑裁判在民众中的可信赖度。然而,科技化并不等于科学化、规范化。法律人工智能必须坚持以法为据、依法运行的基本取向,不能将科技凌驾于法律规范之上。科技化并不能自我论证其正确性、科学性,特别是在法律领域,合乎法理的科学性相较于单纯技术上的科技化更为重要,因此,解决量刑失衡的要点应当是量刑的科学化而非科技化。所谓量刑科学化,强调通过规范化的约束,使法官在量刑过程中充分考虑案件的具体情况,作出审慎、合法且合理的量刑。至于是否通过科技化的方式达致量刑科学化,只是手段与目的间的关系。如果以“高科技”取代法官在司法审判中的主体地位,那么,不仅难以做到量刑科学化,更难以达到量刑规范化的目的。
其次,量刑权是审判权的重要组成部分,人工智能系统不能僭越审判权主体的宪法地位。《中华人民共和国宪法》(以下简称《宪法》)第128条规定:“中华人民共和国人民法院是国家的审判机关”;《中华人民共和国刑事诉讼法》第3条第1款则规定审判由人民法院负责,除非法律特别规定,其他任何机关、团体和个人都无权行使审判权力。这充分表明,刑事司法中的审判权力为法院所独享。众所周知,定罪与量刑系刑事诉讼的主要内容,广义的刑事诉讼就是指国家为实现刑罚权的全部诉讼行为[10]3。量刑显然在审判权行使的核心范围之内。法律人工智能大规模进入量刑领域,进而以是否符合人工智能量刑系统的模拟裁判为依据,考核、衡量法官刑事裁判的正确与否,有可能侵夺裁判者的量刑裁判权。虽然从规范话语上看,人工智能辅助量刑只是“辅助”而非“决定”司法裁判,但是,在“科技信仰”乃至“科技迷信”的当下,加之司法责任制的影响,我们很难期待法官敢于质疑甚至反对法律人工智能的判断。设若任由人工智能左右量刑工作,将会使“算法”不断侵入审判权运行之中,导致司法裁判者复数化:法官、程序员、数据商、信息公司等都成为司法裁判事实上的做出者与决定者,一旦发生错案责任,则可能导致权责不明,进而使法官自由心证失去了制度和技术上的保障[11]。
再次,排除地方性知识的绝对机械主义量刑,意味着绝对的法律实证主义,拒斥了“意义之网”对于量刑的重要性。笔者曾经就人工智能辅助量刑相关问题进行实地调研。在S省L自治州调研过程中,当地法官举出实例用以说明量刑机械主义的弊端。L自治州H县是一个贫穷、多民族聚居的农业县。当地频发偷盗耕牛案件,如果按照量刑指导意见和人工智能辅助量刑系统的评估,偷盗耕牛往往只能处以一年左右有期徒刑。但是,当地民众对这样较轻的量刑感到不满,因为耕牛的灭失意味着一户人家一年口粮的短缺。衡量盗窃耕牛的危害程度,不能完全以单纯的交换价值(价格)为标准。法官坦言,在此情况下他们只能“违法”判决,作出远高于指导意见和人工智能系统提示的量刑判决。中国地域辽阔、地区间发展并不平衡,倘若以整齐划一的量刑标准指导全国的刑事裁判,使工具理性驱逐价值理性,易使法官产生思维惰性,凡事均向人工智能意见“看齐”,进而以“唯工具论”的指导思想进一步影响司法公正的实现。
最后,所谓“同案同判”已经遭到法学界一定的质疑,以此为基础建立的人工智能辅助量刑逻辑需要进一步证成其合理性。所谓“同案同判”其实是一种朴素的司法正义感,即要求相同的案件作出相同的裁判,以绝对的法律平等与法律安定实现正义[12]。然而,绝对意义的“同案”是不可能存在的。正如“人不可能两次进入同一条河流”,司法意义上的案件不可能在主体、事实、时空等要素上寻找到完全一致的复制品。相反,差异化的判决在某种程度上更可能是一种实质上的公平。前述“偷盗耕牛案”的处理深刻体现了差异化判决反而有可能成就个案的正义;尤其刑法规范本身就不是一个完全封闭的体系,只要承认司法具有能动性,则所谓的“正确答案”就不具有唯一性[13]。因此,“同案同判”与其说是一项法律义务,毋宁认为是一项道德要求。尽管在大多数时候“同案同判”的另一版本——“类案类判”具有正当性,但如若出现更高位阶的价值追求,这一道德要求也不是不可以逾越[14]。此外,“同案同判”的思维与人工智能的数学逻辑也甚为契合,即强调待决案件与司法判决间的函数映射关系。人工智能辅助量刑意图通过在海量裁判数据库中找寻与法官待决案件最相似的案件,继而提出近似的量刑建议,其工作逻辑实质是前述“同案同判”的思维,自然也就面临着法理上深刻的质疑。
人工智能辅助量刑系统的建立,仰赖机器学习形成量刑算法,而喂养机器学习的素材来源于所谓量刑情节(要素)的支持。在机器学习过程中,往往需要利用大量人力手工标记案件中的量刑情节或要素,以使机器在训练过程中能够正确识别相关判断因素,进而生成并不断修改量刑算法。在技术领域,似乎难点只在于如何通过抽取诉讼文书中的量刑情节(要素),将自然语言转化为系统可以识别的机器语言。研发者通常认为量刑情节(要素)可以从复杂的案件事实中类型化地抽取出来,似乎量刑要素的可分离性、可识别性和可类型化并不存在问题。但是,对于法律人而言,或许最应该思考的恰恰是我们究竟能不能从案件中抽离出独立的量刑要素?如果不能,抑或虽然能,但是量刑要素无法独立于定罪要素,那么,是否会产生同一要素在定罪与量刑中重复评价的不合理现象?
首先,并合主义视角下的量刑,并非是简单的案件事实加总后的判断,而是一种综合判断。所谓并合主义是指“刑罚既要满足报应的要求,与责任相适应,又要有某种合理的必要性(论理积)……报应为刑罚奠定基础,预防目的是一种‘外在的’附加。”[15]72-73目前,此种并合主义观点成为量刑根据的主流学说,因此,量刑中需考虑责任与预防双重要素。然而,责任要素与预防要素在量刑中绝非简单的加总求和。正如并合主义中的“论理积”所表示的那样,责任要素与预防要素在量刑裁判中是“乘积”的非线性关系。同时,在适用上还具有阶层性:即先通过确定犯罪责任以确定量刑基准,再通过预防刑进行调整以最终确定宣告刑[16]546-551。在人工智能辅助量刑领域,可能存在的问题是它确定的不是量刑基准,而是量刑起点,在此基础上简单地把法律规范自动化地应用于具体案件。其工作流程往往不注意区分责任刑与预防刑,在模糊学习海量案件的基础上形成算法,以此计算待决案件的量刑起点;再根据案件具有的特殊情况对宣告刑加减调整。这一过程缺乏层次性,一来无法体现出责任刑与预防刑的区分以及阶层化的量刑思维,致使刑事诉讼中难以针对责任或预防部分进行有效控辩;二来也无法体现量刑的综合性判断思维,只是片面、孤立的量刑因素汇聚。
其次,大多数量刑要素无法与定罪要素相区分,可能导致重复评价的问题。人工智能辅助量刑的法理前提在于能够提取独立的量刑情节(要素)专门应用于量刑裁判。然而,量刑情节必须是在某种行为已经构成犯罪之后,才会在量刑中予以考虑[16]553,而不可能既在定罪阶段评价,又在量刑阶段重复评价。如果一个情节(要素)本身属于犯罪构成的内容,那么它就不可能是量刑情节(要素)。例如大量的“情节严重”“数额巨大”等整体评价要素,又如大量客观处罚条件等(1)客观处罚条件又称“刑事可罚性的客观条件”,是指脱离于犯罪构成之外,不需行为人对其出现、产生有责,但又决定犯罪是否成立的条件。虽然客观处罚条件不属于犯罪构成,但其能够确定犯罪是否成立。参见克劳斯·罗克辛《德国刑法学总论》(第1卷),王世洲译,法律出版社,2005年,第690-691页。,它们表面上看是决定刑罚的要素,但实际上与犯罪是否成立息息相关。学理上,一个情节如果既在定罪又在量刑中反复评价,则有违“禁止二重处罚”的基本原则[17]65-74。例如,过失致人死亡罪中,“致人死亡”就是定罪要素,不能以此定罪后又在量刑阶段再一次评价“致人死亡”,以致科以法定刑内较重的刑罚。又如“交通肇事后逃逸”已经在定罪层面构成了结果加重犯,就不能在量刑时又将逃逸视为量刑情节,进一步适用结果加重犯刑档下更重的刑罚。有研究已经发现,目前我国量刑规范化改革中,出现了在量刑时将构成要件性事实作为量刑事实重复评价的问题[18]。同样的问题也反映在人工智能辅助量刑的工作逻辑之中,尤其是在结果加重犯的处理上。一方面,在定罪时已经将结果加重情节予以考虑,适用结果加重的法定刑;另一方面,又在量刑时再一次评价这一情节,在结果加重的刑档内从重量刑,对被告人施加过高的、不均衡的刑罚。
再次,量刑要素的识别与抽取难以穷尽可能性。有学者明确指出,无论人类如何竭尽才智,仍然无法将量刑的一切情形一一列举,那么给出一个对确定最终刑罚量刑的精确的基准也就是不可能的[19]。从人工智能辅助量刑的算法生成过程来看,机器学习离不开人类对量刑要素的标识。如果不可能穷尽量刑要素的识别,则意味着机器学习的基础是不牢靠且不精确的。再精密的计算也不可能完全模拟法律实践的复杂性与法律规则的模糊性,这就会导致人工智能领域经典悖论的出现:人类智能的程度决定了人工智能的程度,人工智能最终无法对抗人类的不智能。由此看来,量刑要素难以被穷举,也难以类型化地被机器所识别、学习,将会导致量刑算法生成的不周延。
最后,人工智能目前尚不能实现人类经验的完整植入或模拟[20]。量刑的思维过程是一种盖然性、似真性的推理过程;不完全是纯粹理性的形式逻辑推理。《中华人民共和国刑法》(以下简称《刑法》)第61条规定:“对于犯罪分子决定刑罚的时候,应当根据犯罪的事实、犯罪的性质、情节和对于社会的危害程度,依照本法的有关规定判处。”对于事实、性质、情节和社会危害程度的判断需要相应的证据证明,从而进行综合性、实质性的判断,但这需要人类的直觉、想象和感觉,此即为量刑过程中的实践理性。但是,“实践理性并非某种单一的分析方法,甚至也不是一组相关联的方法。它是一个杂货箱,里面有掌故、内省、思想、常识、设身处地、动机考察、言说者的权威、隐喻、类推、先例、习惯、记忆、‘经历’、直觉以及归纳……”[21]92法官进行量刑裁判时,还有诸多实践理性难以为机器学习所把握。况且,目前机器学习的材料来源大多是裁判文书,而我国一些至关重要的裁判形成过程并不会直接在诉讼文书中体现(2)例如审判委员会的内部讨论就不会直接在诉讼文书中体现,但却往往是裁判的重要依据与来源。。量刑中难以准确标记和计量的实践理性不可能精确表达为机器语言,致使机器学习难以准确理解和反映量刑的实际运作逻辑,在此基础上生成的量刑算法是否能正确辅助人类量刑,值得深思。
从法理上看,原本共犯的量刑并不存在理论难题,但是人工智能辅助量刑本身的局限性使其对共犯人的量刑也存在一定障碍。
一般而言,帮助犯、教唆犯的量刑应比照正犯进行裁量。尽管我国对于共犯人的分类是以其在共同犯罪中的功能及地位,划分为主犯、从犯、胁从犯、教唆犯。但除主犯以外的共犯人均以主犯量刑为基准,规定了相应的处罚原则。具体来看,根据《刑法》第27条第2款的规定,“对于从犯,应当从轻、减轻处罚或者免除处罚”;根据《刑法》第28条的规定,“对于被胁迫参加犯罪的,应当按照他的犯罪情节减轻处罚或者免除处罚”。由于教唆犯并非是与主犯、从犯、胁从犯相并列的概念[16]450,所以《刑法》第29条对教唆犯量刑区分为三种不同的情形:(1)“教唆他人犯罪的,应当按照他在共同犯罪中所起的作用处罚。”(2)“教唆不满十八周岁的人犯罪的,应当从重处罚。”(3)“如果被教唆的人没有犯被教唆的罪,对于教唆犯,可以从轻或者减轻处罚。”由此,共犯的量刑一般依照如下步骤进行:首先,确定共同犯罪中共犯人的地位;然后,确定主犯的量刑;最后,在主犯量刑的基础上对共犯人依照法定的量刑情节进行量刑。
但是,在人工智能辅助量刑中,共犯的量刑存在如下障碍。其一,共犯的量刑与定罪密切相关,难以单独从量刑层面进行机器学习与计算。我国对于共犯的量刑必须在犯罪论层面对共犯人在具体犯罪中的功能、地位进行实质评价后,方可确定其具体量刑规则。这就导致共犯人的量刑要素不可避免地嵌入定罪要素之中,难以单独抽取共犯人的量刑要素。而人工智能辅助量刑系统的机理如前所述,建立在量刑要素能够独立识别、抽取、学习的基础之上,但在共犯人的量刑上,这样的技术前提并不存在。其二,共犯的量刑是以主犯为基准的裁量,这与基于类案学习的人工智能辅助量刑逻辑不匹配。对于共犯人的量刑除了受制于其本身的罪行情节之外,还受制于对主犯的量刑。人工智能辅助量刑系统在机器学习时的数据集,是以单人犯罪或正犯为模板建立的;即便承认机器学习的有效性,但这一专家系统所能解决的也主要是单人犯罪或正犯的量刑问题。由于具体共同犯罪案件中,共犯人参与的形式多样、姿态万千,究竟在多大程度上比照主犯从重、从轻、减轻处罚,有赖于对具体、个别的案件进行实质的逐案判断,难以在数理层面给出一个稳定、统一的数学模型概括共犯量刑规则。在实践中,基于正犯模板的人工智能辅助量刑系统在面对共犯人的量刑时显得有些力不从心。
如前所述,量刑是一个实体与程序兼具的复合型问题。一方面,量刑的规范化、科学化需要实体法提供明确、完备、合理的量刑规范;另一方面,量刑同样需要满足正当程序的要求,使量刑不仅正确,而且要以合法的、可检验的程序实现正确。然而,人工智能辅助量刑在程序上也会产生与庭审实质化相矛盾、“算法黑盒”缺乏司法透明、人工智能辅助量刑意见难以作为证据使用并进行检验等问题。同时,量刑辅助系统设置裁量比例也有僭越量刑裁量权的质疑。在评价人工智能辅助量刑准确度时,也存在判断标准不明确、不科学等困境。
1.与庭审实质化相矛盾 庭审实质化是目前刑事司法方面正如火如荼推进的重大改革举措。“所谓庭审实质化,是指应通过庭审的方式认定案件事实并在此基础上决定被告人的定罪、量刑。”[21]从规范层面看,庭审实质化要求决定被告人命运的关键阶段应当在庭审活动中,即“审判案件应当以庭审为中心。事实证据调查在法庭,定罪量刑辩护在法庭,裁判结果形成于法庭”(3)《最高人民法院关于建立健全防范刑事冤假错案工作机制的意见》第11条。。过去我国庭审实质化的主要阻碍在于“案卷中心主义”的审判模式,对此,权威研究认为,推进庭审实质化关键在于废弃“案卷中心主义”,落实直接言词原则[22]。学理上,直接言词原则体现在证据原则与形式原则两个方面。其中,证据原则中的直接原则是指“法官以从对被告之讯问及证据调查中所得之结果、印象,才得做为其裁判之基础”[23]117;而形式原则中的言词原则是指“所有发生在诉讼程序中的事项均需用言词表达之”[23]129-130。概言之,直接言词原则要求所有刑事诉讼之行为应以口头作出,排斥庭前与庭外的书面审理;审判者必须亲历诉讼,未亲自审理案件者不得对案件裁判发表意见。
量刑是刑事诉讼中的关键环节,量刑审判也毫无疑问地成为庭审实质化的主要内容,并且接受直接言词原则的约束。禁止以未经庭审辩论、质证的信息与证据作为量刑依据,也禁止没有参与庭审的庭外人员影响量刑决策。然而,在刑事诉讼中,法官若过度信赖乃至依赖人工智能辅助量刑系统,则会形成一个强大的“庭外审判者”左右量刑裁判。虽然在规范上,人工智能辅助系统仅为“定罪量刑的参照”,然而,在对科技深度信赖的当下,这种话语上的“参照”往往会异化为实践中的“奉行”。与此同时,对人工智能的信赖会进一步强化法官对待决案件的“锚定效应”[7],以强烈的司法前见影响法官对具体案件的裁断,甚至还有可能出现算法支配审判的问题。对人工智能的过度期待和正确性误解可能会导致现代法治制度逐渐解构,法官的审判主体地位遭到动摇[11]。
事实上,在过度依赖人工智能辅助量刑的情形下,可以认为,在量刑环节法官实质上部分放弃了刑事审判权,将其委任于人工智能系统。但人工智能系统一方面并不是案件的亲历者,缺乏对案件审理的亲历性,由其进行量刑裁判违反了直接原则。另一方面,人工智能系统的机器学习、算法生成和对于具体案件的判断,完全依靠书面材料的分析,人工智能没有、也不可能以言词审理的方式进行量刑裁判,这又有违言词原则。于是,在量刑领域,不过是从“案卷中心主义”转向了“科技中心主义”,并不能有助于——反而可能阻碍了庭审实质化的实现。
2.“算法黑盒”缺乏司法透明 “算法黑盒”是指人工智能辅助量刑中的算法不具有透明性,其量刑决策生成本质上是一个“黑箱判断”过程,只能控制输入端,然后查看输出端,至于决策程序和数理逻辑则难以呈现。“算法黑盒”与机器学习本身的特性直接相关,机器学习的原理就在于通过不断的数据训练与分析整理,实现对算法的生成与迭代,在不断的迭代中又进一步实现算法的升级与修正,最终生成的算法本身是由机器学习后自发产生的一个模糊决策工具,甚至编制系统的信息技术专家也难以有效阐明算法本身的数理结构。
“算法黑盒”在技术端不是一个问题,甚至还有可能是一种优势,因为模糊决策本身有利于克服数理判断所导致的过分机械化的弊端。但是,在司法应用端,“算法黑盒”的不透明性则成了一个严重的问题。在美国,“算法黑盒”由于缺乏司法透明,被质疑侵害了刑事被告人的知情权和正当程序权利,被告人本应有权检查算法,但却因技术困境而无法实现[24]。更为关键的是,“算法黑盒”的治理,也不能通过所谓的“可视化”加以解决,因为算法本身是一种非线性的模糊决策,难以通过直观可感知的方法予以呈现[2]。
“算法黑盒”问题直接导致被告人及其辩护人难以了解量刑决策的形成过程,继而难以在量刑程序中实施有效辩护,将会带来如下三个方面的问题。
第一,难以实现量刑程序中的辩审互动。自2010年起的量刑程序改革致力于将量刑纳入法庭审理程序,构建“相对独立”的量刑程序,这必然要求量刑辩护与量刑审判的有效互动。正如陈瑞华教授所指出的那样:“在量刑辩护中,律师通常提出本方的量刑信息和量刑情节……从而最终提出对被告人从轻、减轻或者免除刑罚的意见,以说服法院作出对有罪被告人宽大处罚的裁决。”[25]164可是,在人工智能辅助量刑的背景下,一方面,辩护人提出的量刑信息和量刑情节与算法本身所依循的逻辑并无关系,难以得到系统的有效回应与重视;另一方面,法院作出量刑裁决又基本依靠人工智能系统对“类案”的判断,难以实现辩护权与审判权的有效互动,这就很可能实际剥夺了被告人的量刑辩护权。
第二,难以实现量刑中的有效辩护。有效辩护的前提在于对事实的充分了解,刑事诉讼中赋予被告人及其辩护人阅卷权,正是为了保障审判阶段辩方充分获悉资讯,并据以调整辩护方向。但是,如果被告人及其辩护人难以了解量刑决策的依据与原理,也就不可能实现真正有效的辩护。而“提供称职的辩护律师是政府义务”[26]57,如果不能在量刑阶段为辩护人的有效辩护提供必要的信息支持,则或可认为政府没有尽到正当程序的义务。
第三,难以有效保障辩护权的实现。辩护权是被告人的宪法性权利,不容克减。《宪法》第130条规定“被告人有权获得辩护”,这在宪法层面确立了辩护权的基本权利地位。正当程序是辩护权的学理基础,一方面要求国家刑事追诉必须依循严格的规范;另一方面也为辩护权提供了载体,正因“正当程序”不容克减的本质,决定了作为基本权利的辩护权是无法消绝的、绝对不可克减的程序性权利[27]251-254。如果人工智能辅助量刑中存有不可克服的非透明性,必然会减损被告人及其辩护人的辩护权,进而有侵犯被追诉人基本权利之虞。
3.人工智能辅助量刑意见难以作为证据进入刑事诉讼加以检验 人工智能辅助量刑意见显然不属于我国刑事诉讼法规定的任何一种证据类型。
第一,人工智能辅助量刑意见不是鉴定意见,也不是勘验、检查、辨认、侦查实验等笔录。它不是对客观事实的反映,而是基于算法的分析结果;它分析的对象也不是待决案件事实,而是既往案件的审判规律。
第二,人工智能辅助量刑意见不属于电子数据,因为人工智能辅助量刑意见不是静态的、客观的数据本身,它是对既存电子数据、海量判决文书的学习与计算。
第三,人工智能辅助量刑本身不是侦查(取证)行为,它只是司法辅助,所以,它所生成的判断意见自然也就不可能成为刑事诉讼中的证据。
在实践中,不仅人工智能辅助量刑意见存在是否是证据、是什么证据的疑问;在侦查中,利用人工智能技术进行犯罪侦查得到的相关结果、意见和判断同样面临着类似的问题。例如,“基于大数据的侦查行为”的属性与所得材料的法律定位仍存有诸多疑问[28]。刑事诉讼法学界还未能对此作出有效回应。但至少可以确定的是,人工智能辅助量刑所得材料目前暂不可能成为证据出现在刑事诉讼中,也就不可能通过规范化的证据收集、固定、保管、出示、质证、认证等程序进行充分的检验。但是,这种未经充分检验的“意见”却又往往作为“结论”影响量刑裁判,则有侵蚀刑事诉讼中证据裁判原则之嫌。
为了避免科技产品影响乃至主宰司法裁判的质疑与批评,人工智能辅助量刑系统在具体案件中计算出最优量刑结果后,并不强制要求法官遵守,而是赋予了一定幅度的自由裁量空间,供法官酌情处理。具体而言,通常允许法官在系统给出量刑结果的一定百分比范围内予以量刑,这一百分比根据量刑要素的不同,被量刑辅助系统生产商预设为5%~30%之间。学界和实务界对这一比例设置普遍持肯定、接受态度,原因是这一比例符合司法裁判的实际,在量刑裁量权的“放与控”之间达成了科学的平衡。
对此,本文的总体看法是否定的。问题的关键不在于量刑辅助系统设置的自由裁量比例是否合适,而是人工智能系统及其生产商是否有权通过技术化方式限制法官的量刑裁量权。
首先,从法理上看,量刑裁量权的存在是必要的。一方面,量刑裁量权并不与罪刑法定原则相冲突,恰恰是量刑裁量权才使僵硬的刑法条文能够不断适应时代对于打击犯罪的差异化需求;另一方面,罪责刑相一致原则也需要量刑裁量权的保障,现代刑事司法在量刑问题上采取的是个别化、具体化的量刑策略,强调根据犯罪人本身的责任及预防需求,设定不同的刑罚以实现具体犯罪中的罪责刑相一致,这就要求法官享有一定的量刑裁量权以进行精确化的刑罚裁断[29]。
其次,量刑裁量权有多种规范形式。诚然,法官的量刑裁量权并非是无边无际的,相反,为贯彻国家刑罚权的顺利正确行使,裁量权有必要受到某种程度的规范[30]。但是,这并不必然意味着只能通过科技化手段进行限制。相反,正如有研究指出,规范量刑裁量权完全可以采取诸如(1)完善刑事立法和司法解释;(2)制定统一的量刑基准与量刑指南;(3)刑事判例制度化;(4)法官量刑理由展示制度化;(5)建立量刑评价体系和完善法官考评制度等“法内”方式达致[31]。尤其是法官量刑理由展示制度化对于规范量刑裁量权更具实践价值。法官在多大程度上享有量刑的自由并不特别重要,重要的是这种量刑裁量必须通过可以复盘、复检的方式予以记录和展现。易言之,规范法官量刑裁量权的关键在于必须重视对这一裁量权正确行使的过程性论证,而非数学意义上对它予以武断限制。
最后,即便需要在数学意义上对量刑裁量权进行限制,有权的限制主体也并非科技公司。尽管科技公司设定的量刑调整幅度一方面是依据具体的法律、司法解释、指导意见和指导性案例确定的;另一方面,这一比例设定在实践中也得到了普遍的认可。但是,问题在于科技公司是否有权进行这一比例设置?换言之,结果意义上的正确不能论证程序意义上的合法。笔者认为,如果认可科技公司在其交付的面向法官量刑的智能系统中自行设置量刑裁量比例,则实际上是科技公司部分占有了本应由国家司法权力垄断的刑罚权,只有如此,才能理解为何本应由国家司法权力专属的刑罚裁量权,可以被科技公司的产品设定所控制。显然这样的预设是有问题的,一方面,国家无权通过所谓技术改造、信息化建设乃至司法改革的名义,非经法定程序让渡其专属的刑罚权;另一方面,科技公司作为量刑系统生产商,通过技术手段将其量刑主张“暗度陈仓”式地植入系统设定中,严格来看,实有僭越国家司法权力之嫌。
尽管对于人工智能辅助量刑的判断能够进行有效的感知进而加以辩论、 质证, 但是, 也会出现难以对人工智能辅助量刑判断结果进行有效、 合理的科学评价的问题, 以致难以提出具有说服力的质疑意见。
如何评价人工智能辅助量刑判断的正误?技术界与实务界往往使用“偏离度”概念作为评价标准。所谓“偏离度”,就是以人工智能辅助量刑判断结果与“正确的”判断结果进行对比,验证在量刑幅度上偏离“正确答案”的程度。然而,这样的评价标准难谓科学。首先如何确定对比组?即如何确定所谓“正确答案”的组别。在人工智能辅助量刑系统训练时,往往以真实判决作为对照,以检验人工智能辅助量刑系统是否符合真实判决。在实践中,一般以“有丰富审判经验”的法官的判决结果作为对比组,对人工智能量刑结果进行偏离度评价。然而,这样的评判具有一定的局限性。一方面,我们难以确定真实的判决、“有经验”的法官判决就一定是正确答案。在机器学习领域,最大的隐忧在于机器学习需要大量的“数据投喂”,但是,如果用于学习训练的数据本身有错误,则会不可避免地导致算法错误,即“垃圾(数据)进,垃圾(结果)出(Garbage in, garbage out)”。另一方面,我们又如何确定人工智能算法给出的结果一旦偏离人类长期经验判断,就一定是人工智能出错?事实上,人工智能更深度的发展完全有可能改变人类的知识结构,进而带来新的“知识进化”,改变人类长久以来的思维习惯[32]。如果我们评价人类智能辅助量刑不可避免地返回到人类经验本身,那么,为什么我们还要建立这套不如司法传统经验的判断系统呢?显然,这一评价基准存有不可克服的逻辑矛盾。
即便肯定以人的经验为标准可以正确评价人工智能辅助量刑系统的正误,那么,“偏离度”如何测算仍然是一个充满争议的话题。目前,在评价“偏离度”时主要是“量的偏离”(4)如要求人工智能辅助量刑的判断结果的偏离度在若干百分比之下,显然只能进行量的比较而不可能进行质的比较。。即从罚金数量、限制自由时间(刑期)等客观量上进行偏离度评价。可问题是,刑罚不仅仅是量的计算,还有质的计算。首先,刑种之间是难以计算“量的偏离”的。例如六个月的有期徒刑与六个月的拘役,在量的比较上甚至在刑罚本身的执行上都没有太大区别,但是,在刑法意义上却有天壤之别。其次,同一刑种内部由于缓刑的存在,也难以衡量“量的偏离”。比如三年有期徒刑和四年有期徒刑真的只是一年时间的“量”上差别吗?前者可以适用缓刑而后者不可能适用,这一区别可能从“量”上看并不显著,但是对于具体犯罪人而言则是云泥之别。最后,有些刑罚本身不具备“量”的比较可能性。例如,死刑作为剥夺生命的最严厉刑罚,它不可能与任何刑罚进行“量”的比较,事实上也不可能进行“质”的比较。而死刑缓期两年执行也不可能与无期徒刑、有期徒刑进行简单的“量”的比较。
综上所述,由于对人工智能辅助量刑系统的判断结果难以进行科学的评价,这导致对其纠错与救济难以提供有效凭据,直接影响着人工智能辅助量刑在实践中的规范应用,增加了司法错误的可能性。
梳理、分析人工智能辅助量刑在实体、程序与评价上的诸多问题,并不意味着对它的全面否定。事实上,法律人工智能仍大有可为,只是需要进行一定的修正与规范。据前所论,本文提出如下对策建议,以期保障人工智能辅助量刑未来健康、合法发展。
在理论上,由于难以明确划分定罪要素与量刑要素,甚或出现量刑要素重复评价、“二重惩罚”的问题,在人工智能辅助量刑中应予避免。人工智能辅助量刑的逻辑基础在于“类案类判”,其判断思维本身也是在海量案件中抽取最相似案件进行分析,为待决案件提供量刑参考意见。这也就意味着只要有了“类案系统”,也就能大部分实现人工智能辅助量刑的功能。在实践中,如上海“206工程”推出的全国首个智能辅助刑事办案系统,其量刑部分的原理也是自动推送相似案例,有效抓取案件核心要素,为办案人员提供合理的量刑建议。可以看出,人工智能辅助量刑是类案系统应用的一个主要方面,而非独立方面。
依附于类案系统而非独立设置、独立运行的人工智能辅助量刑系统,可以避免重复评价的问题。类案推送本身是对案件定罪与量刑的综合分析,可以满足前述量刑中“乘积式”的非线性思维模式的要求,避免仅仅通过简单区分定罪与量刑、责任与预防进行线性运算从而得出量刑结果。同时,也可以淡化人工智能辅助量刑建议的“锚定效应”,让司法人员的判断重心在于“类案”而非“类判”。类案系统提示的也只是一种概率而非定值,更有助于充分发挥审判者的裁量权。申言之,类案系统最终推送给审判者的并非一个确定的刑罚数值或均值,而是一种全国审判的概率性趋势,意即类似的案件在其他法官那里大概率会如此判决。提示概率相较提示确定值的优越性在于,概率只是一种趋势,趋势本身只能表明一种总体分布状况,而不能证成这一分布的正确性。如前所述,目前人工智能辅助量刑的正误评价还难以寻求科学的判断标准,其正确性仍然存有疑问。此时,不妨转换思维,不再强求人工智能辅助量刑的绝对正确,而只令其提示量刑的概率分布,最终的量刑决策权仍然交由法官独立行使,将作出正确裁判的权力交还给审判者。与此同时,司法人员也要充分意识到,包括人工智能辅助量刑系统在内的所有法律人工智能都只是一个服务者、参谋者和建议者,它只能表达可能的概率而非正确的概率。正确裁判的荣耀与错误裁判的责任最终仍由审判者本人承担。
现有调研资料表明,尽管从官方层面看,人工智能辅助量刑系统只是一种辅助手段,法官仍应充分研判案件,最终量刑裁判权仍由法官掌握。但是,实际上很难如此。一方面,部分司法机关将量刑辅助系统的量刑建议视为“标准答案”,并将其应用于错案追究、司法责任承担等方面,导致司法人员不敢轻易修正量刑系统所给出的结论。另一方面,出于现代人类对科学技术的“迷信”,被视为现代科技前沿的人工智能,它所作出的判断对于司法人员也具有一定的“心理强制力”。
如前所述,将人工智能辅助量刑定位于强制裁判机制是不妥当的。在未来,量刑辅助应重新定位为司法人员的注意力提示机制。
首先,量刑辅助所给出的结论并不具有强制效力,也不应在错案追究中以此为判断依据。在个案处理中量刑辅助仅具有提示性、建议性功能。
其次,在案件裁断上,量刑辅助用以提示司法人员注意其量刑的整体偏差,但这一偏差并不当然意味着当下具体司法裁判的错误。
最后,在具体量刑情节的处理中,量刑辅助用以提示司法人员注意各量刑情节的存在,避免司法人员不当遗漏量刑情节,或对量刑情节作出过分偏离司法常态的处理。
由于目前技术的限制,“算法黑盒”短期内还无法实现有效的透明化,但人工智能辅助量刑与类案系统的应用又不可能按下暂停键,于是,我们必须在现实中寻求技术性的平衡。确立人工智能辅助量刑应用的可识别性与商谈性,为暂时性地解决“算法黑盒”困境提供了一种可能路径。
可识别性与商谈性就是强调在刑事审判中,如果意图使用人工智能辅助量刑,则必须提示刑事诉讼中的当事人——尤其是被告人及其辩护人,并且征得他们的同意。换言之,是否使用人工智能辅助量刑,一方面必须令诉讼双方可识别;另一方面,在可识别的基础上,决定是否使用人工智能辅助量刑的权利应当由诉讼当事人而非审判者享有。在司法实践中,由于公诉机关也大面积使用人工智能辅助量刑系统,借此生成量刑建议。而公诉机关和审判机关的系统底层设计往往一致,双方的量刑结果可能具有高度重合性,可以预见公诉机关对于是否使用系统量刑不会产生太多质疑。但从审判参与的角度看,量刑后果的实际承担者是被告人,因此,从程序权利合理分配的角度看,决定是否使用人工智能辅助量刑的权利主要应由被告人享有。在规范层面,首先,公诉机关在使用人工智能辅助量刑系统生产量刑建议时,应当向被告人及其辩护人告知,让他们能够充分了解系统量刑的可能结果。其次,在审判中,如果法官希望使用人工智能辅助量刑系统,应当告知被告人及其辩护人,他们享有使用与否的决定权。最后,对于不认罪的犯罪嫌疑人、被告人,一律不得预先使用人工智能辅助量刑系统,必须先进行罪与非罪的判断后再进行量刑,以免法官受到不当信息的干扰,避免出现“以刑制罪”的情形。
由于可能存在人工智能辅助量刑错误,故必须确保对它的可救济性。换言之,就是必须建立规范化的纠错机制以发现并纠正人工智能辅助量刑可能出现的错误。规范化的人工智能辅助量刑救济措施应当包括以下内容:
首先, 在刑事审判中如果使用人工智能辅助量刑, 必须记录在裁判文书之中, 并且阐明裁判者依据系统作出量刑裁判的心证过程。 不得以简单的“系统告诉我怎么做, 我就怎么做”的机械思维进行量刑, 也不能以任何理由不对量刑进行裁判说理。 如果能阐明量刑系统原理和推送的参考类案, 应当将系统原理和以供参考的类案一并附录于裁判文书之中, 供被告人、 辩护人及救济程序中的审查人员复核检验。
其次,必须载明所使用的人工智能辅助量刑系统及其开发商,在对量刑系统的科学性产生合理怀疑时,可以通过鉴定或专家辅助人的方式对系统原理进行查验、质询和作证;系统开发商有义务对其量刑系统的工作原理、逻辑和科学性提供证明,以免部分技术精英有意牵引司法运作,企图重塑我国司法权力分布[7]。同时,建立法律人工智能企业“黑名单”制度。对于开发不合格法律人工智能系统、导致冤假错案等严重后果发生的开发商,除追究系统开发商相应责任以外,还应将其载入“黑名单”,全国司法系统在一定时期内或永久不再采购该开发商的产品。
最后, 被告人可以就不合理使用法律人工智能系统提出专门的二审审查请求; 同时, 也应当将“可能存在不合理使用法律人工智能系统的情形”列为刑事再审事由, 在相应的救济程序中予以审查、 救济。