摘要:近年来,司法裁判活动中“案多人少”“同案不同判”问题日益突出,融合法律要素的生成式人工智能技术迅速发展,推动生成式人工智能在辅助量刑方面的司法应用,成为推进量刑规范化改革的一个新方向。然而,由于现行技术的不完善、相关机制的限制等原因的存在,其应用过程中易出现机械化量刑、量刑不透明性等问题。为了实现生成式人工智能在司法裁判领域的深入推广与运用,应当通过分析其潜在风险,有针对性地提出解决方案。
关键词:人工智能;辅助量刑;ChatGPT
中图分类号:F2文献标识码:Adoi:10.19311/j.cnki.16723198.2024.19.009
1问题的提出
“生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术”,即是以算法为基础,利用对大数据库的自主运用和学习,自发形成创新性成果的新兴人工智能。其具有类人化“思考”的能力和自我创造性的特质,对人类的生产生活各个方面都有重要的作用。同时,由于高精尖技术46bb5669e0dac8da280dfb85af3de6825bc938a266eb5c4beda37533f5ad55a7的不断研发、国家出台法律法规的规制以及社会公众的期待,其未来的发展也拥有良好的前景和充分的条件。
《生成式人工智能服务管理暂行办法》于2023年8月15日起正式施行,其指出运用生成式人工智能所应服从的规定,起到规范公众行为和促进其健康发展的效果。近年来,生成式人工智能引入司法裁判已有先例,其在类案推送、立案偏离度预警等方面具有良好的辅助司法判决的功能。此外,生成式人工智能技术在司法量刑实践中使用已略有涉猎。
生成式人工智能辅助量刑是指生成式人工智能技术融合司法大数据库资源,对其中各类典型案例进行整合、分析,通过系统自主探寻其中法律原理和规律,最终自动导出裁判结果,以达到量刑预测效果。现今社会环境日趋复杂化、人民群众司法意识逐渐增强等因素的出现,造成诉讼案件数量逐年增加,而司法工作人员数量的有限性导致“案多人少”这一问题逐渐凸显。由此可见,生成式人工智能技术应用于辅助司法系统办案的优势作用更为明显,尤其在量刑层面可以克服人脑的限制性,使得出的量刑结果更合理适当。
目前,国际司法界在人工智能辅助司法系统上正在不断精细化、规范化发展。如在哥伦比亚一法官运用ChatGPT作出法律裁决,其中是将法官自己的见解包括其中,通过ChatGPT进行拓展,首次承认ChatGPT在辅助量刑上的作用。随着“科技强国”战略的不断发展加深,我国在司法审判中也逐渐引进生成式人工智能技术。2023年11月22日,我国江苏省高院作出了同意苏州市中院开展生成式人工智能辅助办案系统试点建设工作。由于生成式人工智能本身所固有的对信息处理的准确性、迅速性等特性,以ChatGPT为代表的生成式人工智能在刑事司法领域的推广应用,有助于推进“同案同判、类案类判”,并能够为提高司法治理质量与效率、推动司法改革注入新能量。鉴于相关技术亟待发展成熟,在其应用过程中可能出现的挤占法官司法裁判权、量刑可解释度不高、与传统量刑模式融合难等问题,易导致大众对生成式人工智能引入司法裁判体系产生隐忧。这些现实风险成为生成式人工智能辅助量刑深入渗透于司法判案程序的阻碍要素。如何恰当地防止生成式人工智能辅助量刑的法律风险发生,并在应用该项技术时有效维持司法秩序是法律界需要重视的一个问题。
2生成式人工智能辅助量刑的应用风险
生成式人工智能是人类智慧的重要结晶,其在司法中的广泛运用表明其发展已受到司法界的普遍肯定和期望,也是推动司法改革的一股强大力量。但它的应用是一把“双刃剑”,其存在诸多优势的同时也存在不足之处。由于生成式人工智能技术仍处于初步发展阶段,且司法领域已在长久实践中形成较为稳定的司法运行模式,使生成式人工智能辅助量刑系统天然地处于“辅助”地位,而不是“主导”地位,其深度利用具有诸多潜在的风险和未知的挑战。
2.1量刑过程非公开化
非公开化风险主要表现在生成式人工智能量刑辅助系统自动化运行过程存在不透明性,导致量刑过程无法为当事人及其他人员所知悉。从以往人工智能辅助量刑司法实践上看,量刑过程的不公开性易造成控辩双方无法有效地对该过程进行监督,也无法预测相应的量刑结论。被诉方在此情形下不能及时提出辩护意见,其合法权益不能得到正当保护。法官受到专业技术的制约,其无法清楚判别系统得出的结论是否带有歧视与偏见。由于开发该量刑辅助系统需要较强的专业性,因此研发团体主要是相关科技企业中的技术人员。司法机关及其他工作人员对其中核心决策机制没有深度认知,也无法对该辅助量刑系统内部运作形式进行有效监管。审判公开是我国司法裁判中的基本原则之一,而量刑作为审理案件的一部分也应公开。生成式人工智能作出量刑预测过程非公开化与量刑公开原理相违背,不利于公众保持对司法的认可度和信任度。同时,生成式人工智能在量刑过程中运用数据的不公开性可能导致某些相关个人信息被窃取而无法明确得知,进而产生司法信息泄露和不法利用隐患。
在生成式人工智能辅助量刑投入应用可行性探究上,对算法的规制属于关键要素,而“算法黑箱”的普遍存在是核心问题之一。“算法黑箱”是指指令在运作过程中因其操纵控制者的设定、行业规则的制约而使它内部工作形式、实质流程等信息不得为外部所知。在生成式人工智能量刑算法运行中,由于保护知识产权和商业秘密的必要性,相关系统设置和现行机制具有不透明性的特质,致使“算法”本身具有一定的隐蔽性并体现于“算法黑箱”之上。在现行司法改革中,要求确保量刑公开,即量刑的事实、理由和过程应予公开。而在算法规则保密和技术壁垒存在的情形下,生成式人工智能量刑辅助系统最终得出的是量刑结论,并不会将量刑过程予以公开。如何规制非公开化算法运行与公开司法裁判之间的关系,属于法律界专家学者需要深化研究的一项问题。
2.2司法裁判过于程式化和僵化
生成式人工智能量刑辅助系统介入司法实践虽极大程度提升了司法裁判的客观性、准确性,但也不可避免地造成量刑灵活性的缺失。生成式人工智能通过分析以往案例和汲取历史经验形成系统的一套“量刑标准”,并依据此指导量刑进程和作出价值判断。因中国各地区法治建设与经济发展的不均衡性,不同地区法院的法官在判案时应根据当地实际情况做出相应调整。而在该辅助量刑系统推广过程中,其推行的“量刑标准”可能无法保障实现实际意义上的司法公正,只是体现了程序正义。同时,也不能展示法官裁决时所含的人文关怀和法律的温度,而只能得出单一化、格式化的量刑结论,这显然不能赢得社会公众对此种判案方式的理解与信任。另一方面,该量刑辅助系统缺乏释法说理的能力,对于重大复杂疑难案件则不能给出相对应的法理解释,司法说服力有所欠缺。
法官等司法工作者在判案过程中,所依靠的理论依据和实践方法是他们头脑中丰富的法律知识储备、价值理念形成的。在遇到个案中区别于其他案件的量刑疑难问题时,他们可以利用自身经验并结合案情和当事人双方的意见做出灵活判断,同时也会考虑到案件社会影响力大小而进行权衡。而我国生成式人工智能辅助量刑尚处于“弱人工智能”阶段,仅仅是根据已有模式生成文本内容,缺乏“人脑”此等精细的抉择历程和理解思索能力。其只能通过其内置工作原理对司法大数据进行整合,以寻找最优解。此种单线的选择方式可能在生成式人工智能技术发展水准有待提升的情势下,导致审判结果僵化。且由于现行科技发展水平的限制,生成式人工智能尚不能在系统内对某些特定化、复杂化量刑情节做出十分恰当的处理。其在生成量刑结论上的逻辑性、整体连贯性等方面仍需改进,即缺少人类思考中的独有的创造力和伦理道德映照。这将使量刑标准公式化、量刑建议机械化,不利于保障司法上的实质正义,对推进量刑规范化改革也会产生一定阻碍。
2.3法官判决过度依赖
在司法审判过程中,法官独立行使审判权既是诉讼特性的重要体现,也是现代法治社会的必然要求。确保法官在司法裁判中处于主体地位是保障司法公正的要素之一。而在生成式人工智能技术的应用下,法官可能会对量刑辅助系统给出的量刑结果产生过度依赖,未经深度思考而适用该量刑建议。这易导致生成式人工智能辅助量刑地位发生异变,无疑是对法官主导裁判权的巨大挑战。其次,生成的量刑建议属性尚未明晰,法官可能因此不对辅助量刑建议进行查证和质疑,而更倾向于直接适用生成式人工智能的决策结果。在此情形下,法官可能会过多利用生成式人工智能辅助量刑而减少自身思考与判断,进而降低运用专业知识断案频率。同时,裁判文书中说理性趋向淡薄,长此以往易造成法官审判和说理能力的降级,引起判案错误率上升和文书格式化问题显现,从而引发当事人以及社会公众对司法判决准确率与实质公正性的质疑。
生成式人工智能辅助量刑系统相比于法官在量刑过程中办案效率更高,操作也较为便捷,且其相较于其他人工智能系统拥有更强的处理能力。现今“案多人少”问题日益突出,导致法官审理案件压力增大,且法官在非审判环节事务性工作繁琐,使得法官疲于应对。而生成式人工智能辅助量刑系统凭借高度拟人化学习与数据处理能力等优势,其广泛应用显著降低了司法工作压力。法官出于高效审判案件的需要,可能大幅度提高对智能量刑系统的运用,或直接以智能量刑结果替代其量刑具体理路。同时,由于生成式人工智能量刑辅助意见的法律性质仍未得到清晰定位,在量刑预测意见生成后,法官不一定会将其纳入司法审查的范围内,而是直接将其作为量刑参考的一项指标。虽然最终量刑决策由法官作出,但还是会对其从事量刑活动产生“锚定效应”的影响。为保障法官在量刑中的实际主导作用和司法工作团队的专业水平,防范判案者对智能量刑系统出现依赖是亟待解决的一项法律问题。
2.4量刑结论存在偏差
量刑建议精准化既是贯彻落实司法诉讼制度改革的重要内容,也是认罪认罚从宽制度的必然要求。但在利用生成式智能量刑系统过程中,某些现实因素的存在可能会导致算法运行结果与司法工作者、当事人与社会公众预期不一致,即使量刑结论偏离了大众可预测的范围。这会使社会的公正尺度受到影响,人民群众会因此质疑量刑公正性和司法机关权威性,损害司法公信力。
生成式人工智能生成的内容主要取决于输入的训练数据以及技术人员创建的算法,而这些依据可能会成为引发量刑出现偏差的因素。首先,由于审结案件在裁判文书上公布的不完全性和各地法院自行建设数据库时间的短暂性,导致现阶段司法大数据储备具有不完备性的特征。此外,司法大数据所反映的裁判文书未必能够真正体现法官判案过程内心实意。上述问题会造成数据的匮乏与低质,进而对生成式人工智能量刑辅助系统学习数据信息并输出结论产生不利作用。其次,数据库所含的内容有限,即生成式人工智能系统学习对象是有限的。同时,生成式人工智能技术尚处于不成熟阶段,其生成的结论无法涵盖所有裁判中可能发生的情形。生成式人工智能是通过学习历史司法经验来得出的量刑预测结果的,在一定程度上具有滞后性。当政策等客观情况发生较大变化时,对于量刑结论可能提出新的要求,这将导致系统的量刑结论与实际需求产生差异。此外,生成式人工智能从算法设计起至投入运行使用的过程中需要设计者的参与。但其带有主观性的评判标准会渗透于算法之中,对量刑算法的逻辑体系产生本质影响,最终使算法歧视性问题显现,由此导致量刑建议的不公。如何规避生成式人工智能技术后续应用的算法偏见风险是其推广过程中所应解决的一项重要问题。
3生成式人工智能辅助量刑的规制路径
3.1增强量刑透明化
量刑过程非公开化可以着重从“算法暗箱”方面入手解决。首先,量刑过程并非是完全客观的。辅助量刑算法需要算法方程等与原始数据两个对象。一方面,必须保证数据来源的丰富、及时、典型。裁判文书网作为主要的数据库,目前上传裁判文书数量与实际结案数量有较大差距,且各省案件公开情况也参差不齐。改变这一情形需要加强法官上传裁判文书的主动性与规范性,同时,也需要各地法院加强对裁判文书的筛选,避免出现不应出现的错误,保持数据来源的典型性。一方面,需要对算法技术进行“解释”。算法方程、算法技术等属于专业水平较高的领域,全部公开化透明化会很大程度上损害企业的利益。然而,不公开的情况下,不同的算法结构可以反映不同技术人员的主观想法,破坏了量刑结果的公正性与司法裁判的公开性。因此可以借鉴域外的一些做法——美国计算机协会下属美国公共政策委员会发布《关于算法透明性和可问责性的声明》,“应当在系统开发和部署的每个阶段应用算法透明和可问责性的原则”,即对于算法过程、数据做出记录,对相关算法决策与方法进行解释。要求所有人对于理解算法技术,并对其公正性作出判断具有较高的难度,因此要求系统开发和部署的各个阶段作出解释,并且解释是普通人可以理解的含义,兼顾解决了算法技术的不透明性与裁判结果的不公正性。除此之外,做出相应记录,也有利于相关监管部门进行监督和问责。
3.2推动量刑结果灵活化、个性化
解决司法裁判结果过于僵化和程序化这一问题,可以从量刑技术手段和法官自由裁量权两方面解决。从技术手段角度上来看,可以将生成式人工智能辅助量刑系统运用在不同案件、案件的不同阶段上。对于事实清楚、证据链条清晰完整的案件,可以运用辅助量刑系统进行裁判,由法官对结果进行确定与进行解释。在案情复杂、社会影响重大的案件上,可以考虑借鉴刑法中“量刑方法分段构建”的相关方法。即从起始阶段判断法定刑与处断刑,法定刑案件在这一阶段可以由人工智能系统进行判断,而处断刑需要在法定刑基础上进行判断,影响因素较为复杂,需要法官介入;在量刑发展阶段,决定量刑起点是影响量刑结果的重要因素,也是决定量刑结果个性化的关键环节,这一阶段主要依靠法官的专业能力,但也不排除人工智能的作用,可以为缺乏经验、专业能力稍弱的年轻法官提供参考。这一方法,使得生成式人工智能辅助量刑系统与法官判案有机结合,在提高量刑效率的同时,也兼顾了我国各地区经济发展不同和法治建设水平不同的现实因素。
除上述意见外,基于生成式人工智能的量刑结果缺乏司法逻辑以及不能给出具有说服力的司法解释的弱点,在分段构建的基础上,由法官进行宣告刑的最终确认以及给出对结果进行逻辑性、连贯性的解释。以此实现司法审判的实质正义,促进规范量刑化改革发展。
3.3落实司法责任
为了避免法官对生成性人工智能的裁判结果过于依赖,导致脱离了司法裁判的实质正义,以及法官在司法审判中的主导地位,需要明确落实司法责任。人工智能辅助量刑介入量刑过程,不管是否处于主导地位,都势必会影响法官在司法审判中的主导地位,损害法官的自由裁量权。为了确保法官的主体地位,防止法官对生成式人工智能运行没有充分了解而盲目信任裁量结果,必须确保司法裁判始终由审判人员作出,裁判职权始终由审判组织行使,司法责任最终由裁判者承担。一方面,法官必须亲身参与审判过程,对案件情节、证据熟悉掌握,并且充分保障诉讼参与人各方的程序性权利,了解量刑过程。一方面,法官必须对宣告刑负责,不管是因为法官自身疏忽或专业能力不足,还是因为生成式人工0fb7f5d274a4bcc0fc57c1c5ca97cb33智能辅助系统出现错误导致的宣告刑错误,都应该由法官对量刑结果承担责任。诉讼参与人有权选择是否利用司法人工智能提0fb7f5d274a4bcc0fc57c1c5ca97cb33供的辅助,有权随时退出与人工智能产品和服务的交互。意在强调人工智能在司法审判中的辅助工具作用,司法责任由裁判法官承担。此举也有利于促进法官决策与人工智能数据融合,在辅助系统作出统一化与规范化的量刑建议的同时,法官也不能完全依赖于数据决策,不能忽略案件的个性化与特殊性。
3.4减少量刑结论偏差
量刑结论的偏差往往与数据质量数量、辅助系统学习滞后性以及算法技术人员主观差异有重要关系。首先,需要提高数据来源的质量,丰富数据内容。对于数据进入的门槛,应当审慎监管,避免筛选非公平正义的数据进入辅助量刑系统,从数据来源上确保量刑结果的准确性。同时,我国裁判文书上传面临数量少、地区数量质量差异大的现状,应当提高法官公布裁判文书的积极性,规范裁判文书书写规范。其次,生成式人工智能所获取的学习对象是过去的司法经验与审判案件,即便其可以预测出未来的审判趋势,也难以将案件的个性化与新司法审判思想结合。需要法官在辅助量刑系统得出的裁量结果之上,结合现实情况作出更正与修改,以求得到最佳结果。
需要加强算法设计人员与数据处理人员的道德素质与法治观念。量刑过程中算法设计带有主观性,数据进入的筛选也掺入了工作人员的个人思考。因此,想要实现生成式人工智能辅助量刑系统的量刑结论偏差减小,从加强工作人员素养这一源头上解决,将卓有成效。
4结语
生成式人工智能时代到来是必然的趋势,辅助量刑系统进入司法审判领域将带来极大的好处。然而,在此之前,我们同样需要思考适用生成式人工智能带来的风险,提出可实行的防范措施。特别是对司法公正带来的威胁,要以更加充分和审慎的态度去解决,以实现公平公正和提高效率的双重得利。目前我国智慧法院建设如火如荼,人工智能的引入是智慧法院建设重要成果与亮点,需要更多理论研究与实践研究,为生成式人工智能辅助量刑注入更多的动力。
参考文献
[1]丁道勤.产业链视角下生成式人工智能的竞争法规制研究[J].西北工业大学学报(社会科学版),2024,(01).
[2]王译,朱琳.人工智能辅助量刑的现实风险与完善路径[J].昆明理工大学学报(社会科学版),2023,(03).
[3]丰怡凯.人工智能辅助量刑场景下的程序正义反思与重塑[J].现代法学,2023,(06).
[4]林家红.人工智能辅助量刑的风险及其防范[J].河北科技大学学报,2019,(04).
[5]张玉洁.人工智能辅助量刑的法律风险与制度建构[J].学术交流,2023,(03).
[6]胡馨匀.人工智能辅助量刑的法律问题研究[D].重庆:西南政法大学,2021.
[7]石经海,骆多.量刑过程视角下量刑方法分段构建研究[J].中国刑事法杂志,2015,(01).