齐 伟
(沈阳工业大学,辽宁 沈阳 110870)
智慧法院建设是法院信息化建设的重要内容,是国家信息化发展战略在司法体系中的重要体现(1)参见柯宇航:《人工智能在劳动仲裁中的应用前景——以智慧法院建设实践为借鉴》,载《时代法学》2020年第4期,第25-32页。。自2015年最高人民法院率先提出“智慧法院”的概念后(2)2016年1月,最高人民法院院长周强对建设“智慧法院”提出要求。同年7月和12月,中共中央办公厅、国务院办公厅印发的《国家信息化发展战略纲要》以及国务院印发的《“十三五”国家信息化规划》中,将建设“智慧法院”列为下阶段国家信息化发展战略,推动了人工智能技术在智慧法院建设中得到了广泛应用。,短短几年间,人工智能已经从诉讼服务领域扩展到案件管理、数据检索、辅助审判等领域,甚至已经触及到司法的核心——辅助裁判。2021年《中国法院信息化发展报告No.5(2021)》的发布,再次肯定了人工智能在司法领域应用的必要性,以及“AI审判”的强劲价值,但同时也对人工智能参与司法审判的限度保持了警惕。在这一背景下,从人工智能的司法应用出发,以刑事审判中量刑裁判为切入点,探讨刑事审判中人工智能辅助量刑的价值、定位及风险防控,解决算法的非可视化和可能潜在的算法偏见等问题,对于全面推进智慧法院建设、保证司法公正、实现司法信息化都具有十分重要的现实指导意义。
人工智能(Artificial Intelligence,简称AI)(3)1956年美国学者约翰·麦卡锡,在达特茅斯大学首次提出“人工智能”的概念,其最初目的是模仿人类大脑的智能,帮助人类把错误降到最低。是与计算机相关的一门学科,简单地说,就是开发模拟人类智能的系统或者技术(4)参见陈思桐:《刑事审判中人工智能的进与退》,载《汕头大学学报(人文社会科学版)》2019年第4期,第72-80页。,通过建立最接近人类认知水平的智能模型,模拟人类的预测、学习、推论和沟通等活动。经过数十年的发展,人工智能从最开始的符号识别与计算,到可以自主建立思维逻辑公式(5)参见龙飞:《人工智能在纠纷解决领域的应用与发展》,载《法律科学(西北政法大学学报)》2019年第1期,第49-60页。,实现了“符号计算”→“模块识别”→“专家系统”向“人工神经网络”的飞跃,已经广泛应用于工业制造、能源化工、新闻媒体、医疗服务等行业和领域,不断引领和推动着社会生产和社会服务的创新和变革。
2017年国务院发布的《新一代人工智能发展规划》,对人工智能在司法实践中的应用提出了新的要求,即通过人工智能技术推动实现法院审判体系和审判能力的智能化(6)参见左卫民:《关于法律人工智能在中国运用前景的若干思考》,载《清华法学》第2018年第2期,第108-124页。。如今,人工智能不但在法律信息检索、文本自动化生成、庭审语音识别、裁判预测等方面取得了很好的效果,而且能够通过对各种数据的深度分析与智能运算,对以往裁判中的争议焦点和法律要素进行梳理,为法官提供量刑方面的参考,促进刑事裁判的统一。同时,人工智能的推广与应用也将给刑事审判带来全新的挑战。一方面,人工智能融入刑事审判无法克服数据本身的局限性,即使再精密的计算也无法辨别案件的复杂程度和分析判断证据能力大小,不能进行合理的证明责任分配,不符合司法程序所要求的裁判者亲历性要求(7)See Edwina L.Rissland,Kevin D.Ashley,R.P.Loui,“AI and Law:A Fruitful Synergy”,12 Artificial Intelligence,(2003) pp.1-15。;另一方面,我国人工智能正处于“弱人工智能”阶段,尚未达到自主学习的“强人工智能”阶段,需要依赖于以数据为基础的算法运行来进行深度学习,多数情况下仅体现了统计、文字模版的价值,仍处于一种机械式作业的状态。司法审判要达到理想的智能化审判的状态,还有很长的路要走(8)参见吴习彧:《司法裁判人工智能化的可能性及问题》,载《浙江社会科学》2017年第4期,第51-57页。。但人工智能律师(Ross)的出现,为实现司法审判智能化提供了可能。(9)参见张富利,郑海山:《大数据时代人工智能辅助量刑的定位、前景及风险防控》,载《广西社会科学》2019年第1期,第92-102页。既然人工智能嵌入司法裁判势不可挡,分析刑事审判中人工智能辅助量刑的价值与定位,针对潜在的不确定风险进行有效防控,是当前推进智慧法院建设、促进司法智能化的重要议题。
司法实践中,受传统同案同判理念影响,许多法官机械地倡导量刑科技化而排斥行使自由裁量权,严格依据同类案件的裁判结果进行程度相似的裁判,以防止同类案件量刑不一带来的“司法不公”,即“同案同判”。法谚云:“类似者未必等同”。现实生活中,严格意义上绝对相同的“同案”并不存在。因此,对于类似案件的不同审判结果并非全部不合理,恰恰体现的是个案正义。司法审判的过程是一个将抽象的“法条”适用到具体案件的过程,法官必然需要考虑到案件的具体事实和个案的特殊性,避免出现机械化的量刑,从而让每个人在每一起司法案件中感受到公平和正义(10)参见倪震:《量刑改革中“机械正义”之纠正——兼论人工智能运用的边界及前景》,载《江西社会科学》2018年第2期,第192-200页。。
运用人工智能辅助量刑能够矫正机械量刑,改变以往“估堆式”量刑模式,从而推动量刑规范化改革。其一,能够避免量刑科技化。量刑科学化指以司法数据信息为基础,学习掌握量刑的一般规律和基本的经验,以此来规范量刑活动。与量刑科学化相对的是量刑科技化。量刑科技化需要完全依靠现代信息技术,像自动“售货机”那样,运用预先编制的电脑程序来机械量刑。量刑科技化不等于量刑科学化,具有深度学习和思考能力的人工智能,可以促进量刑向科学化迈进(11)参见张富利,郑海山:《大数据时代人工智能辅助量刑的定位、前景及风险防控》,载《广西社会科学》2019年第1期,第92-102页。。其二,有助于避免量刑的具体化。2010年推行的量刑规范化改革(12)为了规范法官的量刑裁量权,统一法律适用标准,最高人民法院从2010年开始推行量刑规范化改革工作,先后发布了《人民法院量刑指导意见(试行)》(2010)、《常见犯罪的量刑指导意见》(2017)等量刑指导性意见,对常见罪名的量刑幅度进行细化。近几年,量刑规范化改革为适应信息时代发展的需要,将司法大数据与信息技术有机融合,探索构建全国法院量刑智能辅助系统,建立全国法院量刑数据库,促进量刑活动的智能化现代化。,出台了一系列量刑指导性意见,对规范量刑程序和量刑幅度、保证统一法律适用产生了积极作用,但却难以避免量刑的具体化。首先是量刑指导意见涵摄不足,只是针对一些常见罪名的量刑适用进行规定,并未全部包含实务中所有罪名涉及量刑的问题。在司法实践中,许多法官为减少承担个人责任的风险,选择完全机械化地按照量刑指导意见进行案件审判,即使发现适用量刑指导意见会导致个案中量刑不当的问题,仍然不愿意突破量刑指导意见明文规定的范围。借助于人工智能辅助量刑系统,法官能够得到司法裁判观点作为参考,从而突破量刑具体化的困境。其三,人工智能辅助量刑系统能够避免过于追求同案同判而忽略个案正义的现象发生。对刑事案件进行量刑时不能仅凭借一个方面的事实或者部分事实,必须要考虑方方面面的事实,才能做到真正的罪刑统一、量刑平衡。运用人工智能辅助量刑,法官仍然居于司法审判中的主体地位,有利于法官发挥其自身的主观能动性。
鉴于人工智能可以实现一定程度的自动化,从而解放人类的双手和头脑,有时甚至无须人类进行引导和配合,这令不少人产生了恐慌,担心会导致相对应领域内的员工大量失业。英国著名的物理学家霍金先生就曾预言,“人工智能的发展可能意味着人类的灭亡”(13)参见潘庸鲁:《人工智能介入司法领域的价值与定位》,载《探索与争鸣》2017年第10期,第101-106页。。随着人工智能从初级向高级乃至更高阶段的发展,司法领域的工作人员也不同程度地出现了职业危机,担心“智能裁判”终究会取代法官裁判,法官的职业也将被人工智能所替代。其实,基于司法审判工作的复杂性和系统性,人工智能的发展始终无法突破自身的局限,人工智能无论如何都无法完全取代法官。
自2006年全国首个智能量刑系统问世以来,四川、河北、北京等地人民法院先后推出“纠纷化解一体化平台”“智审系统”“审判智能辅助系统”等平台(14)2006年,山东省淄博市淄川区法院研发了全国首个人工智能量刑系统。随后,我国一些试点法院也相继推出了类似的量刑系统,其中较有代表性的是上海法院研发的“上海刑事案件辅助智能办案系统”即“206工程”。研发“推进以审判为中心诉讼制度改革—上海刑事案件智能辅助办案系统”,是中央政法委于2017年2月6日交办上海的重大任务(“206系统”是以2月6日确定的简称)。。2017年最高人民法院正式立项,推动全国范围内量刑规范化智能辅助系统建设。这一系列举措表明人工智能的技术水平已经达到一定高度,但是截止目前人工智能系统均仅仅被定位于辅助司法的手段。这里所谓辅助司法手段的地位主要基于以下三个方面的考量:
首先,人工智能是人类智慧的结晶。深度学习是实现人工智能的重要基础,也是人工智能的重要特征之一。人工智能对事物的认知、推理和学习,完全依赖于设计者预先设计的程序和模型。人工智能终究是“人工”而不是“人类”。2017年的人机围棋大战中,代表人工智能围棋的AlphaGo分别战胜了世界冠军柯洁和李世石,看似人工智能战胜了人类头脑,实则是人类智慧的胜利。“人工智能”战胜“人脑”的背后,是设计者大数据技术和算法计算技术编辑的胜利,是设计者的胜利而非AlphaGo(人工智能)的胜利。
其次,人工智能对法官审判工作仅能提供片面性的帮助。人工智能的识别能力远高于其判断能力。在司法领域,人工智能可以协助法官检索相关法条及同类案件,可以经过数据分析后,对案件结果进行预测。但是对于证据的判断及采用、判决结果的选择等决断性的问题却无能为力,仍需要法官本人来控制(15)参见潘庸鲁:《人工智能介入司法领域的价值与定位》,载《探索与争鸣》2017年第10期,第101-106页。。人工智能无法独自实施司法审判活动。刑事审判涉及庭前会议、证人出庭等多个环节,需要由法官控制诉讼活动的进度,并通过听取控辩双方意见、判断双方提交证据的证明力和审查被告人言词等司法活动获取内心确信,从而进行公正的裁判。
再次,法官作为中立的裁判者,除法律专业知识外,还要掌握经济、政治、哲学等方面的非专业知识,并要拥有一颗仁爱之心,通晓情理(符合社会道德观念和广大人民群众审美习惯的人情事理)。法官在进行裁判时,要凭借自己的生活经验,结合法理、常识和情理进行必要的创新。而处于弱人工智能阶段的人工智能系统只能按照既定的程序和数据库来选择法律适用,根本无法具备或复制法官这种非专业知识的生活经验和情理,无法实现有温度的公正裁判。
深度学习作为人工智能的核心,是人工智能与计算机技术的根本区别,需要依赖于以数据为基础的算法规则的运行,对纷繁复杂的数据进行高效处理和分析,以解决现实生活中存在的难题。将人工智能应用于司法裁判中,实则是运用算法进行司法裁判(16)参见侯晓燕:《人工智能在参照援引指导性案例中的应用及其完善研究》,载《西部法学评论》2019年第3期,第36-45页。。算法裁判主要有两方面优点。一是客观性。借助于算法裁判,能够减少外界包括个人主观情感因素和其他因素对裁判结果的干扰,能够更好地保证裁判的中立性。二是高效性。效率是信息化建设追求的目标之一,也是人工智能的重要特点之一。大数据技术和算法技术可以替代人工检索及人脑计算,把人类从繁杂的重复劳动中解放出来,在司法裁判中亦是如此。人工智能技术的运用可以有效节省司法资源,在一定程度上解决“人少案多”的矛盾。贝克在《风险社会》中指出,“任何新兴技术的诞生与运用,在给人们带来机遇与便利的同时,也可能产生风险与制造挑战”(17)参见乌尔里希·贝克:《风险社会》,何博闻译,南京:译林出版社2004年版,第39页。。目前,人工智能应用于司法裁判虽然能够很好地保证司法裁判的客观性和中立性,提高司法审判效率,但是“算法裁判”仍处于初级阶段,还存在算法所需的数据提取困难、潜在的算法歧视和偏见、算法运行缺乏透明度等问题,可能给人工智能辅助量刑带来不确定性的风险。
实践中,由于“案多人少”矛盾的存在,每个法官都需要处理大量的案件,导致其审理每个案件的时间十分紧张而有限。人工智能系统可以为法官提供准确性较高、可操作性强的算法结果。如果把算法比作一辆汽车,数据就是为汽车提供动力的燃料。也就是说,必须要有足够多且质量足够好的数据,才能保证算法结果的准确性。我国当前的司法数据系统尚不能满足人工智能辅助量刑系统所需数据的要求,主要体现在以下两个方面。首先,司法数据的数量不足。算法技术需要大数据支撑,人工智能辅助司法的“算法裁判”必然需要司法大数据的支持。当前,我国司法大数据建设主要依赖于裁判文书网的数据来推进(18)《最高人民法院关于人民法院在互联网公布裁判文书的规定》(2016)明确规定,最高法院在互联网设立中国裁判文书网,统一公布各级人民法院的生效裁判文书。参见高鲁嘉:《人工智能时代我国司法智慧化的机遇、挑战及发展路径》,载《山东大学学报(哲学社会科学版)》2019年第3期,第115-123页。。截至2020年8月,中国裁判文书网上传文书已经超过1亿篇。但是,由于各地执行的尺度标准不同以及法院信息化建设的地区差异等原因,网上裁判文书公布的数量极为有限。根据学者对中国裁判文书网所公开文书年份的调查研究表明,同一年度网上公开的裁判文书数量仅占该年度全国法院审结案件总数的一半左右(19)参见马超,于晓虹,何海波:《大数据分析:中国司法裁判文书上网公开报告》,载《中国法律评论》2016年第4期,第195-246页。。其次,我国既有的司法数据来源单一,整体质量较低。依托中国裁判文书网所建立的司法大数据,主要以各级人民法院的判决书和裁定书为主。这些裁判文书大多仅对案件事实、判决理由及裁判结果进行了记载,欠缺一些重要的可供参考的内容,法官在进入到系统前的筛选和提取阶段无法根据结果进行判断,尚无统一的筛选参考价值较大的信息的标准。例如,上海“206工程”的解决方式是首先建立内部统一的证据判断标准,然后根据每个罪名的具体情况,逐一制定更具体详细的定罪量刑标准和规则。由于法官在这个过程中已经事先研究了从系统中提取到的案件数据,此后的审判工作可能主要针对案件中的法律要素进行审查而趋于程序化,从而失去了刑事审判工作的真实意义。
人工智能算法运行的过程以“输入与输出”的运算模式为主,是一个自发、无意识、不完全可控的过程(20)参见廖旋:《智慧法院:人工智能介入司法的隐忧与展望》,载《湖南第一师范学院学报》2019年第2期,第104-109页。。算法设计者通过给出诸多的“假设”以及经过选择后输入系统的数据,决定了算法的走向。我国司法机关大多不具备单独开发人工智能系统的技术力量,需要依靠专门的技术研发公司来完成技术开发工作。比如上海刑事案件智能辅助办案系统就是由科大讯飞公司开发研制的。在核心算法的研发过程中,司法工作人员可能会提供司法专业方面的意见,但其实质仍然是由技术研发人员主导核心算法的设计,而这些技术研发人员极有可能将个人的偏见嵌入算法之中。以2013年美国发生的Wisconsin v.Loomis一案为例,法官在进行量刑判决时依据一个名为“COMPAS”(21)COMPASS是一种人工智能算法,由Northpointe创建,在美国用于预测哪些罪犯在未来更有可能再次犯罪。根据这些预测,法官对这些罪犯的未来作出决定。的算法风险评估系统给出的评估结果,判处了Eric Loomis长期徒刑。随后,ProPublica发布的调查表明,COMPAS系统存在严重的种族偏见。黑人犯罪者通过COMPAS算法评估后,被认为未来再犯的可能性更大,而被赋予更高的风险等级。而实际上,这些黑人并没有再次犯罪(22)参见朱体正:《人工智能辅助刑事裁判的不确定性风险及其防范——美国威斯康星州诉卢米斯案的启示》,载《浙江社会科学》2018年第6期,第76-85页。。算法歧视潜藏的危险是算法的设计者将个人的偏见传递给人工智能系统,以此来规避其本应承担的偏见责任。另外,算法设计者缘于追求更高经济效益或其他原因,很有可能将存在算法偏见或歧视的人工智能辅助量刑系统作为可靠的工具交给司法机关使用。这可能会导致一连串案件处理出现不公正,严重的甚至可能会由个案的不公正转化为类案的不公正。
在人工智能领域,终极算法不是从零开始。终极算法的寻找需要融合多种学派算法联合使用(23)算法主要可分为符号、联结学派、进化学派、贝叶斯学派与类推学派五种主要类型。每个学派对其中心问题的解决方法都是一个辉煌、来之不易的进步,但真正的终极算法应该把5个学派的5个问题都解决,而不是只解决一个。参见[美]佩德罗·多明戈斯:《终极算法、机器学习和人工智能如何重塑世界》,黄芳萍译,北京:中信出版集团2017年版,第66页。,人工智能辅助司法也是如此。数据输入和结果输出是人工智能算法运行的基本程式,这部分是可见的。而算法过程作为连接输入和输出的纽带,是在算法的黑箱中进行自动化的数据分析,进而给出决策结果(24)参见高鲁嘉:《人工智能时代我国司法智慧化的机遇、挑战及发展路径》,载《山东大学学报(哲学社会科学版)》2019年第3期,第115-123页。。这个过程是外界很难获知的。这种自动化的决策机制与传统的法官在判决中进行充分而公开的说理不同:后者是普通大众可以通过一些手段获知的;而前者一般人包括司法工作人员都无法知悉,只有算法的设计者才能知晓这些软件的决策机制。为保护商业秘密,应对激烈的市场竞争,大多数研发公司一般不愿意公开详细介绍算法的运作方式和核心技术,法官和大众也就无法知悉技术的运行过程是否受到某些因素的影响,或存在错误的步骤而影响结果的准确性。受专业性的限制,法官由于无法知晓或掌握人工智能系统的算法运行过程,所以根本无法判断人工智能系统给出的结果是否存有歧视和偏见。在上文提到的Wisconsin v.Loomis案中,被告人Loomis对COMPAS系统的算法运行产生质疑而提起上诉。当法院要求设计COMPAS系统的公司提供证据材料时,公司以商业秘密为由拒绝公开。法院无法对工具计算程序这类极其专业的事情进行核查,只能驳回Loomis的上诉。目前我国的司法实践中,尚未掌握合适的手段对算法过程进行规范化的管理和审查。如果不对算法的透明度进行适当的监管和审查,势必会滋长算法存在的偏见或歧视的现象。算法的隐秘性与司法裁判的公开性之间的矛盾不容忽视,可能会造成破坏司法公信力的后果。
如上文所述,人工智能如同一把双刃剑,在为我国刑事裁判工作带来便捷和高效的同时,也潜藏着诸多的风险和挑战。但无论我们承认与否,司法审判智能化将成为现阶段乃至未来一段时间我国司法改革的重要趋势之一。为此,我们必须认真思考如何规避人工智能中潜在的风险,合理推进人工智能在我国司法中的有效应用——司法裁判智能化的进程。
尽快走出司法数据难以提取困境的有效途径之一就是建立统一的司法数据库,进而充分实现对历史裁判中所有的司法数据的有效挖掘和全面整合。
首先,要加强中国裁判文书网的管理工作,积极推动各级法院裁判文书公开上网,并对上网的裁判文书内容进行丰富和优化,使其尽可能包含案件的所有关键信息,呈现的数据信息更为全面充分。在现有的案件划分标准基础上,结合案件的争议焦点、裁判观点和证据种类等进行更为细致的区分。其次,建立公检法系统相互间的信息共享机制,对刑事案件所经历的各阶段的司法数据进行整合和共享。我国公检法机关内部均有自己的法律数据库,但出于加强保密工作及防止司法腐败等目的,并未在系统内部开展广泛的信息交流。建立信息共享机制,首先要求在技术层面和法律层面对数据共享进行双重保障,避免数据丢失或泄露产生的不利后果。再次,与社会中的其他机构部门进行沟通联系,利用合法的多方信息共享机制,补全历史性的司法数据,使数据库能够包含司法裁判观点发生过的变化、背景和趋势等,从而助力人工智能对未来裁判进行预测,同时保证司法裁判与时俱进。在对数据库信息进行筛选、校验的过程中,要运用关联对比、图谱建构等数据技术,尽可能确保入库信息的准确和真实(25)参见高鲁嘉:《人工智能时代我国司法智慧化的机遇、挑战及发展路径》,载《山东大学学报(哲学社会科学版)》2019年第3期,第115-123页。。
目前我国尚未建立健全针对算法歧视和算法审查的法律制度。结合我国现阶段的基本国情,建议采用完善《个人信息保护法》与构建算法司法审查制度相结合的综合治理方式(26)参见杨成越,罗先觉:《算法歧视的综合治理初探》,载《科学与社会》2018年第4期,第1-12页。。首先,完善《个人信息保护法》(27)《中华人民共和国个人信息保护法》已于2021年8月20日第十三届全国人民代表大会常务委员会第三十次会议通过,2021年11月1日正式实施,但是该法中并未对算法歧视和个人信息获取和使用的平等性做出规定。,并在《个人信息保护法中》设立禁止算法歧视的原则或规则,以限制算法的设计者、使用者利用算法技术在个人信息收集、处理、使用过程中,人为地将歧视转移给人工智能技术的做法,确保每个人拥有平等的法律地位(28)参见高学强:《人工智能时代的算法裁判及其规制》,载《陕西师范大学学报(哲学社会科学版)》2019年第3期,第161-168页。。其次,建立算法司法审查制度。实践中,大多数法院都缺乏算法方面的技术型人才,因此将算法审查工作委托给中立的第三方评估机构,让其承担实质性审查任务,更能实现对算法的合理审查。对此,我国可以借鉴美国的做法,建立由计算机技术专家等专业技术研发人员、法官等专业法律人士和其他领域的社会人士组成的算法审查专门机构,对算法的公平性进行全面审查。同时,该专门机构应当接受全过程的监督,以保护数据安全。该项审查包括三个阶段:事前,由算法设计者进行相关技术说明;事中,机构人员对算法进行审查和纠正;事后,建立算法问责机制,处理好公众的申诉意见,并进行必要的说明和解释。
首先,公开是最好的监管手段。人民法院应当联合其他司法机关和计算部门共同研究、制定算法问责监管办法,将算法置于规则和公开之下,以保证算法本身的公开性和透明性。目前,通过立法对算法进行监管是世界各国的普遍做法(29)例如,2017年12月,纽约市议会通过《算法问责法案》,要求成立一个由自动化决策系统专家和相应的公民组织代表组成的工作组,专门监督自动决策算法的公平和透明。。我国未来在制定算法问责监管制度时,应当确立可追溯性原则,赋予算法设计者透明、公开和说明等义务,确保社会公众可以对人工智能进行决策的全过程进行必要的监管。如此,不仅能够帮助人们理解人工智能的决策过程,提高人工智能辅助量刑下产生的裁判的公信力,同时可以及时发现并修正错误的人工智能操作系统,减少错误算法裁判带来的危害。其次,构建算法公开机制。算法的隐蔽性与司法运行所应具备的公开性之间存在矛盾。因此,对于算法设计者而言,应当规定其承担向使用者履行算法设计运行原理的说明义务(30)参见高鲁嘉:《人工智能时代我国司法智慧化的机遇、挑战及发展路径》,载《山东大学学报(哲学社会科学版)》2019年第3期,第115-123页。。另外,司法机关应当按照法律规定,以社会公众容易理解和掌握的方式,主动向社会公开不涉及国家秘密的算法内容,并接受公众的监督。
目前,人工智能辅助量刑系统还处于初级阶段,只能作为供法官裁判时参考的一种辅助工具。虽然顶层设计下各级人民法院做出了很多努力和尝试,但距离真正的“智能裁判”依然还有很长的路要走。量刑规范化改革为人工智能辅助量刑创造了平台和契机。发展人工智能辅助量刑技术,既要符合量刑规范化改革的要求,也要避免忽视法官的自由裁量权,从而陷入机械量刑的僵局。针对人工智能算法存在的诸多弊端,应当继续探索能够规制不确定性风险的技术手段,确保其平稳、健康的长久发展,为全球法律治理提供“中国人工智能+”的司法审判特色蓝本。