智慧法院体系建设场景下算法可解性机制的构建

2022-11-24 20:12陶怀川徐寅晨
河南广播电视大学学报 2022年2期
关键词:裁判当事人法官

陶怀川,徐寅晨

(西南政法大学 人工智能法学院, 重庆 401120)

一、问题的提出

习近平总书记指出,“要遵循司法规律,把深化司法体制改革和现代科技应用结合起来,不断完善和发展中国特色社会主义司法制度”[1]。最高人民法院“五五改革纲要”提出,要“建设现代化智慧法院应用体系”[2]。上述指示与战略安排为我国智慧法院应用体系建设作出了顶层设计。可以预见,未来一段时间内以人工智能驱动的“智慧司法”建设将成为审判体系和审判能力现代化的重要推手。智慧法院体系建设已成为司法领域的共识,代表性的成果有最高人民法院“类案智审推送系统”、贵州法院“政法大数据系统”、上海法院“刑事案件智能辅助办案系统”等。目前,智能辅助办案系统只是人工智能技术应用于司法领域的一种初步形态,要达至“破解改革难题,提升改革效能”的目的,尚需进一步优化技术、完善功能、拓宽应用领域,直至真正达到能够辅助法官裁判,为裁判提供实质性的智能成果参考而非事务性的辅助。观之域外,英格兰和威尔士上诉法院大法官布里格斯在在线法院的倡议中提出了算法裁判概念,即人工智能可以代替法官直接作出裁判。[3]美国威斯康辛州终审判决的威斯康辛州诉卢米斯案(State v.Loomis)正是算法风险在刑事司法程序中的典型体现。卢米斯案引发了算法规制的广泛讨论,多数学者认为该案判决低估了算法的准确性、歧视性和透明性风险,高估了法官识别算法风险的能力。[4]乐观的态度认为,智能裁判的新阶段已经到来,这是经过“神明裁判”到“法官裁判”的漫长演进之后,智能科技与司法实践演进的必然结果。[5]也有学者指出,“人工智能给司法带来的最大影响将是由计算机代替法官来审判案件”[6]。智慧法院体系建设必须追问的问题是:建设到何种程度?能发挥哪些作用?以后是否有裁判案件的可能性?虽然在我国尚未有裁判案件的可能性,但域外司法人工智能发展及其产生的问题,同样是我国司法人工智能发展过程中需要深入思考的问题,因而在直接关涉当事人权利义务及获得正当程序保障的司法场景中,对算法决策给传统司法领域带来的冲击和困境进行解析,并兼顾司法人工智能发展现实需要提出科学合理的解决方案,实属必要。

算法是智慧法院体系建设的核心要素,如果在未明了所采用的算法决策的基本原理、运作机制、救济手段、给予当事人充分的程序保障的前提下将其适用于辅助司法决策,甚至实质性介入司法裁判,“黑箱”效应将对以传统、审慎著称的司法领域带来巨大冲击,算法决策会影响传统司法领域的多项评价标准,如司法公信力和司法权威、司法公正与司法结果的可接受性等。相较于其他算法法律规制手段,算法透明无法针对裁判领域个案当事人的心理特质进行制度设计,抑制算法偏见更多采用通过外部控制和外部监管途径模式。更为妥当的方法是提升智能裁判场景下的算法透明度。当事人不服算法决策结果时,通过“解释”让当事人知晓算法决策作出的缘由,算法设计者、使用者以及利益相关人通过一套完整的解释规则解决纷争中的利益纠葛,直接提高当事人对结果的可接受度。算法解释能够直面算法设计[7],抑制算法偏见。智慧法院体系建设背景下,构建算法决策可解释性机制,旨在限缩和明确在司法裁判场景中算法决策的解释标准、解释限度,以提升算法解释在法律领域的精确性、专业性。

二、现象观察:算法决策对传统司法的影响

(一)算法“黑箱”削弱司法权威

算法“黑箱”问题是智能裁判辅助的障碍之一。算法最经典的定义是,“通过所掌握的信息使算法使用者得到某一针对性问题的答案,或者掌握输出信息的一系列指令的策略”[8]。智能裁判辅助中,经由算法决策得出判断的过程却被“黑箱”所遮蔽。此处所提及的“黑箱”是指,在数据输入和结果输出之间,存在我们无法洞悉的隐层。无论法官还是当事人都难以知悉算法决策结果做出的潜在原因。

法院在纷争处理中,实质上也是通过所掌握的案件信息,经过一系列实体法规范和程序法规范的指引,得出最终的裁判结果。法官在当事人所提供的大量信息中进行甄别、选取,最后经由个人或者合议庭的判断得到案件的真实图景。在这个过程之中,与算法决策不同之处在于,纷争当事人可以通过法官办理案件的一系列行为判断法官是否公正尽职地履行了审判职责。法官是司法权的行使主体,法官判断的强弱和准确与否直接影响到案件审判质量。[9]大众对司法的信任与司法权威的形成,很大程度上端赖于法官在具体个案的处理结果上是否公正。经由算法输出的决策结果代替了法官裁断过程,消解了法官与当事人之间取得共识的机制。

(二)算法偏见阻碍司法公正

在司法领域,算法偏见可能会误导案件事实认定,阻碍法律正确适用,巩固和强化司法不公的影响。[10]当前,我国各类型智能办案辅助系统并未实现进行算法决策,替代法官裁断的功能,但人工智能技术深度介入司法领域,与司法过程的各个环节相结合却是不争的事实。由上海高院牵头研发的刑事智能辅助办案系统,功能包括:证据标准、证据规则、逮捕条件指引、单一证据校验、社会危险性评估、非法言词证据排除、证据链和全案证据审查判断、庭审实质化等功能。可以发现,随着技术的发展,司法决策对技术的依赖也日趋加强。算法偏见对司法公正的影响也将更加明显和广泛。算法偏见形成的主要原因在于数据,算法的形成和完善需要以大量的数据作为基础,算法决策的基本原理在于“以过去的数据预测未来的趋势”,系统输出的结果取决于输入数据的质量。数据对算法的影响主要包括两种形式,一是数据驱动偏差,这是指算法错误地将思想与某些特征或定型的观念联系在一起,例如性别、种族、收入等。二是选择偏差,这是指用于训练算法的数据过度代表某一组人群时,选择偏差会使算法为更好地输出有利于该组人群的结果而牺牲其他组代表的人群利益。除数据之外,算法开发者、设计者的主观好恶与价值追求都会或多或少地与算法融为一体,造成隐秘的偏差。

(三)算法决策消解法官主体性

法官在司法裁判中的主体性地位不可替代,由其行使由国家赋予的审判权。然而,当算法决策结果应用于案件审判之时,可能会造成人工智能可以代替法官直接作出裁判[11]的情况,技术在不知不觉中架空了法官对审判权的把控。算法决策消解法官主体性的表现可分述如下:第一,现实层面上,在案多人少以及审理期限的压力下,法官对隐含在决策结果之后的决策依据、价值选择难以进行校验与反思,更倾向于采纳算法决策结果,用算法决策代替司法技艺的发挥。[12]第二,自由心证在审判过程中无足轻重。研究表明,由于锚定效应的存在,虽然是否采纳算法决策结果最终需要法官进行审核同意,但在案件裁决前,决策结果为法官提供的参考对其作出裁决影响巨大。可以说,算法决策结果主导着司法裁决结果,法官借由个人理性、良知与智慧的发挥形成内心确信的主观能动性大大降低。第三,基于深度学习的人工智能应用于刑事领域,有可能生成新的裁判规则,改变规则提供主体的性质。[13]例如,美国宪法中,存在由法官通过演绎和归纳推定未列举宪法权利的情况,在人工智能技术深度介入到司法领域后,经由算法推定的未列举权利,必定不同于通过法官凭借个人法学知识与经验的推定。其所推定权利及其规则的性质地位也难以界定,法官在适用此种推定权利之时必定也无所适从。

三、理论支撑:算法可解释性机制构建的可行性

(一)算法可解释性机制构建具有可能性

一般来说,司法公开是国家机关主导的自上而下地向公众公开的司法活动,推进司法公开是人民法院的重要工作,是保障人民群众知情权、参与权、监督权和表达权的重要途径和方式。算法可解释性机制和算法解释与司法公开具有天然联系,在各级人民法院以建设“智慧法院”“电子法院”为契机,大力推动司法公开与“互联网+”的跨界融合之时,构建算法可解释性机制可以说是以用户需求或者当事人需求为核心的互联网思维推进司法公开工作。具体来说,算法可解释性机制与司法公开具有价值目标一致性的特点,二者致力于用最低的成本,展现复杂决策的过程,使司法审判的结果更具合理性,保障民众的信息知情权,进而对决策的质效进行控制[14],使当事人对司法审判的结果更具可接受性。司法公开的核心要义是揭开人民法院司法活动的“神秘面纱”,把司法的过程和环节同其结果一起“晒”出来,让民众看得清楚和明白。[15]以此方式,公众方可了解司法运行的过程,知晓审判结果的由来,不仅有益于维护司法权威,亦对公众起到教育、警示的作用。从技术融合应用发展的角度看,随着智慧法院体系建设的纵深发展,算法决策应用场景的不断增多,其受到当事人质疑与挑战的可能性也将不断加强,故此,稳定的算法解释机制将成为算法决策配套措施,也将成为司法公开的重要组成部分。

(二)算法可解释性机制构建具有必要性

司法场景下,尤其是裁判场景下,相较于其他的算法法律规制手段,算法可解释性机制更符合司法场景的实际需要。典型的算法规制的手段有算法透明化、抑制算法偏见两种。以上两种方法大多采用行政手段和外部监管路径发挥作用,始终无法解决当事人对公平正义的心理预期和裁判可接受性问题。然而,个案当事人追求的是纷争高效、公平的解决,对公平正义的追求是提起诉讼的重要动因。通过算法解释与当事人沟通交流能够有效提高当事人对算法决策的接受度。具体来说,首先,算法解释并未增加当事人新的认知负担,其可归为法官释法说理的一种类型。其次,算法解释符合司法规律,法官引导两造当事人依据证据,在规范与事实之间逡巡往返,逐步廓清事实真相,作出司法裁决。司法场景中对算法决策的解释可以认为是法官引导两造当事人解决纠纷的另一种版本。最后,构建算法可解释性机制的根本目的在于保证司法公开和透明度,维护司法权威,保证社会大众对算法决策的认同。认同路径有两种,一是基于制度的权威的认同,二是基于信任的理解的认同。算法可解释性机制的目的就在于经由解释使当事人理解使用算法的正当性和算法决策结果的正当性,最终达到当事人对司法的认同,并借此扩充当事人对司法的信任,提升司法权威,维护司法公信力。

域外有关算法可解释性机制的观点也可为我国智慧法院建设体系场景中算法可解释性机制构建提供镜鉴。欧盟会议智库2019年发布《算法决策:机遇与挑战》报告,将“可解释性”视为决策系统中的关键议题。在全球范围内影响深远的《伯克利对人工智能面临挑战的系统性观点》,亦将“可解释性”视为人工智能算法“适时、稳健、安全”的核心要素。2018年,欧盟《通用数据保护条例》(GDPR)以1995年欧盟数据指令为蓝本,在“鉴于”部分第71条和正文第22条针对基于算法的“自动化决策”赋予个人干预的权利,允许其表达的观点,在评估后获得该决策的解释,以及对决策提出质疑。[16]以上论述表达了这样一种观点:如果算法不具有可解释性,则其也不具备应用的正当性。在算法的场景化应用中,应当建立算法可解释性机制,以保障算法决策适用的正当性。

四、制度更新:构建算法可解释性机制

(一)算法可解释性机制构建的原则

1.辅助性原则

“辅助性”是指,构建算法可解释性机制是为了进行“算法问责”与“算法规制”,但“算法问责”与“算法规制”并不必然以解释算法为必要,而以实用主义为导向、以算法问责为代表的事后规制也许是更加得当的规制策略。[17]算法过程或关键数据的解释,在一定程度上起到了责任归属更明确、担责幅度更清晰的作用,其应与其他规制方式共同施加影响,且司法场景中人工智能技术的深度运用应定位于发挥“辅助性”之地位,最终完成智慧法院体系建设的目的,提高司法效能,提升审判质效。但归根结底,服务于司法场景的智能提升都要以法院需求和人民群众需求与接受度为界,算法决策的应用以及算法的解释更不应该“反客为主”,故谓之“辅助性”。

2.相对性原则

可解释性机制框架下的算法解释保持“相对透明”即可。这是技术发展现状与司法现实需要决定的。囿于技术壁垒,法官及当事人均不一定能理解算法原理和计算过程,一味地公开算法,使之达到绝对透明的程度,不仅无益于算法对象(当事人)的权利保护,亦增加讼累。试图解释算法内部运行的每一处细节机制和作用成因的做法在司法领域并不适用。原因在于:其一,随着算法领域的核心技术日益更新、不断加深,即使是算法的设计者也很难说清数据输入与结果输出这一中间过程具体是如何作用以及发生的;其二,即使从技术层面作出了解释,但程序意义大于实质意义,解释细节对法官与当事人来说仍然是难以理解的;其三,技术解释时间上迁延日久,技术上成本较高,与使用算法追求效率的初衷不符。在“司法公开”视野下,尚有因涉及商业秘密、个人隐私、未成年保护等内容而不予公开,作为公开程度弱于司法公开的算法解释,更毋庸做到详尽的解释、苛求彻底的公开。

3.层次性原则

“层次性”是指,算法解释的内容涉及数据的提取、数据的运算、各数据对结果的输出影响所占的比重等;算法的解释对象也分为向当事人解释(主要)、向法官解释、向社会公众解释等。而“层次性”即要求算法在进行解释时,应当根据不同主体,层次分明地进行解释,而不是以“什么都说,大锅炖”的方式进行解释。具言之,需注意如下方面:一是真实、全面地阐明被质疑案件的初始数据,包括事实要素和法律要素、对应之法律规范、相应的法律特征等。二是准确解释主要数据要素对算法结果所产生的影响何在,各要素所占权重比例以及关联度和相互关系。三是落实解释的专业性。各级人民法院进行细化解释时,在专业性方面,可以定期组织专家进行专业解答,或在系统设计之初,留有备案进行说明,仍解决不了的疑难问题,由定期举行的专家论坛处理解决。

(二)算法解释的法律属性

算法解释的法律属性影响到算法决策和解释本身的权威性。应明晰,司法场景中涉及算法解释的情境多为个案当事人所要求,个案主体对算法决策有着不同的接受度,意味着算法解释程度对个案当事人来说,有的需要细致解释,有的则略微提示即可。由是,在无涉个案纠纷,仅就算法决策做出一般说明之时,此种解释是算法运行逻辑的技术说明,是为说服当事人接受算法决策的一种沉默的沟通手段,具有技术权威性质。在涉及个案纠纷,当事人质疑算法决策的正当性与可操作性之时,此时法官为此对算法决策所做的解释,应归于为解决个案的裁判理由。法官应在判决或裁定中针对当事人之质疑详细说明运用算法决策的理由,其中包括对算法决策解释。另外,我们认为,对司法领域算法可解释性机制的构建,应由最高人民法院来进行部署。

(三)算法可解释机制构建的路径

1.程序保障

当事人对算法决策的知情权与是否采取算法决策的选择权最为重要。一要充分保障当事人的知情权,在适用算法决策之前,需告知当事人决策系统的逻辑、意义、设想后果和一般功能。二是考虑赋予当事人程序选择权,若当事人认为采用算法自动化决策会严重影响个人关切的环境、行为和选择或导致个人遭受排斥或歧视,则其可以拒绝采用算法决策。三是保障当事人的程序参与。由于算法决策过程属于“黑箱”,与传统司法程序相比,当事人的程序感受大大降低。为弥补这种程序缺失的遗憾,在当事人选择采用算法决策之后,应保障当事人程序参与感,提高当事人对算法决策的信任度。具体而言,在当事人填入涉及个人的具体信息时,系统应予以充分提示,说明收集此项参数的原因。法官在案件进行中,应随时准备与当事人就算法决策系统的使用进行充分的沟通,以消解其疑虑。四是最终是否适用算法决策的权利必须交由法官来判断。

2.适用条件

适用条件主要解决解释的启动机制问题。本文认为,司法场域中算法决策的运用,受到直接影响的主体不外乎法官与当事人。法官可能因为错误采纳算法决策而被追究责任,当事人可能因为算法决策结果遭致利益损害。故此,算法可解释性机制的启动首先应该考虑法官与当事人的行为与意愿。比如法官在案件裁决中如果认为算法决策结果对当事人权益有重大影响,或当事人认为采用算法决策会损害个人权益,即可以启动算法解释机制。在充分保障当事人程序权利的基础上,对是否采用算法决策以合乎程序标准和实质标准的方式提供。[18]当事人应拥有选择权,在纠纷解决过程中,事前赋予当事人自主选择是否适用算法决策的权利,算法决策结果做出后,赋予当事人寻求救济即要求算法解释的权利。

3.适用限制

智能裁判辅助系统算法决策解释机制关涉当事人权益保障和司法权威维护,旨在回复原有的平衡状态,既要保障当事人程序权利,也要考虑到解释对司法权威维护的增强和削弱的双重作用。频繁启动,势必造成司法权威的削弱。因而,解释的启动应具有一定的限度,不至于出现利益倾倒,越描越黑的现象。前已述及,算法解释不要求完全的可解释性,而是有限度的可解释性,重在保障当事人的知情权,知晓其受到算法决策及其可能带来的影响,当存在错误时可以要求修正或拒绝算法决策。基于上述目的,算法解释请求权要求算法使用者解释的标准应限定在相关性、可理解性和可救济性范围内。可以根据现行法律规定和一般生活常识进行判断筛选当事人的要求是否合理。对于明显不合理的解释请求,法官可以拒绝当事人要求解释算法的请求。

五、结语

尽管对算法的广泛而深入的应用还存在质疑,但毋庸置疑,算法在当下和未来的治理体系中正在发挥越来越重要的作用。算法司法决策可解释性机制构建的理论框架及实践演绎乃全新的命题,具备独特的生命力,我们由衷希望研究成果助推算法法律规制和算法深度应用科学、规范开展。同时,算法司法决策可解释性机制的构建是本文研究的出发点,我们将继续跟踪算法司法决策可解释性机制构建的理论和实践发展,为破解改革难题、提升改革效能,促进审判体系和审判能力现代化提供更大助力。

猜你喜欢
裁判当事人法官
牙医跨界冬奥会裁判
我不喜欢你
法官如此裁判
法官如此裁判
中西方饮酒文化大对比
当事人
阅读理解两则
漫画