唐 旭,苏志猛
(西南政法大学 民商法学院,重庆 401120)
2017年,上海市高级人民法院承担了研发“推进以审判为中心的诉讼制度改革软件”的任务,简称“刑事206系统”。上海市高级人民法院在人工智能对法治赋能的时代背景下,坚持体制机制改革和现代科技运用深度融合,积极推进以审判为中心的刑事诉讼制度改革,把基本证据标准指引转化为数据模型,嵌入智能辅助办案系统,开启了人工智能在司法领域深度应用的先河,走出了刑事司法文明发展的新路子[1]。继刑事智能系统开发之后,上海市高级人民法院又积极推进民事、行政案件智能辅助办案系统的工程建设。与此同时,对于智慧法院建设的研究近几年也是学界备受推崇的话题。根据中国知网(CNKI)显示,关于人工智能与法律的交叉研究在2016年之前增长较为缓慢,2017年之后则增长迅速,而关于人工智能裁判的理论研究在2018年之后才更为集中地出现(1)以“人工智能”并含“法律”作为关键词在中国知网(CNKI)数据库中进行检索,所得成果共计约850条。其中,在2014年之前契合该主题的研究不足10篇;在2015年的契合性研究亦不足10篇;在2016年的契合性研究约为20篇,其余均为2017年以来的相关研究成果,约计800篇。而以“人工智能”并含“裁判”作为关键词进行相应检索,总计相关成果共计30篇,在2017年之前的契合性研究仅有5篇左右,其他均为2018年以来所得,约计25篇。。本文旨在对实践中的人工智能辅助审判系统进行体系性研究,首先论证人工智能技术在审判中辅助地位的正当性与合理性,然后探究目前人工智能辅助审判系统的特质,而后明晰其主要缺陷并提出相应的优化思路,以期进一步完善人工智能辅助审判系统。
司法与技术的杂糅已然出现,司法审判引入人工智能技术确有必要,但人工智能技术的审判适用不宜逃脱限制。故而权衡之下,智能审判的应然定位应着眼于构筑人工智能辅助审判系统,它是一个在维持相关制度设计初衷的同时又尽量最大化分析和解释人类自然智能的人工制品。这种“辅助”定位的论证既可以从技术层面获得,也可以从审判需求中得到强调。
首先,人工智能辅助审判系统以人工智能技术为基础,该技术在基础理论层面已经存在操作模型。其基本结构由人机接口、知识库、知识获取模块、推理机、数据库、解释模块六大部分组成。人机接口主要用于智能系统和外界之间的通信和信息交换;知识库是智能系统的知识存储器,用来存放求解问题的领域知识;知识获取模块可为修改知识库中的原有知识和扩充新知识提供相应手段;推理机是一组用来控制、协调整个智能系统的程序;数据库用来存储有关领域问题的实施、数据、初始状态(证据)和推理过程中得到的中间状态等;解释模块以用户便于接受的方式给用户解释自己的推理过程及结果[2]。其中,前三者主要用于语言功能的转化,推理机用于逻辑推理的演算,数据库则用于操作留痕及系统的再恢复,而解释模块用于辅助裁判确信,其整体运行流程可参照图1。
图1 人工智能辅助审判系统运作流程参考
其次,人工智能技术本身存有一定的风险,所以需要采取人工智能辅助审判系统模式。具体在于:① 基于人工智能技术所得的审判结果是相对定向的结论。基于上述模型可知,程序运行的前提需要经过“生活事实”到“制度规则”、“制度规则”到“运行代码”的一个相对复杂的转化过程,这种转化的过程是由相关程序主体预先制订的。这与法官审判的本质区别在于前者是一种“抽象审判”,即计算机系统根据预设的规则从一个法律或事实概念中推导出另一个法律或事实概念的过程,其所运用的抽象思维是线型的,或者简单交叉型的;而法官审判所运用的形象思维不是面型的、二维的,而是空间综合的“杂交”过程,有时是跳跃的、发散的[3],而且在程序运行过程当中,该系统难以随时增补新的信息。故而,获取的结果在基础事实转化和算法逻辑确定之后,可以定向预测。② 人工智能技术具有不透明性。英国数学家图灵(A.M Turing,1912—1954)在其“Computing Machinery and Intelligence”《计算机器与智能》一文中提出的“机器能思维”的测试(即图灵测试)所遭受的质疑之一在于该测试只反映了结果的比较,并没有涉及思维的过程。这种不透明以不同的角度表现出来,第一,故意隐藏源代码、相关的培训、测试数据导致了不透明,因为它们可能是开发该系统的技术公司的商业秘密或知识产权的一部分。在对这些可能是由高成本的法律专家研究出来的算法进行了投资之后,企业可能不希望披露其系统的内部运作情况。第二,无论是法律领域的专家,还是那些受法律约束的人,都没有培养出有能力审视这些系统的技能。虽然我们大多数人都学会了读、写,但我们没有受过“读”“写”统计的训练,而且我们还缺乏认知训练集、假设空间、目标函数、优化、过拟合等词汇表的能力。基于此,在法律智能环境中,我们可能就不容易发现错误的解释[4]。
在纠纷产生后的司法解决过程中,多方主体的参与形成了“审判需求匣子”,它是一个统一法律效果与社会效果的黏合剂,涉及法官、当事人、律师、社会群体等各方的需求呈现,通过它们,可以进一步解释人工智能辅助审判系统中为什么需要人类法官作为主导。
第一,法官的需求。作为定纷止争的中立终决者,法官虽然渴求审判效率的提升与工作强度的降低,但若由人工智能技术主导审判则可能挫伤法官的自我认同感和职业神圣感。其主要表现为:首先,法官主导司法判决进程的控制权被极大削弱。法院以权利的专门守护者自居,在法律适用的诸要素中,法律、法官、案件构成法律适用的基本要素。法律要素和案件要素都属于无意识的“死”东西,它们的“灵性”只能凭借法官这个活的要素激发出来[5]。若人工智能技术主导审判得以实现,那么除编制裁判系统的程序员外,主审法官并不能准确掌握裁判系统运行的原理和规则(源代码),他们只是系统的使用者,在判决过程中,裁判程序也难以被修改,法官的相应操控能力一定程度上被降低。其次,缺少法官实践经验的参与。正如霍姆斯所言,法律的生命始终在于经验而从来不是逻辑。社会的需要和社会的意识常常是或多或少地走在法律的前面,我们可以非常接近地达到它们之间缺口的接合处,但永远存在的趋向是要把这个缺口打开[6]。而在缺口打开之时,经验可以用来填补法律的空白、维持朴素的自然正义。过度依赖于数理统计、机器学习的人工智能审判可能会使得法官的经验没有用武之地,所以对具体正义的实现而言,操作法律的人的质量比起操作法律的内容、手段或许更为重要。再次,法官自由裁量的判断性萎缩。法律技术应该确保“阅读”统计数据能增强人类敏锐度和提高人类理性,而不是降低人类敏锐度、理性,人工智能技术主导审判可能会压缩人类法官自由裁量的空间。
第二,当事人的需求。首先,在当事人选择以国家强制力为保障的司法救济路径解决纠纷之时,是基于对这道防线的公正和执行保障的信任。但在人工智能技术主导审判的应用中,对这种防线的信任可能因为人工智能技术主导审判应用的不透明而出现裂痕。当前,人们对人工智能技术的态度存在一个严重的问题,与好莱坞电影的演绎不同,这个问题不是恐惧,而是缺乏信任[7]。但这种“信任裂痕”的产生并非空穴来风,人工智能技术主导审判所产生的不透明操作意味着外在性、可视性的弱化,它们无法如同法官一般,以公众最易接近的形式与格式,为审判结论提供能够在法律上自圆其说的推理。而当事人解决纠纷的初衷,是要寻找一种能够说服自己的方式,使它能够维护和保障自己的人身和财产安全,当这种期待可能落空,当事人也就可能出现对终局救济防线的不信任。其次,人工智能辅助审判系统更能克服人工智能技术主导审判所带来的封闭性,为当事人提供开放的情感倾诉渠道。所谓的情感倾诉,比如规则下的自由发言、辩论、损害诉苦等,这是经历损害或危险之后的一种对遭受迫害的不满的情绪宣泄。人的存在是复合的,人是精神,也是物质[8]。在马斯洛需求理论中,人的社会需求是一种包括友爱、归属的需求,这种感情上的需求比生理上的需求更细致,反映的是当事人需要一种终极的价值关怀,也就是当事人要求别人满足对自己的存在的关注,对自己的尊严的捍卫,对自己的完整性和总体性的追求[9]。而人工智能技术主导审判极大可能只能被动地接受和识别信息,不能与当事人进行互动交流,更不能令当事人即时地对有争议的问题提出异议。在这种效率机器之下的“怪兽统治”中,规范成了一堆冷冰冰的集合体,当事人地位的丧失并不符合自然的正义和纠纷解决机制创设的初衷。即使其所得结果可能是正义的甚至也是成本最低的,然而在此过程中,人的礼遇,即人的尊严、人的人格、人的痛苦可能被忽视。
第三,律师的需求。人工智能技术主导审判可能对律师造成一种多重伤害的局面。首先,纠纷的产生,当事人寻求专业人士即律师的协助来获取公正,而产生这种需求的欲望来源于当事人对律师专业和经验的信任。这种信任,在没有成套的规则能够应对当事人可能遭遇的危机时,律师可以提供训练与范式的价值,决定何时可以前进、何时需要撤退、何时又可以冒险奋力一击。而律师获取当事人信任很大程度上取决于展示“交叉询问”的艺术,即“看得见”的信任。但是人工智能技术主导审判会使“看得见”的信任转化为“看不见”的信任,进而间接降低了律师对当事人的信任获取可能。与此同时,人工智能技术的主导地位存在降低律师自我认同感的风险。因为该情形在裁判过程中抵触外来行为的参与,这就可能形成一种律师主张和抗辩的羸弱局面,即使他的主张可能浸透着丰富的法律实践经验、广博的历史知识、独特的优美文风和极高的人文素养。而人工智能辅助审判系统既能避免前述的多重伤害,同时还可能为律师提供精准的预测,在机器的帮助下实现对风险更有说服力的预估。
第四,社会群体的需求。人类社会群体需要以法官塑造的权威性司法公信力为核心的终局救济机制,而这种公信力来源于对公正、平等、秩序等价值进行捍卫的法律适用程序。它是国家共同体为纠纷创设的权威解决机制,社会群体希望通过法官的神圣威严审判来解除积怨,希望法官公正刚强的脊梁抵挡权力的侵蚀和社会的不公。所以,该程序是以职业法律家为核心进行设计的,是一环扣一环的缜密体系,甚至可以说现代法律的专业性就集中体现在程序上,程序被看成法律的生命[10]。但如前所述,人工智能技术主导审判之下的法律程序却是一种隐藏了的机制,这在一定程度上难免挫败司法救济机制的权威性。其次,社会群体需要以人为本的理性维持。我们不应忽视机器的计算、存储能力的确远远超过人类,机器的信息传输和搜索速度也的确让人望尘莫及,但这并不代表人工智能技术能够替代和超越人类。人工智能不同于人类智能,人类有目的和意识,而机器没有所谓的目的和意识。人工智能在审判中的高度应用,可能意味着对以人为本理念的腐蚀,因为此时的社会治理阶层可能基于人工智能裁判的工具主体化而发生颠覆,因为机器行为的责任承担主体存疑而使基于社会救济机制本身产生的损害责任承担得以落空,因为技术的过度化应用而掩盖人类特有的综合认知能力。
目前实践中较为完善的人工智能辅助系统当属上海市高级人民法院承担研发的“刑事206系统”以及民事、行政案件智能辅助办案系统。通过对这些系统的研究,笔者发现人工智能辅助审判系统已呈现如下特质:
正如计算机辅助在机械制造的设计、生产准备、工艺准备、加工、检验试验、装配、管理、辅助生产等过程中的自动化应用一般,计算机在机械工业中的应用已成为机械工业自动化发展的一个主要潮流。这种技术应用迅速发展的原因在于其对产品性能和质量的提高、生产周期的缩短、原材料和能源的节约、劳动条件的改善、提高劳动生产率等方面显示了巨大的经济效益和潜力[11]。人工智能辅助系统的自动化主要体现在3个方面:其一,通过计算机的自动识别,减少机械化、重复性人力劳动。例如,法院可以通过庭审无纸化质证,减少翻阅纸质卷宗带来的不便。甚至该系统还能通过智能语音合意系统完整记录评议过程中所有人的发言记录,辅助书记员只需要现场进行人工修正即可。其二,对司法活动特定环节和特定案件类型的智能审理能够显著提高司法效率。例如,银行产生的借贷案件、交通事故案件等事实清楚、证据充分且不需要太多法官主观认知介入的民事纠纷,可以通过智能辅助审判系统得以快速解决,即仅需要基本信息的录入便能很快得到判决的输出。其三,人工智能辅助审判系统使得各个部门形成统一的网络平台,实现各个部门信息自动互通。该系统不仅在法院内部形成完整的网络运行平台,在公检法三机关之间也搭建了统一的网络运行平台,真正打破了传统三机关各自为政、互不共享的信息壁垒。各个部门办案过程中所产生的信息自动上网使得各个部门了解该案件的全部信息,有助于案件最终的处理既符合公平原则也符合效率原则。
人工智能辅助审判系统的自动化在当下应当是限制性自动化。因为随着社会的发展和生产力水平的提高,法律的自动化的供应首先应确保最高程度的法律与权利的确定性、公民平等和免于独裁[12]。技术的便利可能需要附随很高的成本方能得到补偿,如个案结果的不稳定性、算法运行的定向歧视、辅助系统对人类法官和当事人等的参与排斥等。故而,我们需要承认法律运行背后的人文责任对技术自动化乌托邦的抗拒,我们害怕过度的自动化将未知的危险不仅引向法治的未来,也引向牺牲公平。历史的经验已经证明,几乎所有技术的进步都不能完全避免事故的发生,并且需要一定时间予以呈现和法律解读。
在计算机的数据库基础知识中,规范化的目的主要在于:消除异常现象;方便用户使用,简化检索操作;加强数据独立性;使关系模式更加灵活,更容易进行各种查询统计工作[13]。质言之,规范化实质是对重复性事物自然形成的惯例或人为作出的统一规定(此处的规范化之要义),作为一种行为模式,遵循它可以减少活动的盲目性和不确定性。在人工智能辅助审判系统建设过程中,规范化主要在于通过形式性要求来获取统一的标准。首先,基于案件结果对当事人影响的严重程度、智能技术的发展水平等因子的综合评价,审慎确定可初步适用智能辅助审判系统的简易案件类型。其次,在法律语言向技术语言的转化过程中,需要形成法律术语的规范化,而影响语言规范化的隐性因素还在于法律思维转化逻辑的规范化。系统建造者如何准确地将法律翻译成计算机程序可以理解的代码、命令和功能是一个必须面对的问题。法律语言是微妙的,通常需要语境理解,而计算机程序员和IT专业人员很少具有法律资格或经验,也不是政策或行政专家[14]。此外,还包括系统运行者即人类法官的相应规范化,人工智能辅助审判系统的出现既规范了法官主体本身,也规范了法官的具体行为。就前者而言,人工智能辅助审判系统对于落实法官司法责任制具有重要作用。法官做出的每一个司法行为都在系统中留有痕迹,甚至通过人工智能辅助审判系统,法官在哪一环节出现问题都能得到清晰的呈现,这是日后判定该法官作出的判决是否为错案的重要参照。对于后者而言,虽然目前系统中的类案推送以及裁判偏离度提示等功能对法官不具有法律意义上的强制力,但是具备极强的心理影响力,法官极有可能参考此类功能的具体内容并结合已然形成的心证做出判决,这潜在地规范了法官的具体的司法行为,也有助于增加同案同判、公平正义的裁判目标的实现可能性,并最终形成规范人工智能辅助审判系统与人类法官糅合处理案件的规范化行为流程。
人工智能辅助审判系统的综合化实现可能具有以下两个层次:其一,对于人工智能技术在审判实践中的单点应用,综合化实际上是有别于自动化与规范化的更高级应用,综合化是人工智能依靠技术逐步渗透人类法官主观认知领域的过程。现有的人工智能辅助审判系统已然对该领域做出了一些探索。例如争议焦点的归纳、要件式庭审提纲的构建、裁判结果的预判断等。但这些探索可能仅仅处于构思设想以及论证阶段,囿于技术以及主体需求的限制尚无法彻底实现。原因在于,在信息获取机制上,我们需要知觉,它处理感受的数据并为认识推理提供必要的输入,在这一点上当前的辅助审判系统或许在不久的将来便可以具备足够的精准度。但在信息处理机制上,人类大脑是有处理大批量认知任务的天生机制,包括识别面孔、测量比较区域、甄别固体形态、合成语言表达、预测轨迹、发现物体与事件的类似之处、发现对称、作出并评价行为计划等[15],显然,智能辅助审判系统还无法取代这种天生的认知机制。所以,即使当下的辅助审判系统可能承受一定的认知委托但并不被信任。其二,相较于人工智能技术在审判领域的单点应用而言,综合化的目标最后着眼于形成定型化的以人为主、审判系统辅助的裁判模式。在该模式中,系统辅助应用的技术相对成熟,能够以试点法院为中心进行全域推广,并在推广之前对该模式中有智能技术应用的特定环节基于技术水平、审判需求等因素进行考量,同时对人类法官活动及技术应用环节的排列组合进行全面、合理的反复审思。总体而言,现有的人工智能辅助审判系统自动化以及规范化的特征正朝着“单向维度深化”的方向不断发展,而综合化的演进路径在自动化与规范化的基础上逐渐在“多向维度协调”的方向上不断探索。
习近平总书记反复强调,要增强问题意识,坚持问题导向,在分析、观察、解决问题中深化对重大理论与实践问题的认识[16]。目前,人工智能辅助审判系统现实困境主要体现在人工智能辅助审判系统设计逻辑存在缺陷、人工智能辅助审判系统的应用模块配置不合理、人工智能辅助审判系统应用模块的适用属于非强制性等几个方面。
逻辑是人类运用概念、判断、推理等思维形式,间接、概括、抽象地揭示事物的本质属性及其与其他事物之间关系的思维,具有抽象性与严密性、规范性与确定性、批判性与开放性、形式化与系统化的特征[17]。以上海民事、行政案件智能辅助办案系统的功能表为例,该功能表的项目数量总括27项,根据这27项的功能描述,实际上仍可以将其融入庭前准备阶段、庭审阶段以及判决阶段。例如,庭前准备阶段包括智能阅卷、法条推送、类案推送、争议焦点预归纳等;庭审阶段包括庭审无纸化质证、庭审笔录智能生成、评议笔录智能生成等;判决阶段包括裁判结果的预判断、文书模型智能匹配、裁判文书智能生成等。基于此我们可以发现,现下对人工智能辅助审判系统的设计逻辑在于以法官裁判流程为视角,根据裁判节点的时间顺序,提供可供选择的环节性的智能技术辅助。其研究的应用思路并非事先架构一个如同当下人类法官对于到手案件自然而然地存在一套处理流程,为人工智能审判辅助系统设计一个合理化任务分配模式与定型化的裁判系统运行流程,而是对于如果能够将智能技术应用至相应的司法裁判环节中便不加“论证”地将该技术引入,从而形成了逻辑稍显单调、内容具体多样的功能表。表面上,这是对人工智能辅助审判系统部分应用环节缺乏合理性分析与系统性考量的表现,但也深层次揭露出系统设计者在公平与效率价值的选择上出现了决策的忽视。
在目前的人工智能辅助系统中,许多应用模块不应该被设计出来或者说应用模块之间的前后顺序安排存在瑕疵,此种不合理的任务分配模式在现有技术下会带来过高的司法误决成本,进而影响案件本身公平正义的实现。比如,基于当前的人工智能认知技术对于“裁判争议焦点的归纳”是否具有准确识别的可能,裁判争议焦点一旦存在偏差便足以影响整体案情的走向,如果假设偏差成立,要么以牺牲当事人追求的公平正义为代价,要么裁判主体推倒智能辅助程序,由裁判主体承担重新审理的时间和精力成本。在“智能阅卷”的应用中,是否会因为人工智能技术的不完善反向加重法官的负担,从而使得法官抵制人工智能辅助审判系统的应用。基于此,若要实现“智能阅卷”模块的理想应用,是否需要对其附加具体的限制,如人类法官的阅卷方式是否应当坚持书面形式。同时,裁判结果作出前人工智能辅助审判系统的“类案推送”可能会影响法官的自由心证,这种影响潜移默化地“拐跑”了法官对案件的衡量,所以“类案推送”的模块应用是否应当安排在法官作出裁判结果之后。
与此同时,我们还应当注意到人工智能辅助审判系统对个别智能技术环节的应用时点需要进行相应的调整,因为其可能间接导致部分法官对该智能辅助审判系统的使用价值的认可。这种认可,要求技术的辅助应当不违背其被应用的初衷,并且能够有所受益,比如提高裁判效率等。如果这种应用减损收益,甚至逆反初衷,那么其可能得到的是使用者的厌恶或摒弃。比如,对于诉讼费缴纳智能提示、庭审程序的智能提示等程序性利用显然无需做出重大调整,但对于前述的“智能阅卷”是否应当更严谨适用,“类案推送”是否应当置于裁判结论得出之后,而非在裁判做出之前便为裁判者提供参考等的考量,则涉及案件裁判的公平性价值,如果智能阅卷存在要素缺漏或案件信息不全,类案推送可能会弱化裁判主体的裁判能力并为无能裁判主体提供服务便利,那么人工智能辅助系统的设计目的便稍偏离了“更好地服务于裁判”和“裁判是为了真正合理地解决纠纷”的受益与初衷。
强制性的人工智能辅助审判系统运行流程的缺失可能导致人工智能辅助审判系统的推行受到阻碍。虽然智能技术在立案、诉前调解、庭前、庭审、裁判等各个阶段的应用均已得到了明确,但人工智能辅助系统运行流程的强制性在当下并未形成。首先,且不论当前各项技术在对应的裁判环节中予以适用是否合理,裁判主体对智能技术在司法裁判各阶段中的应用是否具有强制性并未得到明确,法官的审判能力在实践当中可能参差不齐,人工智能辅助审判系统运行流程没有定型,即意味着不同裁判者对各项智能技术的应用可能由裁判主体进行选择性适用。对于业务能力较强的法官而言,其可能认为法官裁判操作的效率更高,失误可能更小,此时可能导致人工智能辅助系统在法官面前无用武之地;对于业务能力较弱或案件任务繁重的法官而言,其可以更直接依靠于智能决策支持(辅助)系统,将案件裁判视为流水线上的产品生产对待,在此类型的人机协同裁判模式应用中,可能导致人类裁判主体的裁判能力丧失或淡化,以及忽视对不同纠纷中当事人的“温情照顾”需求。
改革推进到现在,必须在深入调查研究的基础上提出全面深化改革的顶层设计和总体规划,提出改革的战略目标、战略重点、优先顺序、主攻方向、工作机制、推进方式,提出改革总体方案、路线图、时间表[18]。对于人工智能辅助审判系统的路径优化更应该在宏观理论的指引下,作出更加理性、细致的程序设计。
我们可以用这样的两条标准来评价人工智能辅助审判系统的设计是否完善合理,即该系统是否有助于实现案件的公平,是否有助于提升案件审理的效率,需要特别注意的是,二者不能轻易倒序。这实际强调两层含义,第一层是人工智能辅助系统应当不损害公平与效率价值;第二层是人工智能辅助系统尽管是基于技术可以实现、审判机构顺应提升效率趋势所进行的系列司法改革,但其针对性的行动不应本末倒置,应将纠纷解决的最终目的摆在前位,即恪守公平之责。针对前者,我们应当对损害或者有极大可能损害公平与效率的应用模块以及应用流程进行必要的修正。例如,现有技术水平事实上无法对主观性极强的争议焦点实现预归纳,此种应用模块的出现无疑是增加了案件事实争议焦点归纳错误的风险,有损案件最终处理的公平与效率。故而我们应该对有助于案件公平与效率价值实现的模块予以保留并深化研发,例如庭审无纸化质证、庭审笔录智能生成、裁判偏离度的提示等。而理论上需要更加细致考量的是某些应用模块虽有损公平但某种程度上实现了效率价值,或者虽有损效率但却有利于公平,这实质上是人工智能辅助审判系统设计针对公平与效率理念的选择与协调的问题。针对这一问题,笔者认为目前以及未来较长时间范围内,人工智能技术只能实现初步公平,实质公平仍需要法官根据具体案件的事实作出符合自己内心公平正义观念的裁决,人工智能辅助审判系统目前主要能够解决的是如何最大范围地提升案件的审理效率。故此,当下人工智能辅助审判系统的设计逻辑应当是最大化提升案件审理效率且尽可能较少关涉案件的实质公平。
通过对目前人工智能辅助审判系统的27个应用模块的功能进行研究,现阶段的人机之间的任务分配模式可提出这样的假设:裁判中需要涉及主观判断、重大事实归纳等主观认知的任务主要由法官承担,而对于程序推进、数据统计等主观要求较低的任务则由人工智能技术辅助审判系统承担。待智能认知或相应技术获得发展,并在该项技术应用通过司法实践的测验,各项指标能够达到一定程度之时,再逐步将涉及心证裁量、事实归纳等法官主观认知任务进行重新分配,最后实现智能审判为主、法官监管为辅的理想状态。与此同时,需对各项智能应用的系统组合排序再度审慎衡量,将可能影响法官自由心证的应用模块放置在法官独立作出判决之外,作为法官自我检验以及审判监督的参考。如,对于类案推送的技术应用不作为先期裁判的辅助参考,而将技术结果用来验证法官的自由心证,因为辅助系统的锚定效应虽然存在法官的监管,但其依旧可能影响法官裁判的中立性。
定型化不仅要实现所设计系统的体系完备、稳定和成熟,而且要实现系统的高效运行,使其价值和优势得到充分发挥。基于人工智能辅助审判系统的推广复制所需,应当明确定型化的人工智能辅助审判系统的运行样态,如将审判阶段划分为立案阶段、庭前阶段、庭审阶段、裁判阶段等各阶段之后,在立案阶段由辅助系统负责案件受理标准审查、诉讼费缴纳提示及程序性文书生成后,案件自动分配至相应的主审法官手中。然后进入庭前阶段,在智能阅卷环节,法官独立对完整的电子书面卷宗进行审阅,法官能随时对电子卷宗里的信息实现抓取使用;在经过庭审阶段、裁判阶段过后,辅助系统可先进行文书模型智能匹配等,而后待法官裁判结论形成后,进行法条推送、类案推送、裁判偏离度提示等。当然,前述的流程列举仅是作为整体人机协同裁判设计的参考模型,除此之外还需注意的一点是定型化人工智能辅助审判系统的搭建,还应该区分辅助系统中功能应用的强制性与选择性,从而赋予法官根据个人能力特点进行有限制的灵活适用,如部分裁判主体可能并不需要办案要件指引、法条推送等功能,从而既助力于人工智能辅助审判模式的稳步推进,又多方位尽量满足纠纷涉及的各方主体的需求。
无论是从技术可实现层面亦或是从人类需求可满足层面而言,人工智能辅助审判系统的出现是正当且合理的。该系统未来的设计构想应当重点攻克司法系统适用所需的信息抓取与数据转化、数字记忆等领域的研究,适度探索人工智能在法官自由心证领域的机器实现。需要提及的是,目前这依旧是一个庞大的项目,因为该人工智能系统的构建实际涉及了语言学、逻辑学、心理学、计算机科学、数学和法学等相关学科的交叉结合,可能存在的阻碍远多于前文所述。例如,在信息抓取技术的研究中涉及的语义和语用分析,由于不同语言本身丰富的暧昧性,语义的多样化还需要结合用语所处的环境进行分析;在数据转化技术的研究中,法律专业用语的确定是数据转换的前提,在此前提之下,才有可能利用知识库的信息使案情事实在系统中得以呈现;在逻辑推理的算法模型研究中,其所使用的数据样本在司法实践中可能纷繁复杂,而且结合我国的案情数量,数据样本的分类、统计本身就是一项极具难度与极费时间的庞大工程等。但是,我们依旧期待这种人与辅助系统动态配合的出现。