王玉薇
当下,智能裁判凸显三个方面的重要转型:一是在技术维度上,司法裁判运作全过程都是在智能系统的技术逻辑操作下自动封闭完成的,这促使了人脑智能向机器智能的全面升级。二是在主体性维度上,人工智能算法的进步带来的更深层原因是人的主体性危机。由于智能裁判运作全过程都是在算法的暗箱操控下自动进行,因而形成了“算法裁判的量化规范逻辑和经验规范逻辑”,这就促进了自然人裁判向算法裁判的演进。三是在机制维度上,要素化裁判成为智能裁判运作的主要机制,实现了有纸化办案向智能化辅助变革。这些转型在有效推进数字法治建设的同时,也产生了一定的智能裁判风险后果,如何对这些风险后果进行有效控制,就成为智能裁判技术深度应用所必须解决的时代课题。
从字面看,智能裁判主要指人工智能模仿人类智能所进行的裁判。但是,究竟能模仿或表示到什么程度,如辅助抑或替代法官裁判,最终需取决于人工智能的“智能”程度。这样的“智能”程度显然取决于算法技术的发展,如封闭算法和机器学习算法,两者的迭代演进与交织并行,促使智能裁判的风险问题不断凸显。需要明确的是,无论算法技术如何升级,智能裁判终将只能由人类作出,机器只不过在特定事项上独立替代法官作出裁判决策而已。
众所周知,智能裁判运作的核心在于人工智能技术的应用。人工智能技术介入裁判的根本目的应该是辅助法官进行裁判,只不过技术在其中发挥的作用不一。早期的智能裁判技术主要运用封闭规则的算法,即“基于自然语言处理、深度学习的计算机语义检索和法律问答,帮助司法人员进行法律检索或者关键信息检索”。譬如借助电脑量刑技术,刑事法官仅仅在软件系统中键入案件参数情况,就能够自动生成精确的量刑结果。再如裁判文书自动生成技术,河北法院应用智能系统辅助法官制作255.49万份裁判文书,能够减轻法官30%以上的案头事务性工作。可见,人工智能一旦介入司法裁判领域,人类势必对技术产生极大依赖,并可能开始学习如何向机器一样思维。
随着算法的迭代、算力的飞速提升,特别是机器深度学习算法技术的飞速发展又给人类带来了新的美好期待。那就是,让机器在大数据中自主学习怎样才能“像法官那样”思维并作出裁判。譬如,过去只能由法官做出的事情,如撰写裁判文书、整理卷宗材料、预测量刑等,通过机器深度学习算法,现在已经部分可以由机器独立完成了。由此,计算机成功实现了从对案件的“处理”向“审理”的华丽转身,并独立作出司法决策。实践中,广州互联网法院部署“数字法官助理”——第二代RPA 流程机器人,基于知识图谱技术定向研发ZHI 系统,实现知识产权纠纷全要素智能审判。一旦这样,“人类实质上就以服从历史模型的方式臣服于机器,机器便以尊重历史经验的表象实际统治了人类,而裁判机器便成为这种统治模式最核心的一个‘部件’”。
众所周知,智能裁判应用的主要目的在于辅助法官制作裁判文书,减轻法官案头事务性工作并大大提升审判的智能化水平,进而成为法官办案的重要辅助。这里的办案辅助主要指法官办案流程的智能辅助。在我国,很多法院推出了不同功能的智能辅助办案系统。如,上海“206”刑事案件智能辅助办案系统、北京“睿法官”智能研判系统,以及最高人民法院的“类案智能推送系统”等。这些产品以其强大的技术内核成为法官办案的得力帮手。
随着深度学习算法技术的进一步发展,我们可以实现网上立案、电子送达、电子签章、在线远程庭审,智慧执行和智慧监督等为内容的全流程网上办案。根据有关数据统计,截至2020 年底,全国已有3256 家法院建成了电子卷宗随案同步生成系统,73%以上的案件已经实现随案同步生成电子卷宗,审判智能化水平实现跨越式发展。于是,人们开始幸福地憧憬着深度学习算法所勾勒出来的未来图谱。如前面提到的广州互联网法院部署“数字法官助理”——第二代RPA 流程机器人可以实现知识产权纠纷全要素智能审判。如此一来,“机器能代替法官独立完成某些司法决策”,甚至“可以代替法官直接做出裁判”。
从表层看,不管是制作电子文书和一键生成卷宗材料,还是强化类案检索和同案同判;无论是量刑评估和偏离预警,还是通过深度学习不断实现裁判全程数字化,尽管人工智能表现出明显超越人类裁判的计算能力和精准预测性,但此时的智能裁判仍然只是传统裁判的网络化、技术化和工具化,并未对司法的本质、架构及规律造成实质性威胁,冲击的只是司法职业,并未撼动法官裁判的最终决策权。与辅助办案不同的是,辅助裁判可能对法官决策造成重大影响。但从深处看,无论是辅助办案还是辅助裁判,此时智能裁判风险还相对可控,其智能量刑的参考意见、风险评估报告、类案推送结果等是否最后被采用,最终仍由人类法官自主决定。但从长远看,工具主义无限扩张对司法裁判的最大威胁在于,法院的裁决将贬值为廉价易用的应用软件,法官职业就不可避免地趋向消亡。
诚然,要素式审判是智能裁判运作的重要机制。其基本原理主要借助智能机器和机器深度学习技术,围绕争议要素从已有司法大数据里的案例和判决中进行自动抓取,然后自动生成裁判文书,为法官判决提供参考。这样做的好处是,客观上简化了审判流程,实质上让案件裁判提质、增速、看得见。据统计,2020 年,人民法院建成以全国法院“一张网”为代表的全要素一体化的人民法院信息基础设施。然而,要素式裁判机制对争议要素的自动抓取不仅会引发司法行政权的扩张和个人程序参与权的缩小,而且会阻碍数字人权的实现,如裁判文书公开及自动生成,数据挖掘及数据鸿沟等会对个人的信息权、隐私权等基本人权构成较大威胁,这将大大动摇司法裁判保障人权的基本属性。理由是,“无论个人信息处理行为是否基于个人的同意,处理者原则上都负有告知的义务,除非法律规定了可以免于告知”。
须知,智能裁判本质上呼唤的是数据多跑路、人少跑路,实现数字正义。但在算法黑箱、算法进一步本体化的指引下,算法实则替代法官成为裁判者。这样一来,依法裁判将变为依数据裁判,依规则裁判也将变为依规律裁判,法官裁判将变成算法裁判,司法自治的理想将成为泡影。这必然会颠覆司法正义,以及法治的诸多假设,甚至机器替代法官成为决策主体作出的判决是否具有可接受性,均存在疑问。
申言之,“由于大数据与深度学习技术,算法进一步演化为本体化的算法”,这直接产生两方面的后果:一方面,如果智能裁判算法使用了大数据和深度学习技术,则会陷入“技术黑箱”困境,一定程度上还会削减公民个体的程序权利,也必然影响着公民个体实体权利的行使。另一方面,算法一旦实现本体化,机器替代法官成为决策主体,消解人的自主权,则违背了人类发明人工智能的初衷,进而触及司法的本质和精神。
在当今智慧司法的实践中,智能裁判的发展已经势不可当,但我们不应盲目乐观而应理性和审慎对待。更要深刻地认识到,智能裁判在提高司法质效和促进可视正义实现的同时,也因其对技术的过度依赖、算法决策的应用和要素式审判的实践而促使其风险不断升级。因此,我们需要对智能裁律风险升级的法律后果进行类型化研究,以利于智能裁判改革的有序推进。
智能裁判是指“利用好现有大数据资源、已有的法学理论研究成果和日趋完善的AI 模型算法,通过横向对案件标准化要件提取与标注、纵向对裁判思维的梳理与整合等进行多重维度的深挖以构建民商事案件智能办案系统”。如此操作可以大大提高司法裁判质效,促进类案裁判标准统一。但其对人工智能技术的过分依赖,不可避免地会对正当程序价值有所影响和冲击。
其一,技术程序标准有局限。在智能裁判问题上,智能互联网的优势在于场景定制和程序建模,从而形成一套算法来提供智能化的产品和服务。其运作机理主要是通过计算机编程程序模拟、归纳和回答计算机系统能够识别的法律规范和法律事实,从而使法庭所使用的推理标准化和趋同化。如此,“‘简化裁判过程’和‘消解价值判断’的双重策略均与司法的一般性质相悖”。更为严重的是,计算机编程的智能性、高效性和便宜性将大大改变原有程序规则生成的本源环境,迫使司法正义被解构重组,进而对法官独立行使审判权原则和公民诉讼权利平等原则等造成重大影响和干扰,这与正当程序所追求的独立性、中立性和人权性等价值正好背道而驰。一方面,计算机编程程序限制了法官、当事人和其他诉讼主体间的互动与沟通;另一方面,计算机编程程序还限制了案件结果的互动、辩论和说明理由等正当程序价值的实现。
其二,技术封闭影响诉权平等。如前所述,智能裁判是通过计算机编程提前将现实世界的法律规范和法律事实遵循“0”和“1”编译方式提前植入机器程序中,从而促进类案裁判标准统一。而这些算法及程序的设计和运行过程往往都由计算机程序员或机器来操作的,无论是法官,或是案件当事人,还是其他诉讼主体都无从知晓。相反,现实世界的司法裁判则是在法律规范和案件事实之间不断沟通、来回穿梭、综合选择的结果。如果一味地过度依赖人工智能技术在智能裁判中的功效,虽然短期内裁判质效可能会大幅度提升,例如类案智能检索系统检索的结果更加客观公正,但是随着智能技术的深入推广,这会使司法裁判活动的程序内核可能存在被智能技术的低成本部分所替代的风险。例如送达的电子化、庭审的网络化使得原有的送达本人有效原则、庭审的对席原则和直接审理原则等均受到重大挑战。
此外,被送达人的知情权、法院与当事人面对面直接沟通,以及直观获取诉讼信息的权利也将面临重大挑战。在国外著名的卢米斯案件中,卢米斯认为“按照美国宪法第六修正案,被告人有权知道被控告的理由,法院依据COMPAS 的评估对其加以判决侵犯了其正当程序权利”,但这样的判决及操作仍无法预防和提醒法官算法评估的危险性、危害性和偏见性。从表面看,上述判决前调查报告制度和算法评估似乎已经为当事人正当权利的行使提供了可靠的程序保障,但深入分析和观察后我们不难发现,上述做法过分自信地夸大了法官对算法评估的控制能力,加剧智能技术的工具性对程序中立性和独立性价值的冲击。
其三,技术失误产生不公。一般来看,传统司法诉讼过程的实现是由作为裁判者的法官、当事人,以及诉讼参与人共同辩论、协商、互动的结果。然而,随着司法大数据在裁判领域的推广应用,人工智能技术的工具价值日渐凸显并慢慢地渗透甚至操控了司法裁判的全过程。与此同时,法官等司法人员由于对人工智能技术产生了强烈依赖和迷恋,如若过度依赖则不仅容易形成不公正判决或误判,还可能增加新的诉讼发生的风险,这将整体上大大增加了诉讼时间和司法成本。从根源上看,智能裁判结论形成的主要依据是司法大数据中隐藏的规律性、预测性和数据间的相关性,这就很容易忽视司法裁判的论辩性、价值性和因果性,进而产生裁判的错误或不公正。如学者指出的,“运用此种模式化程序大大加快案件审理进程的同时导致对实体公正的损害、甚至导致错误裁判”。
如前所述,智能裁判主要指机器替代法官进行的裁判。换言之,在某些事项上,机器或算法可以代替法官直接作出裁判或独立完成某些司法决策。这样一来,“纠纷中的人文关怀、法官与当事人等主体的主体性则会逐渐被吞噬”,数字人权受到极大侵犯。
首先,威胁法官审判主体地位。诚然,智能裁判是通过计算机算法依据司法大数据模拟法官裁判思维进行经验式和规律性推理的。那么,智能裁判首先面临的问题便是机器是否拥有审判权以及这种审判权的正当性及合法性问题。无论智慧司法建设如何推进,当下审判权的形成以及审判机构的组成和功能都是基于人类社会自身发展和进步的客观需要,其目的在于实现人类自身的秩序、安全、法治、权利、平等、正义等法律价值的需要。换言之,无论社会发展如何进步,司法制度如何演进,司法文明如何体现,所有这些都应以人类自身的客观需要与美好生活愿景为根本前提,任何除了人本身的物种来审判人类必将遭受裁判正当性和合法性的质疑。
进一步说,智能裁判结论是由机器基于深度学习而自主作出的,显然机器在某种程度上实现并完成了对人类的审判,其替代人类作出裁判的结果必将遭受裁判正当性和合法性的怀疑。比如在刑事司法领域,故意杀人罪的定罪与量刑是刑法规范与非刑法规范综合作用而形成的复杂结果。首先刑法规范必须明确。其次刑事政策、文化传统、道德习惯、公众舆论、司法经验等非刑法规范因素也是该类案件定罪与量刑必须要考量的因素。在民事司法领域,经常存在适用法律原则(公序良俗、情势变更等)、价值评价性规定(显失公平、恶意串通等)、程序性规定(重大误解、显失公平等)等情形。由于人工智能毕竟是机器,很难具有自由意志和人类情感,尤其是“当事人提出的情感诉求和非理性诉求,并不能靠数学模型和高速计算得出的‘正确结果’去化解”。因此,智能裁判无法对法律案件中纷繁复杂的规范性与非法规范性因素进行综合权衡和理性回应,于是很容易使案件中当事人的基本诉权受到重大侵犯和严重影响。
其次,阻碍数字正义实现。诚然,智能裁判的运行实践与设计初衷就是要让数据多跑路,让群众少跑路,最终实现司法亲民化和数字正义。实践中,浙江通过“全域数字法院”建设,实现全流程智能辅助,推动整体智治与数字正义的全面实现。而上述“全域数字法院”实践有效推进的重要前提恰恰是必须保证智能司法资源人人享有并平等参与,特别是话语权较弱的数字弱势群体(如不熟悉数字产品、不会使用数字产品等)也能通过智能裁判寻求更快捷、便利的权利救济。如若不然则会形成三道“智能裁判鸿沟”,即无法接触到智能裁判而产生的“接入沟”、无法使用智能司法技术而产生的“使用沟”、无法平等获得参与和熟知智能裁判操作与运行的“知识沟”。这三道“智能裁判鸿沟”在很大程度上使得数字弱势群体的数字人权面临极大威胁。
从智能裁判的“接入沟”看,公众对智能裁判算法的设定过程及基本原则等细节一般都无从知晓。由此,智能裁判根据智能算法所得出的有关案件预测结果、量刑适用参考结论、权利义务配置等具体内容,可能在形式上或外观上并不违法,但在合理性和正当性方面却存在诸多争议,更不符合实质正义的价值追求。如有学者认为的,“出自技术人员之手的算法用在审判的过程中,扮演了决策者的角色,其正当性首先在理论层面引起了怀疑”。从智能裁判的“使用沟”看,很多公众对智能裁判技术、业务平台,以及流程并不太熟悉,这容易引发公众对智能裁判结论正当性和合法性的双重拷问,严重的将阻碍智能裁判本身的正义性和公平性。从智能裁判的“知识沟”看,很多公众对智能裁判的运行原理和知识并不通晓。如前所述,智能裁判运作的本心是想用机器替代人类进行司法裁判或作出司法决策,“而一旦人脑决策过度依赖算法决策,甚至算法决策替代了人脑决策的话,人权遭遇侵犯以及人权保护的样态也将会发生重大改变”。
再次,阻碍公民知情权实现。诚然,智能裁判凭借其背后强大的算法技术和大数据支持,顺利依据群体数据对待决案件作出司法决策,从而使司法裁判提速增效。然而,群体数据获取过程中很容易侵犯个人信息的平等权。它常常以侵犯、抓取、泄露个人信息隐私等为代价建立司法大数据,势必对公民数字知情权和数字参与权构成较大阻碍。譬如,智能算法黑箱的存在使得庭审控辩的三角结构发生严重失衡,被告人的一系列诉讼权利,特别是辩方的质证权、辩护权和提出回避权等都将受到重大影响。由此,智能裁判使得机器法官成了一个霸道的裁判者,就连法官自己都无从知晓智能算法是什么以及如何运行的情形下,何谈对公民数字知情权和数字参与权的保障呢?在刑法领域,人工智能常常被用来辅助量刑,然而辅助量刑技术背后的算法黑箱、数据不全面、唯公权力化等因素,都可能会影响个案的实质公正性。这样一来,技术可能不当干预或操控法院的审判信息和当事人的证据信息,甚至替代国家权力进行干预审判过程,这是极为严重的。实践中,杭州互联网法院依托阿里巴巴技术公司建立诉讼平台,深圳法院依托腾讯公司的人工智能技术进行类似审判。可以说,在一定程度上技术可能成功俘虏了法院判决的公正性,这也是大型网络公司商业利益驱动的必然结果。
要素式裁判是智能裁判运作的重要机制。其基本原理主要借助人工智能、法律知识图谱、法律大数据自动识别并抓取案件裁判中必备的法律要素和事实要素,重点围绕争议要素进行自动整理、归纳,并抓取数据库已有案例和判决的共性规律后批量自动生成裁判文书并予以判决,客观上简化了审理流程,实质上让案件裁判提质增速看得见,摸得着,但却因智能裁判要素不完备和提前设定而引发如下三个问题:
一是“要素”不完备阻碍个案可视正义。实践发展表明,“要素”索引系统越完备,依据其作出的预测结果才会越准确。令人遗憾的是,“要素”索引系统可能永远是“不够完备的”,因此依其作出的审查意见和量刑参考就会出错。理由恰是,“要素”索引系统既无法应对千变万化的法律事实和频繁出台的法律规范,也无法应对法律实践中的新型案件和复杂案件,因而会阻碍待决案件的实际匹配质量和实质正义。其根源可追溯到“要素”索引系统的预先设定性。“要素”索引系统的提前设定并不能满足一些新型案件和复杂案件的个案需求,根据过往案件而建立的预测模型所得出的审查意见和量刑参考只能是概率性的预测判断。相较于基于质量较差、参差不齐的类案归纳出来的“普遍正义”,当事人毋宁寄希望于法官通过充分说理所得出的“个别正义”。这样一来,“要素”索引系统的预先设定很可能就会出错或遗漏,从而导致不相似案件“成功”匹配、相似案件失之交臂的双重严重后果。山东省高级人民法院印发《要素式审判方式指引(试行)》的通知,规定要素式智能优先选择案由为金融借款合同纠纷、物业服务合同纠纷、离婚纠纷等类型案件。这就意味着没有被要素式智能裁判优先选择的案件可能不能或较少适用智能裁判,影响智能裁判效果的全覆盖和全面可视正义价值的最终实现。
二是“要素”僵硬影响个案结果互动。众所周知,司法裁判需要凭借法官高度理性和丰富经验反复比较、衡量,以及博弈后作出最佳选择,而这显然是智能机器依靠的僵硬算法逻辑所不能企及的。此外,更为重要的是,“大数据预测在简单案件中或许能够实现同案同判的目标,但是在大多数情形下同案同判仍然要依赖人类自己的理性判断”。这就意味着智能裁判无法做到对案件的全样本进行采集,也无法实现待决案件和已决案件的即时性和同步性。实践中,智能技术并不能对复杂案件、疑难案件的全部信息和全部过程进行抓取,其只能提供一种相对标准化、选择化的要素供智能裁判系统深度学习。而这样的相对标准化要素恰恰无法满足法官个案裁判时的个性化、特殊化、场景化和语境化需求。即便是上述需求能够实现,“要素”事实语言的转换也面临重大难题。譬如当下的智能裁判系统无法根据“事实-规范”的契合性程度以及法律术语的动态语义,合理、恰当地帮助法官在纷繁复杂的“法律-事实-价值”冲突间作出最佳取舍。
三是评价个案法律意义能力弱。按照常理,评价待决案件法律意义是一个非常复杂的过程,需要法官在法律规范与案件事实间不断推理和反复论证方能做出最终结论。这不仅取决于单独个案的法律意义和社会意义,更重要的是要看这个个案在法律体系中的整体性评价,而非“要素”索引系统储备的共同要素数量。理由恰是即使两个案件的共同要素很多,也不能断定二者一定是类案。换言之,案件相似性的辨析任务主要还是由人类来完成,而理解和评价案件的关联性、整体性和动态性正是智能机器思维和认知的短板,严重的将导致智能裁判沦为机械裁判,最终可能会走向数字正义的对立面。
随着法院信息化发展的不断推进,智能裁判风险升级后的法律后果也愈加严重。因此,需要构建以技术规制技术的正当性程序,实现对技术应用的紧急处理、监督、归责和有限公开,并“借助于技术程序的正当性来强化智能决策系统的透明性、可审查性和可解释性”,持续通过对算法的监督、修正程序保障数字人权,不断完善要素式裁判的人机协同策略,从整体上促进智能裁判的健康发展。
如前所述,我国目前的智能裁判主要是在国家公权力主导下进行推动的,并呈现一定的扩张性,因其对智能技术的过分依赖从而导致正当程序价值的减损,进而使得公民诉权实现受到技术的限制,智能裁判的结果也相应出现了错误或不公正,因此,需要构建以技术规制技术的正当性程序,即通过程序的代码化实现对智能裁判技术的合理规制。这就需要做到:
1.合理构建技术紧急处理和监督程序
智能裁判的核心就是将现实社会的法律规则转化为计算机的代码规则,因此,从法律角度理解,首先要解决的问题便是如何保证计算机技术编程人员能够将确定的法律规范、法律原则以及案件事实完整地输入计算机程序中。在宏观规划方面,建议可从以下两方面着手:其一,建构智能裁判标准化的数字紧急处理程序,建议在原有的程序架构中,嵌入人工智能产品或技术的设计者和开发者编写代码的程序规则并附带详细的操作流程;其二,对上述程序规则的实施情况进行监督,并设计应急处理措施,使计算机编程过程尽可能多地设置案件结果、辩论、说明理由等互动程序,防止智能裁判技术对自然人审判主体地位以及智能裁判正当性及合法性的侵蚀,进而修正计算机编程所促成的裁判程序标准化局限。
在微观操作方面,首先,需要对智能裁判设计本身的潜在缺陷进行事前审查,如是否对数字人权、个人信息保护和正当程序等价值构成重大影响。这就要求智能裁判设计,特别是算法设计者应当审查智能裁判的设计及相应的算法规则是否符合一定的伦理准则,如果因此缺陷导致个人权利遭受侵犯,相应的程序员、软件工程师、数据处理商、信息技术公司应当承担一定的设计责任。其次,智能裁判的设计应由多人分工协作来完成,每个人只知道到自己设计的任务,并不知道算法设计的全部。因此他们既无法操控算法运行的最后结果,也无法通过算法实现操控司法的目的,更无法植入算法偏见影响司法裁判。再次,建议算法部署者承担强制性信息披露义务。算法部署者应主动向相关司法部门解释算法及使用算法所作出的自动化裁判决策是如何产生的,并提供决策的本质性信息和论证逻辑,否则应该承当相应的不利后果。最后,明确法官与技术间的“主体-工具”关系。如前所述,智能裁判的自动化决策可能是程序员、软件工程师、数据处理商、信息技术公司与法官共同作出的决定,这就直接冲击了法官独立审判的主体地位。为了遏制这种局面的持续,防止发生错案时可以被追责,建议明确案件裁判法官和人工智能技术之间的关系,即主体与工具的关系,从而捍卫人类法官裁判的主体地位。
2.秉持有限的技术公开原则
如前所述,智能裁判受争议和怀疑较多的地方就是智能裁判的技术封闭性导致算法的不公开。此种不公开既包括不向法官公开,也包括不向辩护方公开,理由恰是商业秘密等商业利益保护的特殊需要。但此般操作却忽略了技术不公开在很多情况下还涉及更基本、更重要的法益,如公民生命权、自由、平等、正义、财产等。从法理上看,这些法益往往比商业利益更具有法律价值位阶上的优先保护性,这就使得智能裁判系统开发商和运营商的抗辩理由显得很不充分,且缺乏法理基础。对此,建议推行有限的技术公开原则。其内涵主要指算法在一定范围内可以有限度地向辩方、法官和社会公开。此外,还应当恰当保护当事人的个人信息权和隐私权,尤其是被遗忘权。因此,应该“强化诉讼中的信息开示制度,将刑事诉讼中的阅卷权改造为‘数据访问权’”,确保被收集的个人信息仅用于智能裁判之目的。
详细来说,需要做到以下几点:其一,列举智能裁判技术程序公开原则的例外情况,主要指涉及商业秘密(需要具有更强理由并进行充分的说明和论证)、公共安全、国家安全等重要法益的情形。其二,明确智能裁判技术程序公开原则的内容。除了上述例外情况,一般需要让智能裁判所影响的相关主体参与到智能裁判决策中,以保证“数字公民”数字诉权的实现。笔者建议赋予“数字公民”对于神经网络学习、机器自主学习、知识图谱学习作出决策前的司法决策行为享有知情权、被通知权,以及在可能的条件下进行适当的说明理由或解释权。其三,在极为必要的情况下,法院有强制披露智能裁判算法代码的义务。如果认为有必要,如侵犯当事人的数字知情权、数字隐私权、数字平等权等“数字公民”基本权利的情况下,法院应该有强制披露相关智能裁判算法代码的权力。理由恰是,算法公司的商业秘密固然重要,但与“数字公民”的基本人权相比,其位阶还是要低一阶,因为商业秘密只是法律关系所保护的客体,法律的终极目的在于保障基本人权,因此算法公司的商业秘密不能凌驾于数字人权之上。其四,为上述操作建构必要的程序保障。如智能裁判技术的司法监督程序、司法听证程序、司法责任追究程序等,其目的是保障智能裁判系统能够按照事前设计好的程序规范良好运作。
3.构建技术工作失误后的归责路径
由于智能裁判的运作对技术有较高依赖,因此智能技术的研发者及司法工作人员应成为归责的主要主体。那么,如何追究上述主体的法律责任呢,合理的建议是可以考虑把“过错推定原则”作为责任追究的主要原则之一。学者程凡卿也认为,人工智能工作失误的归责制度“适用过错推定原则,由司法工作者优先承担失误责任可以有效督促司法工作者认真审核、监督人工智能的工作状况,及时发现问题、及时改正失误,有效防止因司法工作失误危害社会公众利益。同时又能防止人工智能的关联主体之间相互推卸责任”。这样做的好处是:其一,确保原始数据的客观、全面、公正采集和输入,防止原始数据偏见对程序正义和公众利益的危害。其二,司法工作人员和技术工作人员分工明确,各司其职,保证司法活动的正常运转。司法工作人员依法将法律规范依据合理比例编辑到人工智能系统程序中,而技术人员的工作应限定于智能系统的研发、维护和修缮,不得介入特定案件的审理和量刑。只有在例外的情况下,法官需要按特定的程序申请求助技术人员处理纯粹技术问题,防止技术对司法的直接干预和操作。
智能裁判应具有广泛内涵,既指辅助法官进行办案,也指替代法官直接作出司法决策。但这两种内涵都潜藏着威胁法官裁判主体地位、阻碍数字正义和数字公民知情权实现等风险后果。为了应对其风险后果,一个有效的路径应是将数字人权价值设定成算法程式,通过不断对算法的矫正和参与程序增强数字人权保障。建议做到:
一是建立算法正当性的矫正程序。如前所述,智能裁判面临的首要问题便是智能机器通过算法的运作在某种程度上实现并完成了对人类的审判,其替代人类做出裁判的结果必将面临裁判正当性和合法性的质疑。因此,需要通过计算机程序矫正智能裁判算法的偏见,尽可能使智能裁判系统“通过深度学习吸收经验知识,形成更细微的属性特征描述公平正义”;“通过训练样本数据使机器自动归纳偏见,并产出自我矫正的决策模型”,从而克服智能裁判算法在诉讼扩张使用以及外包过程中对“数字公民”数字程序参与权与数字抗辩权的阻碍。此外,还可以借鉴《欧盟数据保护条例》(GDPR)序言部分及第13 条的相关规定,赋予“数字公民”拥有对智能裁判算法自动化决策的解释权并对其决策质疑。因此,建议诉讼平台应该由政府主导的相对中立的企事业单位接管。在第三方算法审计机构的协助下对智能裁判算法进行定期检测和临时检测,及时纠错并改正。
二是个案实质公正实现的算法程序选择权和参与权。这就要求做到:其一,赋予“数字公民”算法程序选择权。诚然,智能裁判在提高裁判质效,助力类案裁判适法统一的过程中也对传统自然人的审判主体地位、数字正义理念,以及“数字公民”的数字知情权和参与权的实现构成较大阻碍。因此,建议采取将数字人权价值设定为算法程式,通过对算法的矫正机制保障数字公民的程序选择权、程序拒绝权和程序参与权。当智能裁判结果明显有损个案公正时,可以赋予“数字公民”程序选择权,即案件当事人在对智能裁判算法决策不信任的情况下,有申请启动对算法进行解释的权利和程序。如若相关司法机关不启动上述程序,则应该将不启动算法解释程序的决定书和详细理由一起告知当事人。其二,赋予“数字公民”享有拒绝智能裁判算法决策的权利和数字程序参与权。前一种权利主要指当事人可以自由选择是否交由智慧法院解决纠纷,如若担心遭遇数字鸿沟、算法偏见、算法歧视等不公正待遇,则可以拒绝算法裁判。详细操作为:案件裁判结果出来后,法官告知案件双方当事人有是否接受智能裁判算法结果的权利,若是不接受,双方当事人可以在规定的时间内向法院提出,法官不得主动干预、影响智能算法裁判结果以及案件双方事人的最后决定。后一种权利主要是指在数字程序的建设和适用过程中,当事人可通过可视化和便捷化的操作流程,以及各个节点和时段的程序推进信息,时时跟踪案件的最近进展情况,以便更好地保障自身利益和合法权利。这两种权利相互配合、相互补充,共同促进了数字公民司法权利保障体系的发展和完善。
三是同步搭配弥补数字鸿沟的司法辅助性资源。如前所述,智能裁判的设计初衷和美好愿景是让普通民众足不出户或更便利地感受到公平正义。然而,很多普通民众,特别是话语权较弱的数字弱势群体却很难参与其中。因此,需要法院为数字弱势群体提供弥补数字鸿沟的辅助性数字资源。实践中,奉化法院采用“共享法庭”仅用3天时间“一揽子”解决了24家商户的群体性纠纷。浙江丽水景宁通过在邮政网点建立的“共享法庭”,为当事人提供稳定的信息化环境、贴心的信息化指导、便捷的信息化服务,顺利解决债务纠纷。此外,为了更好地保障数字人权和实现个案实质公正,司法机关应“兼顾少数群体价值观、风俗习惯以及经济水平等方面的殊异性,并在尊重被告人算法选择权的基础上,开展主审法官的伴随性审查程序”。
要素式裁判是智能裁判运作的重要机制,其主要通过要素的设定、筛选、模型建构等程序最终实现对案件结果的预测和评估的。然而其设定的不完备性、僵硬性和评价个案法律意义能力弱等不足,阻碍了个案可视正义的实现和个案结果的互动。因此,需要通过人机协同策略来规制要素式裁判机制的风险,促进其有序运作。
首先,强化“人机合作”要素清单管理和归责。如前所述,智能裁判主要是运用机器深度学习算法技术让机器在大数据中自主学习如何像“法官”“一样判案,其运作形式也是多种多样的,如自动归纳案件情节和争议焦点、自动生成裁判提纲等,进而为法官裁判提供智能辅助。如“智慧审判苏州模式”和“睿法官”智能研判系统等。从上可知,要素式裁判正常运作的首要前提是需要有法律规定和已裁判案件的公诉意见书、起诉书、答辩状等材料,在此经验基础上才能自动生成庭审提纲或庭审要点,进而为法官裁判提供智能辅助。随之而来的问题是,如何用已有法律规定和案件事实来裁判法律实践中的新型案件和复杂案件,其正当性和合理性何在?这就需要通过“负面清单+责任”制度的双层构建来增强要素式裁判的有效性。其一,强化“人机合作”要素清单管理。具体操作方法是,“凡是与裁量性判断有关的数据,特别是既有智能系统的数据更新,提供主体必须保持唯一性——司法官和司法机关”,而对法律及如何适用问题则由机器进行。同时,要求智能裁判要素所遇到的问题必须细化、量化并生成要素清单,确保件件有落实、事事有回应,实现“发现—反馈—整改—共享”。其二,严格落实“谁决定谁负责”的责任制度,合理划定人工智能辅助裁判的范围与限度。一般而言,新型、复杂等重要案件事实和价值判断等问题一般由法官承担主要责任,而数据统计、程序推进一般由智能裁判辅助系统来承担。
其次,通过知识图谱助推事实语言转换。众所周知,智能裁判的一个难题在于事实语言的转换,这直接影响到个案裁判结果是否公正。建议通过基于多种语义自动抽取与人工标注模型的“人机合作”路径完善人工智能事实语言的转化。通过智能机器对已有案件要素进行自动抽取、识别、检验和审查,然后再把以上评价结果交由人工按照多种语义把相关要素内涵标注出来,随后分别建立案情要素标签数据库和相关模型系统以供机器自我学习并更准确地识别案件事实,确保普通民众在智能裁判个案中感受到公平正义和获得感。此外,还建议“有关方面对通用智能系统的研发依据、应用影响等,做审慎判断”。
再次,构建科学合理标准,增强案件评价的说理性。如前所述,要素式裁判机制是智慧法院建设实现全流程网上办案、完善信息化办案“最后一公里”、助力类案适法统一,以及破解“案多人少”结构性矛盾的现实需求。但在实践中,却存在不能理解待决案件法律意义的问题。因此,需要依照“机器智能与人脑智能的模仿度、算法裁判与自然人裁判的吻合度、要素抓取与个人隐私的保护度”三个标准校验智能裁判结果的合法性、合理性、正当性,并需要将修改的理由和论证材料以备注形式呈现在智能裁判的评估结论中。此外,需要增强待决案件法律意义评价的说理性。其目的在于促进可视正义向说得出的正义迈进,进而提高智能裁判结论的可接受性。待决案件法律意义评价说理要做到四个层面,即法理、情理、事理、文理的统一,进而增强案件评价的可论证性和可辩驳性。
智能裁判的经验表明:智能裁判已是新兴科技赋能智慧司法的大势所趋。基于人工智能正加速应用于司法裁判中,智能裁判的风险正处于从技术依赖到技术主导、从办案辅助向辅助裁判、从改变机制到触及属性的不断升级中。其所引发的正当程序价值减损、数字人权保障危机和解构司法正义等法律后果也愈加严重,并使得传统司法正当程序面临自动化决策的挑战。这些都是新时代智能裁判深入推进所必须解决的时代课题。
诚然,智能裁判涉及以下三个重要问题:一是,为何要推进智能裁判;二是,如何推进智能裁判;三是,推进智能裁判后的实际效果如何。先来看第一个问题,建设智能裁判的初衷一般可以归纳为提升司法审判质效、解决司法机关案多人少难题、提高裁判结果精准化,以及促进可视正义实现等。再来看第二个问题,如何推进智能裁判,主要运用要素化裁判机制,通过人工智能技术自动归纳案件情节和争议焦点,自动生成庭审提纲,为法官提供庭审智能辅助。最后看智能裁判运作的效果,其在促进司法现代化、智能化、信息化的同时,也侵犯了“数字公民”的信息平等权和信息知情权等基本权利。这样看来,智能裁判的运作就远远偏离了智能裁判建设的初衷。笔者认为,问题的根源在于智能裁判的功能发生了异化,从智能裁判的外部观察看,智能裁判的功能不仅包括大大提升司法质效,更重要的是要保障“数字公民”的基本权利,只有二者同时实现,智能裁判的操作才有意义,亦才有未来。