刘子凡
(桂林电子科技大学法学院,广西 桂林 541200)
人工智能,是以算法为支撑的智能人工系统。经过半个多世纪的发展,人工智能对人类社会的影响逐步深入。各国在司法中引入人工智能,是从20世纪70年代开始的。我国司法人工智能虽起步较晚,但备受重视。2017年以来,《新一代人工智能发展规划》《关于加快建设智慧法院的意见》等重磅政策文件的发布,有力推动了司法机关的信息化、智能化变革。各地司法人工智能建设如火如荼,其中上海“206”刑事办案辅助系统尤为出名。人工智能的介入,对提升我国司法效率、严防冤假错案与司法腐败具有重要作用。然而,科技“双刃剑”原理在司法人工智能中同样适用,高度智能化、自动化的办案辅助系统,对传统的司法原则、司法模式带来了一定冲击。司法智能化的变革不可逆转,但我们仍需以理性之心,直面科技带来的法律风险。下文将主要以上海“206”刑事办案辅助系统的应用为例,分析司法人工智能存在的风险与问题,探讨其应有的定位,并提出规制方案。
在司法人工智能迅猛发展的同时,受制于观念、技术、传统,司法人工智能亦表现出一定的法律风险,即对于法定司法原则和司法模式的冲击。司法人工智能虽使得司法范式向智能化、便捷化转变,但其能否真正促进“让人民群众在每个司法案件中都感受到公平正义”这一目标的实现,仍需谨慎研判。社会学家贝克曾指出:“新兴技术在给社会带来机遇和便利的同时,也存在产生风险和挑战的可能”[1]。因此,我们必须重视并细加分析司法人工智能产生的法律风险,以探寻治理之道。
我国宪法第128条、第131条的规定,确立了法院独立行使审判权的原则①,审判权这一国家权力,专属于法院和法官,法官在审理案件时,有权独立而不受干涉地进行证据审查、事实认定、法律适用和最终宣判。然而,司法人工智能的应用,在某种程度上动摇了这一基本原则。我们以上海高院的“206”刑事案件智能辅助办案系统为例说明。这一系统,可以辅助司法机关进行证据审查、事实认定等工作。然而,在事实认定的过程中,法官必须进行价值判断和价值选择,遵循“自由心证”。人工智能毕竟是机器,它的介入很可能极大简化原本复杂的事实认定过程,本应考虑到的利益衡量、危害程度等因素则被其抛弃,事实认定变得机械化。人工智能系统将证据数据化、法律规则代码化,以此来指引审判人员,而这无异于通过层层嵌套的技术,削弱司法人员的裁判权力,一定程度上会产生决策让渡现象[2]。在案多人少、审限制度的压力之下,司法人工智能凭借其快捷特性会让法官形成对其的依赖。有研究表明,市面上的“小猿搜题”等教辅APP会增加学生在学习上的惰性,因为学生过分依赖于他们,思维能力和动力明显下降。那么同样的道理,过分依赖司法人工智能亦会增加法官的惰性心理。
上文谈到,事实认定必然伴随着价值判断与价值选择,而它们需要法官运用专业理性和法治精神,行使一定自由裁量权[3]。一个公正的裁判,必然是一个做出正确价值选择和判断的裁判。而作为机器的人工智能,没有情感,没有理性,没有社会经验,无法进行价值判断,依赖人工智能进行裁判,会大大限制法官的自由裁量权。同时,对价值的选择和判断,往往体现着法官的人文关怀。我们所追求的司法正义,亦应当是具备人文精神的正义。而司法人工智能固然有助于作出更为高效一致的司法裁判,但它们不能与人进行心灵互动,不可能有人文关怀[4]。因此,法律人所独有的人文情怀和法律精神无法被人工智能替代。
综上,司法人工智能的运用,使得法官事实认定者的身份逐步异化,法官行使审判权不再“独立”,人工智能和其背后的技术研发者与法官“共享”了审判权,法院独立行使审判权原则受到明显冲击。
人工智能的运行依赖于算法对于数据的处理,可以说算法是人工智能发展的助推器。虽然算法的运行基于输入的客观数据、代码等,但算法与价值选择等主观性活动依旧具有相关性,因为算法的开发毕竟是由人类进行的。实践中,司法机关通常没有能力独立进行人工智能的开发,因此开发工作主要是外包出去由技术公司进行。上文中提到的上海“206系统”,其主要研发者是人工智能企业的先锋“科大讯飞”,其派出的技术人员超过300人次[5]。而对于科技研发企业而言,他们没有充足的法律知识,缺乏法律伦理观,更没有司法经验,研发出的算法系统很可能带有个人偏见。一个带有偏见的算法,得出的结论也必然带有偏见,这种偏见势必会产生误导司法人员的风险。2013年,美国“威斯康星州诉埃里克·卢米斯”案曾轰动一时,一个旨在提供量刑辅助的风险评估系统被指存在算法歧视问题,对该系统进行的独立测试表明,黑人被评估出再犯的风险几乎两倍于白人,但实际上其中只有20%的人会继续犯罪[6]。因此我们必须重视算法偏见导致个案裁判不公的风险。
算法具有不透明性,这已是学界的共识。司法人工智能中的算法不透明,则威胁着司法公开原则的贯彻。司法人工智能通过分析输入的司法数据、法律条文等,可以为法官提供类案推荐、庭审结果预测、判决指引等帮助。但是算法进行运算并得出结论的这一过程,是不为当事人所知晓的,算法自身的隐秘性和封闭性,使得人们无法审阅司法决策系统进行裁判时的说理和论证[7]。即便当事人要求公开算法决策过程,但若科技研发者以保护商业秘密为由拒绝公开详细的算法运作步骤,似乎也有法可循。即便公开,司法人员、当事人也不具备理解算法的能力,因为他们缺乏相应的技术知识,无法理解算法系统的运行机理。总之,现阶段的算法隐秘性极强,其与司法公开存在显著矛盾。
原被告、控辩双方居两边、法官居中间的三角诉讼构造,是世界各国普遍采取的诉讼结构,这一基本构造下又可分为当事人主义诉讼模式、职权主义诉讼模式等,但无论哪种模式,都旨在让法官充分查明事实、准确适用法律。诉讼三角构造应当是稳定的,各方的诉讼地位和诉讼权利都理应得到保障。然而,司法人工智能的运用,则大大强化了国家公权力机关的办案能力,使得等边三角形的诉讼结构出现失衡风险。我们以刑事诉讼为例说明。我国宪法、刑事诉讼法对于公、检、法三机关的职权和分工有明确规定,三机关应当“分工负责、互相配合、互相制约”,既要确保准确打击犯罪,又要保障当事人的人权、诉讼权利等合法权益。在实务中,基于国情等因素,三机关在刑事诉讼中往往配合有力,但制约不足,他们作为“政法机关”这一整体,对于被追诉人而言本就具有巨大优势,而司法人工智能的运用更加强化了这种优势。例如,上海的“206”系统,就是以统一证据标准为主线的智能办案系统,公、检、法都可使用。该系统对于证据审查会给出统一的指示,并能强化三机关的信息共享。检察机关在审查公安机关移送的证据时,若使用“206”系统辅助审查,则极有可能得出与公安机关相似的结论,因为公安机关在审查证据时亦使用了“206”系统。如此一来,侦查、审查起诉和审理变得如同工厂流水线一般,三机关的办案思路趋向同质,后续流程对前续流程的审查更加缺乏实质性,三机关之间的制约更加难以执行。
另外,司法人工智能的运用更加凸显了不平衡的控辩关系。现代法治所追求的应然状态,是控辩双方保持一种平衡的状态。但在我国,基于各种原因,控方力量远大于辩方力量。司法人工智能的运用,让侦查、公诉机关获取数据、分析证据的能力大为增强。根据上文的论证,囿于算法不透明等因素,司法机关尚且都无法解释算法结论得出的原因和过程,那本就处于弱势地位的辩方,更无法针对控方依据算法所做的意见进行有效的辩护,法官亦很难采纳辩方的意见。
司法人工智能之所以会产生上述法律风险,主要是因为在推动司法智能化的进程中,我们关注的重点往往在于“利用人工智能治理”,而轻视了“治理人工智能”。司法人工智能是机器,它只可辅助司法机关,绝不可代替司法机关,司法人工智能无论如何发展,都不能动摇司法的应有之义。紧紧围绕这一定位,是规制法律风险、推动人工智能法治化发展的必然选择。
根据我国宪法和诉讼法的规定,法院独享审判权②。然而,司法人工智能的运用,对法官的审理活动施加了极大影响,机器参与审判、与法官共享审判权成为现实,其让法院的裁判活动产生了违反现行法律原则的风险。而法院独立行使审判权,无论何时都应是必须坚守的法律价值和原则。司法人工智能终归是“辅助”系统,其对于法官的事实认定、法律适用和判决,只可起辅助作用,不能有实质性的指引和干预,法官使用司法人工智能辅助裁判,亦须遵循自己内心对于证据、法律的认知。坚持司法人工智能的辅助性定位,是避免其影响法院独立行使审判权之必要。
坚持司法公开,保障司法公正,强化社会对于司法活动的监督,是实现“努力让人民群众在每一个司法案件中感受到公平正义”这一目标的必要条件,是国家法治建设重点推进的工作之一③。互联网、人工智能技术的运用,则扩展了司法公开的渠道,丰富了司法公开的形式,增强了事实认定、法律适用的准确性,故这些新技术本是有助于推进司法公正与公开的。而算法黑箱、算法偏见等技术问题的存在,却成为了实现公平正义的桎梏。因此,我们必须适当调适技术的固有问题。依靠互联网、大数据等科技加持,司法公开的广度、深度与可得性均能获得极大的扩展[8]。在司法公正上,提升数据收集的广泛性和准确性以克服算法偏见也十分必要。总之,司法人工智能必须坚持服务司法公正与公开的定位。
司法人工智能具有辅助性,要重视对于人工智能的治理,司法人工智能只可在法定司法原则和司法模式下应用。这是发展司法人工智能应当坚持的定位。厘清这一定位,也就明晰了司法人工智能出现法律风险的原因,同时也为规制司法人工智能提供了原则方向。治理司法人工智能,本质上是对技术的治理,要让技术更好地服务于人类,可遵循“技术归化”的治理思路④。尽管有人认为,随着大数据和算法的深度运用,法律的操作和管理最终也可由机器进行[9]。但法治仍是现代社会治理的“最大公约数”,亦是“归化”技术的必然路径。在“法治归化技术”的总原则之下,我们提出以下规制司法人工智能风险的方案,以期为治理者提供参考。
严格落实司法责任制,深化司法责任制改革,必须贯彻“让审理者裁判,让裁判者负责”。在审判活动中,法官是法定的审判主体,司法人工智能只是辅助法官裁判的工具,因此主审法官必须对案件负责。学界有声音认为,人工智能未来可能承担法律责任。但是在当下及未来很长时间,囿于技术、伦理等因素,人工智能都很难具有独立的行为能力,难以成为法律认可的主体,故讨论让人工智能承担责任还为时过早,意义不大。司法人工智能的研发者,并不能直接参与案件审理;加之法官对使用司法人工智能所做出的裁判,具有最终审定的权力。所以研发者并不具备承担案件审理责任的现实依据。综上,坚持在裁判者身上贯彻“司法责任制”,是强化法院独立行使审判权原则的关键,不应因为人工智能技术的发展而有所动摇。
2.限定司法人工智能的运用情境
随着技术的进步,司法人工智能已经可以通过辅助法官开展事实认定、法律适用等进入审判的核心地带。因此,为保证、强化法官的独立性,可以法规范的形式限定司法人工智能的运用情境。例如,上海“206”系统就具有检索法律法规、司法解释、案例、著作、论文等资料的功能,并能够对相关知识和观点做出凝练。该项功能能大大减轻司法人员的工作量,可在司法活动中广泛使用。像庭审录入、案件归档等重复性、机械性的工作,亦可由司法人工智能承担。但是,“206”系统提供统一证据审查标准的功能,不可随意使用,因为证据审查关乎事实认定,是司法的核心,需根据案件情况使用此类功能。对法律关系明了、事实简单的案件,可由人工智能进行证据审查;对于相对重大疑难的案件,须充分发挥法官的作用,人工智能只可做案例推送、法律检索等辅助工作,不可进行证据审查和法律适用。
算法的不透明问题,使得人们无法看清其中的规则,无法提出不同意见,只能接受最终的结果。[10]因此,需用司法公开原则来打破算法的闭环运行,建立一种算法公开机制。一方面,因算法的运行离不开海量的数据,故要加大司法数据的公开力度,进一步推进司法数据公开平台的建设,并做到数据“精准公开”。例如,司法机关若使用“206”系统,就应公开该系统中与案件相关的司法数据,以此让相关诉讼参与人了解算法结论得出的源数据。另一方面,要给予人工智能研发者公开算法运行机理的义务。研发者在交付系统时,应当向司法机关说明不涉密的算法运行过程;若案情重大,司法机关也可要求研发者直接向当事人说明。同时,为保障算法公开的效果,研发者应注重对算法的解释,司法机关亦可邀请专家学者、法律实务者等专业人士参与到算法解释中来,以增强人们对于算法的理解度。
在司法智能化时代,人工智能增强了国家公权力机关的办案能力,但同时公民的辩护权等权利也受到了挑战,传统的诉讼结构面临失衡风险。司法人工智能技术应有利于所有诉讼参与者,其有义务保障公民的法定诉讼权利和人权,⑤使诉讼保持相对平衡。例如,上海“206”系统公、检、法都可运用。未来可让辩护人、诉讼代理人也使用该系统,帮助他们确立代理思路、形成代理词,以对抗公权力机关依据人工智能系统进行的追诉活动。在审查逮捕、取保候审、羁押必要性审查等需要评估人身危险性的环节,亦可引入风险评估系统,以提高风险识别的精准性,防止滥用逮捕、羁押过久等问题。
司法人工智能应用实践表明,司法智能化的变革是大势所趋。人工智能的发展表现出一个鲜明特点,即机器有了一定自主性,其不再只是工具。这一变革冲击了既有的司法体制,产生了诸多法律风险。面对上述趋势与特点,我们必须重新审视人工智能的定位,突出其辅助性功能,并强调“法治归化技术”的治理思路,牢牢坚持法定的司法原则和司法模式,以实现人工智能对司法的科学赋能。
注释:
①《中华人民共和国宪法》第一百二十八条:“中华人民共和国人民法院是国家的审判机关。”第一百三十一条:“人民法院依照法律规定独立行使审判权,不受行政机关、社会团体和个人的干涉。”
②《中华人民共和国民事诉讼法》第六条第二款:“人民法院依照法律规定对民事案件独立进行审判,不受行政机关、社会团体和个人的干涉。”《中华人民共和国刑事诉讼法》第五条:“人民法院依照法律规定独立行使审判权,人民检察院依照法律规定独立行使检察权,不受行政机关、社会团体和个人的干涉。”《中华人民共和国行政诉讼法》第四条第一款:“人民法院依法对行政案件独立行使审判权,不受行政机关、社会团体和个人的干涉。”
③《中共中央关于坚持和完善中国特色社会主义制度、推进国家治理体系和治理能力现代化若干重大问题的决定》指出,要“加快形成严密的法治监督体系”“加强对司法活动的监督,确保司法公正高效权威”。
④技术归化是指各种新技术必须得到转化,使其从陌生的、可能有的危险东西转化成能够融入社会文化和日常生活之中的驯化之物。参见何明升.中国网络治理的定位及现实路径[J].中国社会科学,2016(7):114.
⑤《最高人民法院关于加快建设智慧法院的意见》指出,要“面向法官、诉讼参与人、社会公众和政务部门提供全方位智能服务”。