孙占利,胡锦浩
(广东财经大学 法学院,广东 广州 510320)
2019年底人民法院信息化建设3.0版完美收官,智慧法院的格局初步建成。最高人民法院院长周强在全国法院第七次网络安全和信息化工作会议上提出,2025年将全面建成以知识为中心的信息化4.0版,推动智慧法院朝着智能化、一体化、协同化、泛在化和自主化的智慧司法服务迈进,充分发挥司法数据中台、智慧法院大脑的智慧引擎作用,打通“信息孤岛”和“数据壁垒”,实现智慧法院的高质量发展[1]。智慧法院之所以“智慧”,根本原因是人工智能的深度参与和科学辅助,人工智能应用于司法审判对促进司法公正、提升司法效能、提高司法公信力具有重要意义。然而,人工智能应用于司法审判也会产生一系列新问题,这些问题并不否定智慧法院建设取得的巨大成就和未来发展前景,但需要未雨绸缪做好分析、预测和应对,否则将影响智慧法院的建设进程,甚至可能成为智慧法院建设的实质性障碍。
2020年12月18日,最高人民法院副院长姜伟在“智慧法院的跨越发展”的主题演讲中提到,从我国法院司法信息化的发展过程看,我国法院的信息化建设依次经历了电子化(始于1986年,先是电脑普及化)、网络化(始于1996年)、数据化(始于2006年)、智慧化(始于2016年)四个阶段。2016年是我国智慧法院建设元年,基本实现卷宗电子化、网络一体化、数据资源化,开始步入审理智能化。总体而言,智慧法院并不是简单地将传统司法从线下流程搬到线上、审判空间由当事人的对席变为对屏、审理时间变集中举证质证为异步举证质证,而是再造审判流程,推动诉讼程序重构、司法模式变革和诉讼规则完善。
就人工智能的司法审判应用而言,其目的是打造集效率和公正为一体的“数字正义”,当前的典型应用是人工智能辅助裁判系统。2016年,河北省高级人民法院受最高人民法院的委托研发了“智审”系统,该“智审”系统通过对案件材料的智能识别、抽取、归类,能够将法院受理的个案与全国法院的司法文书或指导性判例连接匹配,从而实现对电子卷宗的智能分析,并通过一键操作自动生成民事、刑事、行政等各类型的司法文书,形成电子卷宗自动录入和司法文书自动生成的紧密衔接和深度融合,助力法官实现电子卷宗“随案同步生成”[2]。“智审”系统的应用既可有效降低法官在司法裁判中的人为失误率,保证司法文书的精确度和稳定性,还能最大限度地减轻法官的工作负担,使其摆脱繁琐的程序性事务,将更多的精力和时间投入到疑难案件和复杂问题的处理上。
从当前的实践看,人工智能辅助裁判系统可以分析案件事实,并提供裁判参考意见,在部分类型的案件中甚至可以自动生成裁判文书。然而,人工智能在司法裁判中的过度应用可能会打破司法的技术功能和规范功能之间的平衡。法官在长期的司法智能系统的辅助中会逐渐形成技术依赖和思维定势,甚至从庭审的开放性结构中逃离,转而投向司法人工智能算法的封闭性规则推理,其结果即是法官的自由裁量权和司法能动性被技术弱化。
智慧司法的图景将呈现出“案件事实—自然语言—算法演绎—生成判决”的流水线生产范式,这将在一定程度上动摇传统庭审以法官为主导的组织结构,甚至会对法院系统内部的司法行政管理形式造成冲击,改变上下级法院之间审判业务的行政化处理方式[3]。而且,侦查机关、公诉机关可以借助人工智能的自动化决策,提前和随时预测审判结果,进而依据预测结果改变其诉讼活动,表面上看可以提高司法效率和促进司法公正,但自动化决策的实质性提前介入很可能会影响到诉讼程序的正当性。
诚然,人工智能辅助裁判系统的引入的确能够起到规范和约束法官裁量的作用,上级法院可基于人工智能辅助裁判系统实现对下级法院判决的错案预警、发回重审、依法改判。然而,基于上下级法院之间的系统互联互通和数据共享,甚至法院系统内部可以使用同一个“智审”系统,在类案检索制度的加持影响下,下级法院的法官在作出裁判时,容易为了降低上诉率、改判率及再审率而选择遵照人工智能的算法推理和自动化决策,从而导致人工智能的决策结果在法官内心形成非规范性的现实约束力,长此以往甚至还可能出现“唯智是从”的机械司法思维习惯。
前瞻地看,随着智慧法院一体化建设进程的深入发展,如果全国法院使用统一的人工智能辅助裁判系统或裁判文书生成系统,使用同样系统的法院就会作出同样的判决。那么,如果不考虑新证据等特殊情况,诉讼程序中还有必要设置二审和再审吗?当然,这只是一种假设,而且是非常极端的假设,但可以揭示出相关问题的重要性。可以预见的是,未来的智慧法院将可能会对司法制度产生结构性的影响,诉讼程序也将相应地进行结构性的调整,二审法院和再审法院的职能也将随之变革。按照人工智能技术革命的发展现状和趋势,对相关问题进行关注和研究并非为时过早,一些问题也已经引起了国内外的关注,未雨绸缪方能化解智慧法院建设的障碍。
庭审结构与当事人的诉讼地位和诉讼权利紧密相关。传统的庭审结构以法官居中裁判,当事人以两造对抗的等腰三角形为特征。我国历史上,此结构理论可追溯至西周《尚书·吕刑》的“两造具备,师听五辞”,即使在刑事诉讼、行政诉讼中,法律也通过对控诉方、行政主体课以严格的举证责任,降低被告人和行政相对人与公权力对抗时的不平等性,保障当事人的诉讼权利得以充分主张和实现。根据哈贝马斯的“程序性模式”司法裁判理论,司法裁判不是独白式的裁判,而是对话式的裁判[4]。
所谓对话,其强调的是两造在庭审上须经历充分举证、质证和辩论环节,司法亲历性和直接言词原则应涵盖在庭审之中,这也是审判中心主义的内在价值体现。唯有赋予当事人在法官面前诉尽权利主张和事实理由的机会,才能实现案件事实从诉辩双方的证明向裁判者心证位移。庭审现场的亲历性有助于法官运用经验法则和法律论证的推理逻辑,厘清案件的事实和法律关系,梳理争议焦点,行使必要的司法释明权,最终提供忠于法律和合乎情理的裁判结果。
然而,智慧法院的人工智能辅助裁判模式可能消减诉讼的两造结构,智能审判系统通过类案检索、案例数据学习、提取裁判要素、自动生成判决等流水线式运作,基于相对封闭性的司法数据集和算法模型得出最终的裁判结果,本质上与“卷宗主义”(或“案卷笔录中心主义”)及其展现的“侦查中心主义”无异,且与司法亲历性和直接言词原则不兼容,必然影响到当事人的诉讼权利及其程序保障。而且,人工智能应用还可能会对当事人的诉讼权利产生其他方面的消极障碍,突出表现在刑事诉讼领域。在刑事诉讼中,检方作为国家公权力的代表,和已被限制人身权利的被告人相比本就具有天然的优势,检方装备上以人工智能、大数据为核心技术应用的智慧检务系统时就进一步加剧了此现象,自动化决策的实质性介入很可能会损害程序正义并进而影响当事人的诉讼权利,且传统的公检法流水线作业和利用智能审判系统提前预测审判结果也可能与之形成叠加效应。
申言之,法律人工智能系统能通过侦查获取的证据和材料事先预判案件的走向,被告人在刑事诉讼中的命运也许在侦查活动开始前已然注定。而且,由于存在算法黑箱和技术壁垒的限制,辩护人将无法在证据开示阶段获取和知悉人工智能的决策过程[5],这也使得被告人在人工智能系统前处于“无助”的境地,其辩护人也无法与手握技术优势的公权力机关进行“抗衡”,将可能直接影响到其能否实现有效辩护。
当然,不能因此否定人工智能的司法应用的积极价值,而是要对此问题寻求新的应对措施,为被告人及其辩护人提供多元化、便捷性的法律人工智能技术支持是可能的解决之道,律师界已经开始探索人工智能在法律服务中的应用,一些企业也开发出了以“智慧律师”或其他名称命名的法律服务人工智能系统。从法律制度上看,司法机关的案件信息和智能决策信息的公开等措施也是保障被告人诉讼权利的必要选项。
“从逻辑上讲,一旦证据标准规则程序设定完毕,办案系统也就不存在对证据理解和适用不统一情形的发生”[6]。这其实是一种误解,目前的人工智能依靠的是算法而非传统的程序。在威斯康星州诉卢米斯一案(Wisconsin v. Loomis)中,被告人埃里克·卢米斯(Eric Loomis)被Compas风险评估系统评定为“高风险”,主审法官最终判罚卢米斯长期徒刑。卢米斯提出了上诉,因为在判审期间他并没有接触这个算法的权限。上诉法院驳回了卢米斯的上诉,原因是算法输出的信息有着足够的透明度。由于要保持算法的隐匿性,卢米斯一案最终没有对工具算法进行核查[7]。值得关注的是,2017年12月,纽约市议会通过《关于政府机构使用自动化决策系统的当地法》,该法要求成立一个自动化决策工作组,解决算法透明、解释权以及救济权等算法规制的核心问题。2019年11月,纽约市政府发布了《纽约市自动决策系统特别工作组报告》,但并未直面算法歧视问题。
在迎接和拥抱司法人工智能带来的高效和便利的同时,法律界已经注意到了其背后蕴藏的算法风险,特别是算法黑箱和算法歧视问题。关于算法黑箱,Jenna Burrell认为源于三种情形:一是基于国家秘密或商业秘密所代表的不透明性而导致;二是由于技术的专业性、复杂性和相对不透明而导致;三是机器学习内在的自主性和不确定性所导致[8]。算法黑箱是客观存在的现象,算法公开、算法解释等方法不足以彻底解决算法黑箱问题,重视算法黑箱的影响就成为必然选择。就司法算法黑箱而言,可能会引起当事人对判决结果的不理解和不信任,不谙算法技术但又必须为判决结果负责的法官也会对人工智能保持戒备心理进而产生疏离感。
算法作为一种技术表达,理应秉持技术中立原则,但算法设计和运行已然表明其并非是一种完全价值中立的数学活动。算法歧视是由数据分析导致的对特定群体具有的系统性、可重复的不公正对待,其形成原因较为复杂,但大致可以归纳为四类:一是数据歧视,即支撑算法作出决策的数据本身存在歧视;二是规则歧视,即算法在不同环境下运行的区分规则本身也具有歧视的色彩;三是模型歧视,即算法在运行过程中依托的某些技术模型所产生的歧视;四是训练歧视,即算法在自我学习模式下运用的反馈循环形式会偏离训练数据从而导致歧视[9]。
算法黑箱与算法歧视密切相关,至少其不透明性为算法歧视提供了代码或技术意义上的庇护空间。重新审视卢米斯案件,该案之所以成为算法黑箱和算法歧视的典型案例,主要是因为Compas系统将性别和种族因素作为量刑评估的根据,从而触发了算法歧视问题。此外,法院出于保护商业秘密的目的,剥夺了被告人对该系统设计和运行机理的知情权,使算法黑箱凌驾于当事人的基本权利之上,也使得公众开始质疑人工智能算法的公正性。客观地看,司法人工智能系统虽然可减少由法官滥用裁量权或主观过失造成冤假错案的几率,但同时也诱发了司法数据机密、商业秘密以及当事人知情权三者之间的冲突,也为司法透明乃至司法公正留下了隐患。
可以预见,随着人工智能在司法审判中的广泛应用,智慧司法将无法回避司法算法公开的呼声。譬如,经由人工智能裁决算法的自动化决策,虽能够生成裁判文书并阐明裁判理由,但当事人无法知悉算法决策的依据、算法模型的参数以及算法决策结果的价值取向。然而,保障当事人对算法决策过程和算法规则的知情权是维护当事人诉讼权利的重要途径,也是落实司法信息公开和实现智慧司法的“数字正义”的应有之义。
对人工智能辅助裁判系统而言,裁判的结果取决于法律和事实,法律是确定的,输入系统的证据也是特定的,裁决结果直接取决于算法,算法将成为智慧法院建设的重点。相应地,智慧法院建设工作必然着力于算法的改进及其司法应用,并从制度上解决算法黑箱、算法歧视、算法解释、算法审计、算法问责及算法救济等算法规制问题,特别是要构建科学合理、公开透明的人工智能技术规范体系,探索建立司法数据公开制度,以算法透明和算法的可信解释回应算法公开诉求,保障当事人对算法规则的知情权和社会公众对算法的监督权,辅之以算法审计、算法问责及算法救济制度,系统化地破解算法黑箱和算法歧视难题,推动实现司法算法的公平与正义,从而在新型的智慧司法活动中切实实现司法公正。
目前人工智能在司法裁判中主要承担事务性的任务,但已经开始在专业性的工作中“大显身手”。前者指为法官提供案件信息的识别、分类、归纳及整合方面的司法辅助服务,例如识别和确认当事人信息、检索和推荐相关法律文件、自动生成诉讼程序中的格式化文书等;后者则实质性介入司法审判和直接服务于裁判结果,例如利用大数据分析和算法推理判断证据的真伪,解析案件事实,分析法律关系,检索推送类案裁判,评估预测判决效果,为法官作出裁判结果提供最接近正义的事实根据、法律依据及裁判理由。
在司法审判过程中,法官需要针对案情进行事实判断和法律判断,但其中都蕴含着法官的价值判断,彰显着法官对情、理、法的个性化考量及其与裁判的社会效果的统一。当前的司法人工智能尚不能令人信服地解决证据的审查判断问题,也无法实现往返于情、理、法之间作出符合普遍正义和个案公平的价值判断。司法人工智能技术的迭代更新无法逃脱司法裁判的价值检验,然而并非所有的法律语言都能用相应的算法代码来表示。事实上,对于非法律专业人士都难以理解的法律术语,无法要求当前的人工智能能够准确理解,更不能苛求司法人工智能就法律专业问题给出准确答案。然而,即使人工智能在司法裁判中仅具有功能意义上的辅助性或从属性,对裁判结果无决定权或主导权,但当司法人工智能开始实质性地介入法官的专业性工作时,特别是通过司法大数据分析和算法推理实施自动化决策并进而影响法官的裁判结果时,也会面临着情、理、法的考量及其蕴含的价值判断问题。
不可否认,智慧司法是现代信息技术应用于司法活动的理想状态,可以最大限度地提升司法信息化水平,推进实现司法审判能力和审判体系现代化,对于促进司法公正、提高司法效能以及提升司法公信力具有重要意义。但与此同时,也不能忽视其在价值判断中的局限性。有学者认为:“人工智能对于司法裁判的介入,基本上是通过建构模型的方式,将自由裁量或价值判断这部分排除在外”[10]。总体而言,虽然人工智能辅助裁判系统是基于庞大的裁判文书数据库的训练,这些裁判文书中蕴含的价值判断必然会在一定程度上反映到系统生成的辅助裁判意见中,但由于立法的变动性、裁判主体的差异性、非结构化数据的处理难度以及裁判文书质量的参差不齐等原因,目前的司法人工智能面对案件的价值取向判断问题时,一般是将价值判断问题转化为事实陈述、参数模型及决策规则,本质上仍属于机械推演的范畴。
因此,司法人工智能虽然能基于庞大的数据库、强大的数据分析能力、不断优化的算法推理能力在证据的审查判断、案件事实认定及裁判结果等方面为法官提供决策参考,但不可能像人类一般具备综合运用情感、知识、规则、逻辑及理性思维能力,无法将“目光”在事实与法律规范之间往返流动,也不能准确把握法律规范背后深刻的立法目的和深远的社会价值追求,从而根据案件的争议焦点和个案差异作出兼具形式合法与实质正义的价值判断。
前瞻地看,机器学习特别是深度学习使得人工智能有可能在某种意义上学习人类的情与理,也可能从海量的司法裁判文书库中习得司法经验,甚至拥有规则学习的能力(自主学习的AlphaGo Zero在围棋比赛中战胜AlphaGo就说明人工智能已经超越经验学习和具备了规则学习能力)。然而,情、理、法的综合考量与价值判断毕竟是人类独有的能力,对于司法人工智能而言,这将是不可逾越的障碍,至少目前看来是这样的。这也就决定了司法人工智能的空间与限度,同时也要求应当客观、中肯地评价司法人工智能的地位和作用。
智慧法院的特征在于凸显“智慧”元素,必然离不开人工智能技术的深度参与和有效介入,这意味着未来的司法审判不再是纯粹的人为活动。纵观司法审判的历史演进过程,即使每个时期的庭审结构与裁判方式都有所异变,但法官在审判中的主导和支配地位始终岿然不动。然而,当法官凭借智慧或智能审判系统一键生成裁判文书时,裁判的主体是谁,对裁判的效力有无影响,错误裁判的责任又由谁来承担,均是需要正视的问题。
理论上,固然可以解释为法官是裁判的把关者和最终的决定者,但由于人工智能系统生成的裁判文书对法官会存在一定的影响,故此解释并不能全然消解对裁判主体和效力的质疑。“让人工智能自动生成判决、根据大数据矫正法律决定的偏差等做法势必形成审判主体的双重结构、甚至导致决定者的复数化,事实上将出现程序员、软件工程师、数据处理商、信息技术公司与法官共同作出决定的局面。一旦审判主体和决定者难以特定,那么权力边界也就变得模糊不清,司法问责制就很容易流于形式,至少推卸责任的可能性被大幅度扩充了”[11]。
从实践中看,人工智能的司法应用大致可分为司法行政辅助和司法裁判辅助。前者集中表现为人脸识别、语音识别、文书自动生成等提高司法效率的数据处理活动;后者则多应用于类案推送、量刑辅助、判决偏离预警、智能执行等服务于法官裁判的辅助活动。可见,弱人工智能不具备替代法官从事裁判活动的技术和能力,而且,由于弱人工智能因缺乏人类的自主意识和表意能力,不能像人类一样对外界的信号刺激作出条件反射和情感表达,因此,也不宜将其作为主体对待。总之,“智慧审判”尚停留在以人工智能辅助法官判案的初级层面,裁判的主体仍是法官,裁判的效力和责任问题也因属于法官的人工裁判而得以消解,至少在制度层面是这样的。然而,如果法官对智能审判系统生成的裁判文书进行审核,那么就不能停留在仅对裁判文书进行表面审核,而应按照传统的工作方式和审判经验等进行全面审核并做出最终判断,则将可能弱化智能审判系统的实际效用,且不能因此而避免裁判者错误裁判时推卸责任或主张减轻责任。
在坚持“让审理者裁判、让裁判者负责”的司法责任制下,还需要考虑人工智能辅助裁判系统出现错误时的责任承担问题。如果因人工智能系统的数据采集和算法设计等技术原因导致错误决策时,此时法院固然可以向其生产商或销售商追究赔偿责任,但这属于民事责任范畴,并非司法责任制下的司法责任。同时还应考虑到,法官在使用人工智能辅助裁判系统时,是否会受到算法歧视的影响而形成对不同审判对象的印象偏差,最终导致法律评价有失偏颇。例如,Skeem在美国招募了300位法官,并将其随机分配为四组进行对照试验,依此判断犯罪嫌疑人是否应服刑。其中两组使用算法结果辅助,另两组无算法结果参考。四组的自变量条件都是嫌疑人社会经济状况的好坏之别。试验的结果颇耐人寻味,算法使法官对贫富差距的认知和判断发生了“逆转”。在不采用算法辅助的场景中,法官倾向于轻判社会经济状况较差的嫌疑人。但在获得算法辅助的场景中,法官倾向于重判社会经济状况较差的嫌疑人[12]。那么,在法官和人工智能辅助裁判系统都有“过错”的情形下,又该如何归责或法官应该承担何种责任呢?
实际上,人工智能的意义在于帮助人类解放生产力,提高工作效率和精准度。无论人工智能系统的自动决策和智能裁判如何先进,都应坚持法官在人机协同中的主导作用,裁判的最终决定权都应牢牢掌握在法官手中,人工智能技术不能也不应该取代法官的独立审判地位。一般而言,人工智能“决策辅助系统”并没有帮助法官脱离责任承担的主体范围,法官也不可能通过主张自己是使用了“决策辅助系统”而免除将来可能承担的裁判风险[13]。但是,确系因技术原因导致法官作出错误决策时,应根据具体的情形适当减免法官的责任,否则有违公平原则,且可能导致法官不愿意使用人工智能辅助裁判系统。
理论研究应在扎根现实的同时保持对未来的敏锐和警惕,应前瞻观察在强人工智能时代人工智能对审判主体、效力及责任的影响问题。所谓强人工智能,是指把人工智能和意识、感性、知识和自觉等人类的特征相结合,具有提出问题和独立推理与解决问题能力的智能机器[14]。一旦人工智能具有学习人类思维方式和给予情感反馈的能力,则将在形式上具备了智能机器人拟人化的条件。从“智慧审判”的角度看,强人工智能可以实现对具体个案的深度学习及拟人运作,并模拟法官思维进行逻辑推理和规范评价,进而以类似人类的思维方式和理念对案件作出裁决。那么,如果所谓的“智慧法官”具备这样的能力,能否认定其为裁判主体呢?
即使进入了强人工智能时代,人工智能的审判主体资格也不能仅从技术实现的角度考量,还须回归法律主体的本源加以讨论。现行法律只规定了自然人、法人和其他组织(《民法典》称之为“非法人组织”)依法享有权利、履行义务及承担责任。虽然法人和其他组织是法律拟制主体,但其意思表示和法律后果都会间接归受于拟制主体背后的自然人,本质上仍属于人类的“自主意识”和“表意能力”的产物,人工智能则与此不同。持人工智能主体化观点的学者在此基础上衍生出“人格拟制说”“代理人说”“电子人格说”“有限人格说”等理论学说,认为人工智能可通过拟制、代理、虚拟人格、责任限缩等方式实现法律主体的正当性和合法性[15]。然而,至少目前看来,就人工智能主体的可责性而言,由于强人工智能并非法律主体,即使其能够基于深度学习模拟人类的思维方式,但由电子元件和数字代码构成的智能系统永远无法将其物理属性转化为具有血肉之躯的生物属性,更无法从身体组织和思想精神层面感知和理解法律内在的指引、评价、教育和强制功能。
吴汉东教授提出:“凡是可以描述的、重要的、有固定规则和标准答案的工作岗位,都有被智能机器人取代的可能”[16]。这与当前人工智能领域专家的主流判断是一致的,法律职业替代问题已经引起了国内外法律界的热议。当前的人工智能司法尚处于辅助阶段,但随着人工智能辅助裁判系统在证据审查、事实认定、法律适用、生成裁判文书等方面的功能日益强大,法官的职业替代问题将成为现实问题。迎接人工智能时代的职业替代挑战,需要顶层设计,更需要每个法律人的自我提升,以适应智慧法院建设和应用的专业人才需求。须知,当汽车代替马车后,司机更多了,真正的问题在于如何成为新时代的“司机”。
司法人工智能系统的开发与应用仍然依赖于人的作用,智慧法院的“司机”应当是“法律+人工智能”的复合型人才。当然,即使强人工智能的自动化审判时代到来,智慧法院也离不开传统法官对人工智能裁判的复盘和校验,在具有疑难性、开放性和模糊性的裁判场合,机器(即使是智能的)仍然无法取代法官的经验判断和价值考量。而且,相较于人工智能基于数据理性和机械学习而产生的自动化决策,法官以人工裁判的方式作出对案件的最终判断,更容易获取同生物性质主体的当事人之信任和服从。
之所以要强调“法律+人工智能”的复合型人才,是因为智慧法院建设急需这方面的人才从事系统开发和研究工作。例如近年来备受关注的类案检索、智能诉讼机器人等司法服务技术,都需要既懂得技术又谙熟法律的跨界人才的深度参与,盖因单纯的技术人员无法对法律术语进行代码转化和专业解释,而传统的法律人员也无从掌握技术上的算法规则和代码原理。因此,智慧法院建设应着重培养既懂人工智能又懂法律知识的复合型人才。随着人工智能与法律工作的深入交融,无论是智慧法院抑或是法律技术服务公司,将催生出更多如“术语翻译师”“法律数据开发者””法律代码程序员”[17]等具有交叉学科背景的新职业。
智慧法院建设必须依靠既懂技术又懂法律的复合型人才,但当前的人才缺口较大。一些高等院校已经在教育理念上与时俱进,积极创新人才培养方案,着力培养兼备法学理论和科学技术的“科技+法律”的复合型人才。从当前的情况看,“科技+法律”的复合型人才的培养重点宜放在研究生教育阶段,应大力鼓励具有理工科背景的高校本科生攻读法律硕士或法学硕士,全面提升跨学科人才培养的深度和广度。例如,清华大学法学院设立计算法学研究生项目,试图彻底扭转当前将法学视为纯粹人文社科的陈旧理念,积极探索将交叉学科与传统的法学培养体系的结合之道,此类模式值得推而广之[17]。
近年来,法学教育界开始讨论开设法律博士学位的必要性和可行性,为复合型人才培养提供了新思路。不同于在单个学科内以认知为目的的知识生产模式,法律博士的知识生产模式应当是在应用情境中运作,并具有跨学科或多学科性质的特征[18]。因此,法律博士学位的创设对于纵深培养“科技+法律”跨学科的复合型人才而言也具有重要意义,可以有效弥补法律与科技融合领域的应用型人才缺口,为智慧法院乃至智慧社会建设提供充足的人才保障,因此,值得进一步的研判和探索。
严格来说,智慧法院与智能法院有质的差别。从语义上分析,“智能”是把技术嵌入到事物中,使得技术可以最大限度地帮助事物达到目的。而“智慧”却要综合考虑事物之间的关系、政策制度、社会环境等多方面的因素,并辅以先进的技术手段,达到经济效益和社会效益的最大化,实现可持续发展[19]。质言之,智慧是辨析判断、发明创造的能力。在人工智能技术应用于智慧法院建设时,应正视技术这把双刃剑,既要充分发挥人工智能的积极价值,也要避免“唯智是从”的理念,保持足够的理性和谨慎,未雨绸缪预判可能产生的问题,并在预判问题的基础上回归技术与法治耦合治理的路径探索科学、合理、可行的问题解决方案,化解智慧法院建设的障碍,防止可能引发的司法风险乃至社会问题。