摘 要:目前,人工智能与司法制度正在走向深度融合发展阶段。然而,关于法律人工智能的讨论愈演愈烈,却始终无法达成共识,不利于人工智能司法应用的深入研究和学术创新。应在人工智能司法应用的制度目标、角色定位、伦理考量三大论题上达成最基本的共识。在此基础上,应进一步针对算法黑箱与决策透明、智能裁判与法官裁判、信息保护与案件查明这三个关键冲突点展开协调,进而形成科学的且具有可操作性的制度规范。未来,法律人工智能深度嵌入司法制度会对法律职业群体的知识技能提出新的要求。同时,法律人工智能仍需要与国际标准化组织接轨,制定统一的规范标准和应用框架。如此,司法制度方能稳妥稳慎应对人工智能掀起的数智化浪潮。
关键词:法律人工智能;司法裁判;基本共识;规则构建
一、引言
近年来,人工智能、区块链、大数据以及云计算等前沿信息技术正深刻影响着国家治理理念与治理模式的变革,引领社会治理朝着数智化方向迈进。智慧司法改革作为数智化改革浪潮中的关键一环,具有举足轻重的地位。早在2017年,习近平总书记就前瞻性地提出了“要遵循司法规律,将深化司法体制改革与现代科技应用紧密结合”的重要论断[1]。同年,国务院发布的《新一代人工智能发展规划》明确将智能化法庭建设纳入其中。随后,最高人民法院亦发布了《关于规范和加强人工智能司法应用的意见》(以下简称《司法应用的意见》),为智慧司法改革提供了明确的指导评估蓝本。2023年4月,为进一步规范并引导生成式人工智能服务的健康发展,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》。同年7月出台的《通用人工智能AGI等级保护白皮书》以及《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)均为通用人工智能的发展提供了明确的规范与指引,也揭示了人工智能与司法制度正在走向深度融合发展阶段。
目前,国内外既有学术成果大多聚焦于司法人工智能的正当性论证、功能机制探讨、潜在局限性分析以及功能异化后果等方面[2]。这些研究为人工智能的司法应用提供了颇具洞见的理论探讨和制度构想,但亦存在三个方面不足:首先,研究焦点过于集中,缺乏多维度、多层次的综合性分析;其次,既有讨论的整合度不足,尚未形成基本共识,缺少基于共识的司法人工智能现实困境和发展趋势的相关阐释;最后,承继性研究较为匮乏,缺乏对既有成果进sEA2jU/EZD+r3ZJxVBy/zg==行针对性学术观点交锋和批判性继承,导致研究脉络的断裂和理论观点的散化。此种情形可能导致“学说越繁荣,其对理论共识破坏性越大,一些学说甚至还可能给违法裁判提供理论注脚”的不利后果[3]。因此,应立足既有研究,加强理论整合,在此基础上梳理人工智能司法应用的基本共识和关键分歧,并针对分歧提出应对之策,最后讨论法律人工智能的未来发展趋势,从而为法律人工智能的研究创新和实践应用提供相应的理论准备和制度供给。
二、理论前提:人工智能司法应用的基本共识
(一)制度6HnI0q4FtX/llxopVkaPng==目标:人工智能司法应用旨在实现“数字正义”
自古以来,公平正义便是人们普遍的价值追求,其在数字领域表现为“数字正义”这一具体面相。在《数字正义——当纠纷解决遇见互联网科技》中,伊森·凯什与奥娜·拉比诺维奇·艾尼首次提出数字正义(Digital Justice)的理论,并强调该理论旨在促使人类于数字世界中实现公平正义[4]。智慧司法背景下,对于“数字正义”的保障是学界及实务界达成的首要共识。譬如《暂行办法》在第四条第二款中明确规定,设计、训练模型、数据选择、提供服务的同时须得采取有效措施“防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视”。《司法应用的意见》第四条亦提出“保证人工智能产品和服务无歧视、无偏见”的要求。
除却上述条款,为了实现“数字正义”这一目标,我国在司法实践中主要从实体和程序两个层面对“数字正义”理论进行了本土化引介与改造,希冀通过发挥人工智能的技术优势来为司法正义的实现提供有力支持。换言之,智慧司法背景下,人工智能司法应用所实现的是技术理性与司法理性的融合,以法律大数据和人工智能的综合运用来提升司法质效、优化司法程序,进而实现“数字正义”[5]。
在实体层面,“数字正义”表现为法律人工智能在智能立案和智能审判环节的超强分析能力。其通过法律大数据和自然语言处理(NLP)技术,自动对案件进行分类与编号,极大提升了立案效率和准确性。在法庭审判阶段,大数据与机器学习技术被应用于案件信息的深度分析与判决预测,进而辅助法官作出更为公正合理的判决。根据笔者之前在河南中部地区Z市的调研,当下智能审判系统已具备多项功能,包括但不限于及时预测裁判结果、揭示诉讼风险、推送类似案例以及提供辅助证据等功能。这些功能既能够从根本上提高司法审判的质量与效率,也有助于群众及时获得应有的法律救济,从而纾解“正义迟到”(Justice Delayed)的司法难题。
在程序层面,“数字正义”表现为司法程序的智能化和规范化。如此可约束限制法官之恣意裁判,即借助人工智能减少法官个人因素对裁判的影响。通过统一的算法设计,避免因个体差异或“先前理解”(前见)导致同案不同判,最终促成司法裁判的客观性、公正性和一致性。例如,“上海刑事案件智能辅助办案系统”在刑事司法办案机关的数据化办案系统中嵌入了统一的证据规则和证明标准,有力推动了刑事案件程序的规范化改革进程[6]。同时,法律人工智能可以自动化和便捷化司法流程,降低公众参与司法的门槛。法律人工智能协同ODR(在线纠纷解决)系统以及“移动微法院”等软件系统,不仅提高了司法便捷性和司法效率,还使得法律服务更加贴近民众。在此基础上,配合案件信息库、电子卷宗库以及司法区块链等技术的应用,可进一步推动司法数据的全面可视化[7]。通过法律人工智能整合并展示“要素”,为司法工作人员、律师以及社会公众提供更为直观、全面的案件信息和司法数据,以“可视化正义”推动我国司法体系的现代化和智能化发展。
(二)角色定位:人工智能司法应用应居于辅助性地位
法律人工智能只能居于辅助性地位而不能取代法官。一方面,人工智能缺乏人之意识和社会性,其价值判断、道德评价以及责任承担的能力均存在不足,因而不具有作为权利义务主体的伦理底色和现实基础。另一方面,人工智能难于应对现实司法决策之复杂性,其法律解释能力亦无法媲美法官。诚如拉伦茨所言,法学的核心目标在于针对不同的案件情境将规范加以具体化[8]。在此过程中,若由人工智能主导则必然面临三个问题:其一,人工智能无法兼顾个案的特殊性;其二,人工智能无法解决规范竞合、规范冲突的难题[9];其三,人工智能无法应对规范空白的难题,无法进行“法之续造”,而这些对于法官来说则属于“基本功”。因此,人工智能在司法领域更适合作为法官的辅助工具而非替代法官审理案件。
实际上,从规范演进视角出发亦可对人工智能的辅助性地位予以佐证。2021年,国家新一代人工智能治理专业委员会在《新一代人工智能伦理规范》中,将人工智能明确定位为“产品”,并着重强调了其“可控”与“可信”的特性。随后,在2022年的《人工智能白皮书》中,人工智能被进一步描述为“新型战略技术”。2023年,我国出台的《暂行办法》将生成式人工智能界定为“技术”,并认为基于这种技术所提供的服务可视为“产品”。欧盟颁布的《人工智能法案》作为全球首部针对人工智能的立法,亦采用了以产品监管为主的思路来管理人工智能[10]。
因此,应将法律人工智能视为一种具有语言交互功能的智能产品。在追究责任时,仍应当追溯到产品背后的个人或组织。不论其被视为产品还是技术,本质上仍属于“物”的范畴,并不具备法律上的主体资格,在司法审判中自然也不具备主体性。实际上,将人工智能作为“产品”或“技术”来定义,在我国司法实践中有着明确体现。例如,在人工智能造成损害的情况下,往往是依据产品侵权理论来追究生产者、制造者、销售者的责任。当然,在某些特定情况下,还需要结合技术的使用者和具体的应用场景来进行深入分析[11]。如果否认人工智能的辅助地位,即不将其视为产品,那么在处理人工智能涉诉案件时,责任主体的确定将变得异常困难。
随着智慧司法4.0版本的深入推进,人工智能在司法审判中的角色定位愈加清晰。最高人民法院在《司法应用的意见》中明确了人工智能的司法辅助地位,强调法官具有不可比拟性,而人工智能则“永远”无法替代人类法官。尽管,当下生成式人工智能(LLMs)为法律人工智能的语言理解和表达提供了便利,但其仍属人工主导下的智能。笔者之前在Z市“基、中、高”三级人民法院信息处进行了实证调研,在问及人工智能的智能化程度时,法院工作人员皆做了类似回答:只有重复性、事务性的工作可以被人工智能取代,而在目前人工智能只能是辅助法官断案的工具。尽管理论上,关于人工智能的主客定位问题仍有少部分学者主张赋予人工智能法律主体地位的“电子人格说”[12]和主张将人工智能视作新物种的“人机共生说”[13]抑或“自为主体说”[14]等不同观点,但智慧司法场域下主流观点依然是客体说下的司法辅助论。
(三)伦理考量:人工智能司法应用须遵循“伦理先行”
伦理关系往往先于法律关系而产生,法律则是对符合社会普遍利益的社会伦理的正式确认。然而,法律人工智能日新月异、持续演进,人们对其本质和运作规律的认知始终处于“摸着石头过河”的状态,在此探索过程中充斥着不确定性。因此,法律应当在“审慎包容”的指导原则下,跟随伦理的步伐渐次前进[15]。换言之,法律人工智能需要坚持“伦理先行”的治理理念,即将伦理道德的约束作为其技术表达的首要考量因素,进而再将社会大众所能普遍接受的且需要法律予以规制的行为上升至国家规范层面。
由于伦理道德的调整范围要远比法律的调整范围宽泛,因此在“伦理先行”的理念下,法律人工智能的设计、开发、部署和应用过程应尽可能确保每一步都符合社会的一般伦理道德标准。譬如有学者指出,在设计算法之初应当关注算法的安全性、可解释性、公正性和透明度等基本的伦理风险[16]。笔者认为,除了算法本身,数据作为法律人工智能运行的关键,亦应当避免偏见和歧视,保证公平公正,因此需要确保数据采集、存储、流通和利用的正当性。
构建法律人工智能的伦理规范框架是一项复杂而艰巨的任务,需要综合考虑技术、法律、伦理等多方面的因素。为了防范人工智能在应用过程中可能产生的伦理风险,联合国教科文组织大会在2021年审议并通过了《人工智能伦理问题建议书》,强调了各国政府应重视人工智能的伦理问题。为响应这一国际倡议,中共中央、国务院在2022年发布了《关于加强科技伦理治理的意见》,明确提出了“伦理先行”的要求,同时指出要将科技伦理要求融入科学研究、技术开发等科技活动的每一个环节。在推进数字司法的进程中,最高人民法院对司法人工智能的伦理问题亦给予了高度重视,并在《司法应用的意见》中强调人工智能在司法领域的应用不得违背社会公共道德和伦理。可以说,实施司法人工智能伦理治理并贯彻“伦理先行”理念已成为当前之共识。
目前法律人工智能的伦理治理主要采取“外部约束+行业自律”的模式。一方面,我国建立了司法人工智能伦理治理的多级联动协同机制。根据相关规定,最高法院负责制定司法人工智能的伦理安全规范,各级法院则设立人工智能伦理委员会负责监督执行。另一方面,行业组织正在积极开展行业自律管理,引导和督促企业遵循伦理安全规范。例如,许多司法科技企业也自觉将遵守伦理安全规范纳入单位职业规范,并加强员工的伦理安全风险教育。
三、弥合冲突:人工智能司法应用的关键分歧及其协调
在对人工智能司法应用的基本共识进行探讨后,应当围绕人工智能司法应用的关键分歧展开论证。经梳理可知,当前关于人工智能司法应用主要在算法黑箱与决策透明、智能裁判与法官裁判、信息保护与案件查明三个方面存在不同认识。
(一)技术纬度:协调算法黑箱与决策透明的冲突
人工智能具有一定规则,但这些规则是数学和统计学的规则,且隐藏在专有的“黑匣子”中以至于使用者无法阅读、无法讨论、无法分析、无法推理[17]。换言之,算法黑箱导致使用者处于被动地位,后者始终“无法看清其中的规则,无法提出不同的意见,也不能参与决策过程,只能接受最终的结果”[18]。针对法律人工智能的算法黑箱问题,有学者批评,“封闭黑箱或训练样本依赖算法裁判将产生天然歧视”[19]。还有学者质疑,如果算法核心数据的所有权和控制权被发明它的私人技术公司垄断,其他人对算法进行监管的内容及方式受到限制,易导致公众对司法权力产生信任危机[20]。反对公开的学者则认为,算法公开缺乏实质意义,因为人工智能算法的深度学习功能和复杂机理就算是开发者本人也未必掌握[21]。同样地,即使企业将算法运行程序公开,但由于算法设计与运行的高度专业性,专业壁垒使得社会公众难以全面理解和评估算法的运作机制及其潜在影响[22]。
上述争议的表象是算法是否应当公开并予以解释。结合法律人工智能的制度目标可知,问题的本质在于:算法公开和解释是否有利于实现“数字正义”?若此举有利于实现“数字正义”则应当公开并予以解释。实际上,法律人工智能算法公开的要求源自“司法公开”这一公认的法律原则。司法公开是司法公正的前提,若要在数字世界中实现公平正义、“数字正义”,亦必须遵从司法公开的基本原则,即在审判过程中尽可能地向公众展示信息并做出合理解释,让当事人和社会大众能够理解判决的依据和过程。
不过,由于人工智能审判确实涉及大量数据和复杂的算法模型,其决策过程相对晦涩难懂。因此,算法不仅要公开而且要以用户得以理解的方式公开。这需要算法在公开的同时被合理地进行解释,可解释的算法是算法公开要求的升级,该种算法所应用的人工智能也被称为“可解释的人工智能”(Explainable Artificial Intelligence)[23]。譬如,我国人工智能《司法应用的意见》第六条规定的透明可信原则(亦称透明性原则)就是司法公开原则在法律人工智能领域的延伸。可见在人工智能审判的场域中,算法公开具有重要意义。司法公开项下的透明性原则除了算法公开这一基本要求外,还包括以下三重意涵。
第一,透明性原则要求人工智能系统以可解释、可测试、可验证的方式呈现其司法数据采集管理模式、法律语义认知过程、辅助裁判推定逻辑、司法服务互动机制等关键环节。这意味着智能审判系统的决策过程应该能够被解释和理解而不仅仅是“黑匣子”。透明性原则还意味着人工智能审判的应用过程和结果能够实现可预期、可追溯和可信赖,以提高公众对人工智能技术的司法信任,进而促进其与司法制度深度融合。
第二,透明性原则是人工智能审判实现“数字正义”的重要保障。通过使整个系统的运作过程变得透明可信,进而更好地解释和解决系统潜在的偏见或错误,并提高审判结果的可预测性。同时,透明可信原则也有助于促进人工智能技术在司法领域的应用,推动司法系统向着更加智能、高效且公正的方向发展。保持司法公开原则有助于监督和评估人工智能算法的公正性和合理性,确保其不会对特定群体造成歧视或不公平待遇,也有助于促使司法公正原则的实现。
第三,尽管司法公开原则天然地要求算法公开透明,但是人工智能辅助审判中过程的公开并不意味着将所有的细节和算法模型一并公之于众。一旦涉及国家安全、个人隐私和商业机密等问题时必须妥善平衡公开和保密的关系。此外,对于某些复杂的技术细节,可能并不适合一般大众理解,但仍应尽力向公众解释决策的基本原理。质言之,人工智能审判中的司法公开原则应当是有限度的,通过建立适度的信息披露说明机制,向公众提供判决依据、审判过程和结果的解释,同时确保个人隐私和商业机密的保护,才能实现人工智能辅助审判的公正、公平和可信。
(二)人机权重:协调智能裁判与法官裁判的冲突
尽管《司法应用的意见》已经明确了法律人工智能的司法辅助地位,并且多数学者赞成将法律人工智能视为辅助工具,但是法官在使用时仍可能存在“技术依赖”的情况[24]。譬如有学者指出,人工智能对司法的影响往往呈现出一种不易察觉的隐蔽性。在当前司法实践中,由于技术门槛的限制,司法人员可能难以及时纠正技术的不当使用,由此人工智能是在实质上“间接行使”“影响”司法权,从而对司法过程造成实质性的干预[25]。还有学者认为法律人工智能会在潜移默化中弱化人类法官的审判者地位和当事人的参与主体地位[26]。笔者认同此观点,实际上司法人员未必有足够的信息技术知识去全面理解和评估算法决策的准确性、公正性。法官可能只是机械地运行程序并由于自身数理知识的局限性而不得不唯智能裁判结果马首是瞻,进而导致司法人员过度依赖算法决策,盲目信任算法裁判结果而忽视其局限和风险。因此,甚至有学者宣称,人工智能审判造成“法官职业理性思维的减退、加深了法官思维的价值偏见、助长了法官的机械思维、遮蔽了法官思维的独立性”[27]。
那么,在坚持人工智能司法辅助论的前提下,法官应当在何种程度上听取AI之意见?审判庭应当赋予AI多少话语权重?应用法律人工智能时又该如何有效化解主体弱化和主体异化的风险?笔者认为,可以根据不同场景和案件类型来差异化地赋予人机权重,同时在技术层面予以规制。
在审理一般(常见)类型的案件时,可以赋予人工智能较高的权重。譬如,在审理借款合同纠纷、物业服务合同纠纷、交通事故责任纠纷、民间借贷纠纷以及盗窃、侵占、醉驾等轻微且构成要件较为简单的案件时,借助法律人工智能有利于实现“同案同判”“类案同判”的基本要求。
而在面临新型、重大疑难复杂案件时,应当保证法官的绝对控制地位。这类案件通常具有新颖性、复杂性、争议性抑或较大的社会影响力,智能化辅助系统难以替代法官的角色。譬如对于一些数据样本匮乏、诉讼主体众多、法律适用争议较大或者社会影响力巨大的案件,法官不仅需要进行“字斟句酌”的实体权益的衡量,还需要进行系统性的事实考量,运用自由裁量权进行价值判断,以实现法律效果与社会效果的统一。同时,针对不公开审理、先行调解和财产保全类等特殊类型的案件,应排除人机协作的模式而完全由法官主导。因为这类案件涉及国家秘密、个人隐私等敏感信息,需要严格保密,因此需要排除信息泄露的风险。先行调解案件则多是婚姻家庭纠纷、继承纠纷,受制于人的情感抒发,机器介入恐难以达到预期效果,而法官主导下的面对面沟通则更有利于化解矛盾、定分止争。总而言之,协调人工智能与主体弱化的冲突需要根据不同场景和案件类型来差异化地赋予人机权重。
除了类型化考量之外,在技术层面上亦可予以规制。算法设计应确保系统能正确识别材料,并在设定的“权力界限”内行使权力。譬如有学者指出,在算法投入运行之前,需要事先输入众多算法“越权”于合理使用的材料,通过反复测试观察合理使用材料能否被允许以及“越权”材料能否被过滤[28]。算法应以过滤“越权”内容和辨别合理使用作为核心程序,并且需要进行测试和验证以确保算法在不同类型的案件中都能“安分守己”。
(三)个体保护:协调信息保护与事实查明的冲突
法律人工智能因其超大规模的数据处理能力和生成能力,在法律摘要、法律文书校对和生成、法律预测等任务上有突出的表现,对于实现司法的实体正义和程序正义具有至关重要的作用。但是也正因为人工智能以数据和信息“为食”,其收集大量个人信息的同时便肩负妥善保护信息之义务。况且,法律人工智能所涉信息往往更为紧要,若产生技术外溢则会引发公民涉诉信息、国家秘密、商业秘密的泄露,进而产生一系列社会问题[29]。
然而,目前我国出台的《暂行办法》关于信息保护的规定具有模糊性,其中第十一条和第十九条的信息保护主体只有“提供者”和“安全评估和监督检查的相关机构和人员”两类。产品或者算法的设计者是否属于“提供者”?算法设计者对于自己的产品可谓处于一种“全知全能”的角色,完全有可能通过所设计的产品侵犯他人隐私或者是进行隐私计算二次利用他人隐私。此外,提供者为多方时究竟由哪一方承担责任?例如,立案庭获得当事人基本信息的输入,开庭时审判庭获得了审判信息的输入,二者的信息存在交叉关系,倘若信息泄露何者承担责任?然而,《暂行办法》对于何为“提供者”没有一个清晰的定义很大可能会造成实践中责任主体缺位和责任分配不明的问题。
有鉴于此,笔者认为人工智能辅助审判的场域下应建立算法设计者的追责制度并建立信息数据授权脱敏规则,在算法的使用过程中应对国家安全、个人隐私、商业机密做脱敏处理。在必须使用上述信息时,应当在操作可视的环境中使用,如此倘若日后信息泄露,则既方便责任追溯也方便信息保护。有人可能指出,算法一旦通过备案和研发阶段的监督就不应该再追究研发者的责任了。这种观点有待商榷,以一键生成裁判文书系统为例,实际上往往是在投入运行阶段发现了大量问题并在实践中不断校正的。
四、未来如何:人工智能司法应用的趋势前瞻
(一)技术迭代:法律职业群体技术知识素养的提升
一方面,法律职业群体须不断提升自身之技术知识素养。随着人工智能技术的飞速发展及其在法律实践中的广泛应用,法律知识的生成模式正经历着前所未有的变革。研究表明,法律人工智能所依托的大数据、NLP等技术使法律知识得以在法律生态系统中以更加均衡、即时的形态存在[30]。这不仅预示着知识更新的步伐将愈发迅速,更意味着传统法律知识的“黏性”特征将减弱,信息在网络世界中会更为自由、广泛地流动。面对这一现实变革,法律从业者需要调整学习策略与工作方法,持续更新自身的专业知识,尤其需要掌握最新的技术性知识。如此方能在日新月异的法律变革中保持专业知识的即时性和实用性。也唯有如此,法官才能掌握庭审话语权而不至于丧失其主体性、律师方能更好地服务于客户从而保持其竞争优势。
另一方面,法学教育需要持续培养复合型法律人才。随着生成式人工智能与司法实践的深度融合,人工智能的司法应用需要持续进行跨学科的人才队伍建设。为确保智能化司法建设的顺利推进,应支持具有计算机、统计学、数学等理工科背景的学者投入法学研究和法律实践。在理论教学上,需注重跨学科思维模式的培养,提升其复杂问题的综合分析能力。而在实践教学上,法学院应加强与法律人工智能等科技公司的合作,为学生提供丰富的实践机会,深化其对生成式人工智能在司法实践中应用的理解。此外,司法机关内部的职业技能培训亦应着重于复合型法律人才的培养。培训内容应涵盖生成式人工智能、大数据以及区块链等前沿科技的基本内容,以及上述技术在司法实践中的应用场景。通过培训,司法工作人员应能准确把握技术背后的原理及其对司法决策的影响。同时,应加强对司法机关专业技术骨干的培养,鼓励其参与人工智能科技公司对核心算法的研发,以确保智慧司法决策的公正合理。
(二)法律适应:司法制度对法律人工智能的适应性变革
除了上文论述之透明性原则、根据场景配置人机权重、建立算法设计者的追责制度、建立信息数据授权脱敏制度等规则、原则,为适应智慧司法之变革,笔者在此针对法律人工智能的算法规制补充两点制度构想。
1. 构建司法人员参与研发规则
司法人员参与算法设计是“数字正义”的内在要求。司法人员无须像技术人员那般对算法的每处细节了如指掌,但要像产品经理一样能将产品需求娓娓道来,并要时常将基本的法律原则、规则、法律意识灌输于技术人员心中,使其设计出的算法以此为基准和底线。理由:其一,司法人员作为智能审判系统的最终责任主体,有必要参与司法审判算法的设计。在人工智能与司法的技术融合中,司法人员的参与可以确保算法的合法性、公正性和符合司法正义的价值。其二,有学者认为由于技术具有锁定性和难以逆转性,如果司法人员不从一开始就参与算法设计,很难在后期对其进行有效的调整和控制[31]。此观点有一定道理,司法人员常年工作在司法领域,了解司法活动的要求和价值,可以将法律知识和伦理原则融入算法的底层设计中,参与设计算法有助于智能审判系统遵守正当程序原则,消除算法歧视进而保证算法合规合法。与此同时,还需要包括技术专家和其他利益相关者的多方参与,只有充分融合法学家们的法律功底和技术专家的技术能力,才能设计出能够真正服从于法官主体性思考和价值判断的智能审判系统[32]。
截至目前,无论是《暂行办法》还是《司法应用的意见》均未直接规定司法人员参与算法设计,这是否意味着在人工智能审判算法的场域下也无须司法人员参与呢?答案显然是否定的,原因在于《暂行办法》和《司法应用的意见》都是针对大类的通用人工智能进行规制,而本文研究的是细化后的人工智能审判算法;大类的通用人工智能缺乏司法审判语境的严肃性,其他场合下一般不涉及人身、自由、生命等重要权益,而审判结果往往直接关涉到当事人的人格名誉、重大财产、生命健康、自由等利益。况且,虽然《暂行办法》没有直接规定司法人员参与,但也在第八条要求对标注人员进行必要的法律培训,提升其“尊法守法”等基本法律意识和法律素养,同时“监督指导”标注人员规范开展标注工作以确保标注工作合法进行。纵使该条没有明确指出“监督指导”的主体,但能够对标注人员进行培训的必然是具有相应司法工作经验或技能的人,实质上暗含着司法人员参与通用人工智能研发过程的要求。
2. 构建算法的备案审查规则
在设计人工智能审判算法后进行备案审查是一项至关重要的措施,其目的在于确保算法的合法性、透明性、公正性和安全性,从而消解人工智能司法应用的潜在风险。我国《暂行办法》第十七条专门规定完成算法设计后需要依照《互联网信息服务算法推荐管理规定》进行备案。
首先,算法的备案审查需要保证该人工智能审判算法的设计、实施和使用均符合国家法律法规的要求,即其适用须有明确的法律依据和授权。通过此种“事前审查”的方式来规避算法滥用抑或算法侵犯个人权益的问题。
其次,如前所述,从司法公开原则出发要确保算法的透明性和可解释性。备案审查亦要求人工智能审判算法的设计和运行过程必须透明,让相关部门和社会公众能够了解算法的基本运行原理、数据来源、决策过程等。透明性能使监管机构和公众对算法的公正性和合理性进行评估和监督,有助于增加公众对算法的司法信任。
再次,从司法公正原则出发要确保算法的公正性。备案审查需要核实算法在设计和运行中是否具有公正性,即是否对不同个体、群体一视同仁,避免算法的偏见和歧视。公正性是确保人工智能审判算法在司法领域得到合理运用的基础。备案审查要求算法具备较高的安全性,包括数据安全、信息安全、隐私保护等。特别是在涉及敏感信息和个人隐私的司法领域,增加信息安全性、减少算法偏见性是不容忽视的一环。
最后,制度完善备案审查不仅是一次性的过程,还需要建立健全长效的备案制度。随着技术的发展和算法的不断更新,备案制度也需要持续优化和完善,保持与时俱进。
(三)国际合作:跨国法律人工智能应用框架与合作机制的建立
在国际合作的舞台上,法律人工智能的应用框架与合作机制愈发受到重视。有学者指出可以仿照国际原子能机构(在联合国框架下运作的自治组织)进行国际合作和人工智能联合监管的途径[33]。基于此,则可以借鉴欧洲核子研究中心、人类基因组计划或国际空间站(ISS)的组织规范制定全球通用的法律人工智能制度框架。
法律人工智能在开展国际合作时面临的挑战与机遇并存。尤其在当前全球政治经济格局下,大国竞争和地缘政治的紧张关系为国际合作带来了诸多不确定性。因此,现有的国际组织在推动法律人工智能国际合作方面就发挥着重要作用。联合国高级别咨询机构可以对人工智能技术的国际治理进行深入研究和分析,提出政策建议;国际标准化组织可以制定统一的法律人工智能标准和规范;国际劳工组织和世界卫生组织等可以关注人工智能对劳动就业和公共卫生等领域的影响,提出相应的应对措施。法律人工智能国际合作的持续性和稳定性,需要建立长期稳定的合作机制。譬如,建立国际论坛和合作平台,加强信息交流和技术合作;设立联合研究项目和实验室,推动法律人工智能技术的创新和发展;加强人才培养和交流,提高各国在法律人工智能领域的专业水平。
总之,法律人工智能的国际合作面临着诸多挑战,但也有着广阔的发展前景。需要摒弃“零和博弈”的思维,加强合作与交流,共同推动法律人工智能的发展和应用,为人类社会带来更多的福祉。
五、结语
如今,人工智能已经在司法实践中找准了自己的“生态位”,那么就需要进一步对其司法辅助标准进行廓清和厘定,以防止法律或者司法人员“屈膝”于算法而对当事人权利造成损害。《暂行办法》与《司法应用的意见》虽颁布却缺少系统论证,应在夯实法理依托的基础上探寻规则之适用,为人工智能审判算法的规则之治提供注脚。
从伊赛的“直觉”研究、波斯纳的“前见”论述、拉伦茨的“法感”讨论,到如今人工智能辅助司法审判且能一键生成裁判,人类经历了从感性认识到理性认识的伟大飞跃。但在技术理性的强大“诱惑”面前要谨防陷入技术至上主义的陷阱。司法工作人员以及技术人员要始终牢记人工智能只是司法辅助的工具,不论是开发还是使用均要遵循既定的规则、原则,不得逾越人工智能审判算法之边界。在立法层面,透明度规则、场景配置人机权重、建立算法设计者的追责制度、建立信息数据授权脱敏制度、司法人员参与研发规则、算法备案审查等规则的综合运用可维护法官和司法参与人的主体地位,有力解决算法黑箱的“顽疾”并有效规避信息泄露之风险。
参考文献:
[1] 习近平:坚定不移推进司法体制改革,坚定不移走中国特色社会主义法治道路[EB/OL].[2017-07-10].https://www.gov.cn/xinwen/2017-07/10/content_5209357.html.
[2] 郑泽宇.国内外司法人工智能研究热点与前瞻[J].南京邮电大学学报(社会科学版),2024(1):51-63.
[3] 任重.论中国民事诉讼的理论共识[J].当代法学,2016(3):38-51.
[4] 伊森·凯什,奥娜·拉比诺维奇·艾尼.数字正义:当纠纷解决遇见互联网科技[M].赵蕾,赵精武等,译.北京:法律出版社,2019:4.
[5] 魏斌.司法人工智能融入司法改革的难题与路径[J].现代法学,2021(3):3-23.
[6] 张燕龙.美国的版权犯罪刑罚制度及对我国的启示———兼论人工智能时代我国的量刑规范化改革[J].中国政法大学学报,2019(3) : 154-169.
[7] 周尚君,罗有成.数字正义论:理论内涵与实践机制[J].社会科学,2022(6):166-177.
[8] 卡尔·拉伦茨.法学方法论[M].陈爱娥译.北京:商务印书馆,2003:120.
[9] 杨帆,吕士哲.论规范竞合下先诉抗辩权适用之冲突与选择[J].河南财经政法大学学报,2023(5):126-134.
[10] 曾雄,梁正,张辉.欧盟人工智能的规制路径及其对我国的启示——以《人工智能法案》为分析对象[J].电子政务,2022(9):63-72.
[11] 王利明.人工智能时代对民法学的新挑战[J].东方法学,2018(3):4-9.
[12] 郭少飞.主体论视域下人工智能侵权责任承担构想[J].地方立法研究,2023(3):64-80.
[13] 吴铮.生态转换与人机共生:人类与人工智能存在的关系研究[J].人民论坛·学术前沿,2020(11):108-111.
[14] 唐代兴.从GPT-4看人工智能的进化约束和伦理边界问题[J].伦理学研究,2024(2):81-92.
[15] 宋华琳.法治视野下的人工智能伦理规范建构[J].数字法治,2023(6):1-9.
[16] 张玫瑰.司法裁判中人工智能应用的限度及规制[J].政法论丛,2023(5):128-138.
[17] GREENSTEIN,S. Preserving the Rule of Law in the Era of Artificial Intelligence[J].Artificial Intelligence and Law ,2022(3):291-323.
[18] 多梅尔.算法时代:新经济的新引擎[M].胡小锐等,译.北京: 中信出版社,2016:139.
[19] 罗洪洋,李相龙.智能司法中的伦理问题及其应对[J].政法论丛,2021(1):148-160.
[20] 谭九生,范晓韵.算法“黑箱”的成因、风险及其治理[J].湖南科技大学学报(社会科学版),2020(6):92-99.
[21] 楼伯坤,鲍博.刑事司法中风险评估的算法风险与规制措施[J].学术交流,2024(3):60-73.
[22] 周学荣.算法共谋下反垄断的规制困境与路径选择[J].行政论坛,2024(1):116-124.
[23] 丁晓东.论算法的法律规制[J].中国社会科学,2020(12):138-159.
[24] MIRKO BAGARIC,et al.The Solution to the Pervasive Bias and Discrimination in the Criminal Justice System: Transparent and Fair Artificial Intelligence[J].American Criminal Law Review,2022(59):95-148.
[25] 王禄生.大数据与人工智能司法应用的话语冲突及其理论解读[J].法学论坛,2018(5):137-144.
[26] 单纯,叶茂.智慧司法异化风险的反思与规制[J].江西社会科学,2023(3):160-168.
[27] 焦宝乾,赵岩.人工智能对法官思维的影响[J].求是学刊,2022(4):115-125.
[28] 刁佳星.算法时代合理使用制度的困境与纾解[J].中国出版,2023(3):33-38.
[29] 张凌寒.智慧司法中技术依赖的隐忧及应对[J].法制与社会发展,2022(4):180-200.
[30] 王禄生.从进化到革命:ChatGPT类技术影响下的法律行业[J].东方法学,2023(4):56-67.
[31] 郑戈.司法科技的协调与整合[J].法律适用,2020(1):3-11.
[32] 魏斌.智慧司法的法理反思与应对[J].政治与法律,2021(8):111-125.
[33] 肖恩·杜利特尔.人工智能需要全球合作[EB/OL].[2024-4-14].https://lawmagazine.bc.edu/2024/04/ai-requires-global-cooperation.
基金项目:中南民族大学研究生创新资金项目“智慧司法背景下人工智能辅助地位与审判主体异化风险的研究”(3212023yjssq006)
作者简介:吕士哲(1998- ),男,河南郑州人,中南民族大学法学院硕士研究生,研究方向为数据法方向。