娄耀雄
直接适用三段论推理的案件是简单案件,机器人可以胜任简单案件的裁决工作。在简单案件中,法律是大前提,陪审团查明的事实是小前提,机器人根据三段论直接推出结论。比如,把“杀人偿命”的法律规范(大前提)输入机器人,再把陪审团查明的“张三杀了人”的法律事实(小前提)输入机器人,机器人法官根据三段论,直接得出“判处张三死刑”的判决。然而,对于疑难案件,需要做价值判断,纯粹理性设计出来的机器人可以胜任吗?面对规则真空、规则冲突和规则模糊,人工智能如何发现规则、选择规则和解释规则?修辞学如何在特定价值观下解释裁决结果?以及人工智能是否可以对算法计算出的裁决结果进行修辞学解释?这些都是本文要探讨的问题。
司法过程无非是查清事实、适用法律。本文所使用的“疑难”是有特定含义的,是指按照特定的制度安排,难以得到问题的解决方案,而疑难案件则是指缺乏可以适用的规则(大前提),无法直接适用三段论的案件。在这种定义下,所谓“疑难案件”,只有法律适用的疑难,而无事实查证的疑难。查清事实不存在疑难,因为诉讼程序中存在事实发现制度。该制度假定事实难以查清,但可以通过诉讼制度和证据规则,得到多数陪审员支持的法律事实。所谓“真相”,只是在特定时间(庭审)、特定场合(法庭)举行的一场讲故事比赛中,根据各方认可的游戏规则(证据规则和诉讼程序),陪审员举手通过的一个更可信的故事版本。(1)由于认知能力具有相对性,司法证明也具有相对性,因此在任何一个案件中所获得的都只能是相对真实。但“相对真实与绝对真实并不是完全对立或截然分开的,相对真实中总会或多或少地包含着绝对真实的内容”。参见何家弘:《论司法证明的目的和标准——兼论司法证明的基本概念和范畴》,载《法学研究》2001年第6期,第40-54页。
法律事实不是客观真实,而是被规则和证据共同建构的。“司法的程序化运作必须要有一个相应的格式化了的世界。”(2)苏力:《纠缠于事实与法律之中》,载《法律科学》2000年第3期,第3-24页。建立举证责任和自由心证制度,就是为了在无法查清事实的情况下,得出相对公平的结论。除非我们坐上比光速还快的火车,追上以光速向外传播的“客观事实”,否则我们无法“感知”真相,只能靠证据推演出“应当的真相”——那只是一种个人化的观点。于是,举证责任应运而生:法律承认了自身局限,但又要解决争议,故而,把案件查不清的后果分配给承担举证责任的一方。自由心证更反映了理性无法认知事实的残酷,于是,干脆把这项工作推给了感觉甚至预感和灵感。法官或陪审员依赖这些非理性活动,顿悟了“真相”,拍着良心问自己:“我真的确信吗?”然后,不需要给出理由,在表决时举手公推一个故事版本即可。所以说,“真相”是民主选举得出的,而非科学证明得出的。民主赋予了“真相”正当性。(3)德国著名哲学家哈贝马斯希望以蕴含在人类言语行为中的“交往理性”为桥梁,替代传统的工具理性观念,运用“协商民主”的政治实践手段,以达成主体间的理解性共识为目标,这样才能使得现代社会的法律重新获得正当性基础,并最终实现二者相统一。参见[德]尤尔根·哈贝马斯:《在事实与规范之间》,童世骏译,生活·读书·新知三联书店2003年版,第273-290页。
于是,司法在事实查证上的局限,被民主表决弥补了。任何难以查清的事实,都可以通过举证责任、自由心证、民主表决等事实发现程序——讲故事比赛,以及证据规则、证明标准、证据开示程序——讲故事规则,高效地、方便地、程序化地给出最终结论,即使与真相相去甚远。律师在法庭的立论过程更像是一场演出而非演讲,(4)说服是一场演出,大量依赖肢体语言,而非演讲,仅依赖语言。Sandra Praxmarer and John R.Rossiter, “Physically Attractive Presenters and Persuasion: An Experimental Investigation of Alternative Explanations for the ‘Patzer Effect’”,8th International Conference on Research Advertising(ICORIA, 2009), The Netherlands: European Advertising Academy, pp.1-7.证据和证人是他的道具,其目的是推销自己对案件事实的观点。这场表演基于对被煽动者(陪审员)心理活动的微妙拿捏、诱导和暗示,(5)亚里士多德就认为,言说者既要懂得论辩的原则,也要了解听众的性格和情绪。George A.Kennedy,A New History of Classical Rhetoric, Princeton University Press,1994, pp.4-6.使之确信自己演出的故事版本为真,而对方的版本为假。这个过程中,律师的说服主要诉诸非理性煽动。(6)在古希腊,以情感为基础的论据是法庭论辩中最有力的三类论据之一。George A.Kennedy,A New History of Classical Rhetoric, Princeton University Press,1994, pp.4-6.可见,事实问题,没有疑难,只有冤案——陪审员举手选出的“事实”(称为“法律事实”)与客观事实不一致。
而法律适用则不同。在判例法系,从成千上万的判例中,找到可以适用本案的规则并非易事。如果没有先例,只能由法官造法。如果对立的两个律师找到了不同的规则,法官还要判定哪个规则更适合本案。大陆法系的情况也类似,在规则真空、规则冲突、规则模糊(具有可解释性)时,规则本身成了最大的问题。“规则”,按照德沃金的理解,不仅包括法律,还包括非规则性的多元化“标准”。他认为,判决的依据表现为:规则—非规则标准(原则、政策、目的等)—道德、文化及社会理想等,这是一个开放的包容性较强的多层次的系统。(7)参见洪川:《德沃金关于法的不确定性和自主性的看法》,载《环球法律评论》2001年春季号,第84-87页。从这个开放性系统中选出最适用于本案的“依据”,是一件困难的事,这就是疑难案件的由来。
三种情形下会出现疑难案件:(8)有的学者认为除上述三种外,“处理结果有争议的案件”也归为疑难案件。“疑难案件分为四种:语言解释的疑难案件,处理结果有争议的疑难案件,规则未规定的疑难案件,规则规定相互冲突的疑难案件。”刘星:《法律是什么》,中国政法大学出版社1998年版,第59页。笔者不同意将处理结果不被认同列为疑难案件,一则,这个标准没有客观性,判决是否被认可源于公众的个人正义感;二则,“法制”的本来含义就是程序正义,而非实体正义,即将按照法律规定的程序得到的结果视为正义,无论这个结果是否被接受。其一,规则模糊,需要对现有规则做解释,从而覆盖该案情形;其二,规则真空,没有可以适用的规则,需要创建一个适用于本案的规则(法官立法);其三,规则冲突,存在多个适用于本案的规则,需要选出一个规则。
在疑难案件中,解释、选定或者创建规则,要么是权力博弈的结果(属于政治问题(9)这里的政治问题是指用司法程序固定政治斗争的结果,而非以司法程序达到某个政治目标。前者是对政治斗争结果的解释,后者是政治目的的手段。有关后者,参见以下论述:“以司法个案的解决方案为范例,司法决策意图形成以点代面的牵动效应,对既定法律关系进行结构性调整,达成某一治理目标。”徐阳:《“舆情再审”:司法决策的困境与出路》,载《中国法学》2012年第2期,第180-191页。),要么是价值判断的结果(属于政策问题(10)“即关于某问题认为有A、B两种解释的情形,解释者究竟选择哪一种解释,只能依据利益衡量决定,并且在做选择时对既存法规及所谓法律构成不应考虑。” 梁慧星:《民法解释学》,中国政法大学出版社2003年版,第314页。)。上述两种情况都不是逻辑问题。在没有既定规则可以适用时,保护谁的利益、放弃谁的利益,最终的决定力量有两个:权力博弈和价值判断。司法判决书的作用就是通过操作规则系统,解释结论背后的权力博弈或价值导向,使结论看起来是从一个规则得到的理性结果,而不是肌肉较量出来的(权力博弈)或利益平衡得来的(价值判断)。有关前者,源于司法的工具性,从建立之日,司法就是政治的工具;有关后者,司法的利益平衡就是“法官在法律推理过程中,结合个案情况,对案件所涉当事人的各种利益、相关法律规则所欲保护的利益进行评估与权衡,从微观的角度平衡利益关系,解决利益冲突,并据此对法律进行创造性的解释和适用,作出相应的判决”。(11)秦策、张镭:《司法方法与法学流派》,人民出版社2011年版,第309页。
面对疑难案件,重要的是规则的产生,而非规则的运用。疑难案件是先有判决的结果(由权力博弈或价值判断决定),后有判决的理由(法律的解释)。在法治社会,任何利益、权力和正义的分配,都需要一个法制化的理由,法官必须“将现行实在法秩序作为其坚定信奉而不加怀疑的前提,并以此为出发点展开解释、建构与体系化工作”(12)白斌:《宪法教义学》,北京大学出版社2014年版,第20页。。权力博弈或价值判断的结果也不例外,它们也需要通过司法实现正当化。判决书看起来是在做逻辑推理,其实只是通过创立、选择或解释规则,对权力博弈或价值判断进行法制化,使结论看起来是从规则推导出来的。
价值判断是可以预期的,即使随时代变迁、民族文化、意识形态而变化,也具有实践理性可供挖掘。如果我们充分了解一个社会的历史、文化、道德、习惯、风俗,以及时代需求、舆论导向(13)对公众意见的成功反驳,也会引发裁判结果上的修正。参见陈林林:《公众意见在裁判结构中的地位》,载《法学研究》2012年第1期,第96-107页。等特征,就可以把握当时的价值观及其对判决的影响。
价值观导向,“就是将当事人所在的阶层、群体的利益与目的建立相关性,并根据作为基础的准则,对各种可选择之决策作出判断”,(14)杨力:《基于利益衡量的裁判规则之形成》,载《法商研究》2012年第1期,第85-94页。其不仅是在规则真空、规则模糊、规则冲突场景下确定准据规则的重要方法,还是改变依规则判决结果的背后动因。比如,河北律师乔占祥诉铁道部案中,(15)《乔占祥诉铁道部票价上浮案行政判决》(2001年高行终字第39号),原文如下:“虽然,《价格法》第23条规定,‘制定关系群众切身利益的公用事业价格、公益性服务价格、自然垄断经营的商品价格等政府指导价、政府定价,应当建立听会证制度’。但,由于在铁道部制定《通知》时,国家尚未建立和制定规范的价格听证制度,要求铁道部申请价格听证缺乏具体的法规和规章依据。据此,上诉人乔占祥请求认定被上诉人铁道部所作《通知》程序违法并撤销该具体行政行为理由不足。”原告认为,铁道部就火车票春节涨价问题未举行听证会,违反了《价格法》第23条关于听证会制度的规定,属于程序违法,应予以撤销。铁道部的涨价程序违法是显而易见的,但法院的价值观是,社会秩序的价值高于个案公平,当二者冲突时,为保护前者,宁可舍弃后者。如果判决乔占祥胜诉,将触发全国几亿人要求铁道部退票的连锁反应(有损秩序价值),“社会效果是司法必须考量的重要因素”。(16)江必新:《在法律之内寻求社会效果》,载《中国法学》2009年第3期,第5-14页。于是,法院通过解释规则,认定铁道部的违法可以豁免(舍弃个案公正)。这是先有判决结果(根据价值观导向),后有判决理由的典型案例。(17)“为基于后果评价的法律适用提供具有根本性的正当支持的,也是司法者在对裁决后果进行实质衡量时所考虑的那些根据。”杨知文:《基于后果评价的法律适用方法》,载《现代法学》2014年第4期,第35-48页。法院为了正当化一个基于价值观的结论,通过解释法律,豁免了铁道部的法定义务,“以法律适用技术为依托,来实现超越规则的司法目标”。(18)徐阳:《“舆情再审”:司法决策的困境与出路》,载《中国法学》2012年第2期,第180-191页。
裁判的历史表明,“每一个通过诉讼发展出来的重要原则,事实上,并且归根到底,都是或多或少地准确理解公共政策的结果”。(19)[美]小奥利弗·温德尔·霍姆斯:《普通法》,冉昊、姚中秋译,中国政法大学出版社2006年版,第32页。其实,很多规则本身就反映了秩序高于个案公正的价值观导向。比如,被推定死亡的人又出现后,其与再婚配偶的夫妻关系并不恢复;(20)参见《民法典》第51条。专利无效后,已执行的专利侵权判决不可以翻案。(21)参见《专利法》第47条。
判决书把价值判断的结果进行逻辑化包装,这个过程就是法律论辩。其主要方法是非形式逻辑的立论。法律论辩旨在从理性上说服读者接受价值判断的结论,因为法律的首要任务是充当表达社会集体情感的工具,反映、投射、支持或放大某种已经存在的社会情感。(22)Kathryn Abrams and Hila Keren, “Who’s Afraid of Law and the Emotions?”, 94 Minnesota Law Review 1997(2010), pp.1997-2074.法律论辩是对裁决进行说理的过程,是解释裁决正当性的语言方法。人工智能在可预见的未来还无法进行法律论辩,其只能根据既定算法得到答案,但无法对答案进行说理性解释。可以说,法律论辩是人工智能裁决普及化的最大障碍。
1.类比论辩
类比论辩的目的是通过事实类比,把一个案件的规则用于另一个案件。在判例法系,类比是法律发现或法律获取的主要途径:(23)参见王宏选:《疑难案件及其法律发现》,载《法律方法》2006年第1期,第314页。通过类比本案事实和判例事实,认定二者的本质相似——本质抽象是在同一种价值观下进行的;然后,本案直接借用判例规则。“所谓遵循先例、遵循先例的判决,实质上就是遵循先例中所体现或蕴含的规则,而不是任何其他东西。”(24)[英]鲁伯特·克罗斯、J.W.哈里斯:《英国法中的先例》(第4版),苗文龙译,北京大学出版社2011年版,第45页。比如,100年前为了给快饿死的孩子偷面包被判无罪,现在饿得奄奄一息的人偷面包也应判无罪,因为二者事实本质相似——都是为了挽救生命而侵犯他人财产权。
价值判断在这种论辩中体现为:在同一个价值观下,发现了二者的本质相似,或者说,二者事实中隐藏着同一个价值观,例如本案的生命权大于财产权。
2.后果论辩
如果适用某规则,会得到某种价值观下不可接受的后果,那么该规则不能适用。“在面对疑难案件时,相较于法条主义的裁判思维和方法,以后果为导向的司法裁判致力于实现一种‘逆向’的推理,即先有意预设可能的裁判结论,通过考量不同结论的后果选择裁判的结果,然后再寻找可适用的法律来对裁决进行正当化。”(25)杨知文:《利益衡量方法在后果主义裁判中的运用》,载《人大法律评论》2017年第2辑,第122-141页。比如,在没有建立“杀害被继承人丧失继承权”规则的地区(美国某些州),杀人者承担刑事责任后,还有权继承财产。此时法官会使用后果论辩来否决继承权:如果适用继承规则,赋予杀人者继承权,则会导致鼓励杀害被继承人的后果,因此,不能适用该规则。
个案裁判兼具解决特定纠纷与指明行为标准的双重功能。(26)参见陈景辉:《裁判可接受性概念之反省》,载《法学研究》2009年第4期,第3-17页。上述案例中的价值判断是,判决对今后同类行为的指导价值大于个案公平。虽然杀人者已经为其行为承担了刑事责任,再让其承担民事责任(丧失继承权)属于额外处罚,违反罪刑法定原则,有失公平;但是,这样判决对社会警示效果的价值大于个案公平,为了不鼓励作恶,在刑事责任之外,还要额外剥夺杀人者的民事权利。
3.目的论辩
此方法是通过解释法律的目的而适用(或不适用)某规则。不同的价值观会有不同的目的解释,因此,规则是否适用(或不适用)是由价值观决定的。“在阐释法律时,应摆脱逻辑的机械规则之束缚,而探求立法者于制定法律时衡量各种利益所为之取舍。”(27)杨仁寿:《法学方法论》,中国政法大学出版社2004年版,第234页。比如,在一个写着“禁止一切车辆入园”的公园,一个心肌梗死的老人突然倒地,保安拒绝一位救助者的汽车开进去拉人送医;老人死后,家属起诉公园。法官要支持家属,就要否定“禁止一切车辆入园”的规则在这种场景下的效力。然而,这个规则本身不带适用条件,法官只有通过目的解释,“由法律秩序可观察而得之立法者的价值判断”,(28)同注,第235页。给这个规则的适用附加一个条件,即立法者建立这一规则的目的是保护人权而非损害人权,当其适用会损害人权时,违反了立法目的,则不适用该规则。这种目的解释彰显了人权高于法治(规则权威性)的价值观。
4.比较法论辩(也叫功利主义论辩)
在规则真空条件下,法官通常会根据功利主义的价值观判定谁的利益应当保护、谁的利益应当放弃。“当其无法依据逻辑完美地解决社会的需要时,就必须主动地审视和权衡案件所涉及的各方面利益,以维护可被认为是优先的利益。”(29)W.Friedmann,Legal Theory, London: Stevens and Sons press,1967, pp.334-335.功利主义的价值比较法,适用于同阶位价值;对于不用阶位的价值,不可用价值比较法。(30)价值排序因人而异,“价值排序是既不真又不假的情感表达”。[英]A.J.艾耶尔:《语言、真理与逻辑》,尹大贻译,上海译文出版社1981年版,第116页。比如,当生命权和财产权冲突时,不能进行价值比较,因为生命和财产不在一个阶位。比较法论辩“把人们从只是机械地关注法律概念的传统中拉回到对社会生活中现实利益的关注”(31)郑金虎:《基于司法克制主义立场的利益衡量操作规则》,载《华东政法大学学报》2010年第1期,第128-134页。,这也演化出了行政法中的比例原则。比如,在判断拆迁是否合理时,法官说理的核心在于,比较拆迁带来的公共利益增加和个人利益损害是否成比例。“在利益相互冲突不能两全的情况下,法律只能以那种不仅在当事人看来具有正价值、是善,而且在群体主体和社会主体看来也具有正价值、是善的行为事实为其保护的对象,并将其规定为‘应当’。”(32)张继成:《从案件事实之“是”到当事人之“应当”——法律推理机制及其正当理由的逻辑研究》,载《法学研究》2003年第1期,第64-82页。
从上述四种法律论辩方法可见,法学方法的核心在于说理,其不仅包括逻辑推理,还包括非逻辑推理,而且以后者为主。“现实、实际中绝大多数都不是精确地、形式逻辑地、合理地发生着,这点便提供了法学方法的本质不在于逻辑推论的支持论据。”(33)[德]考夫曼:《法律哲学》,刘幸义等译,法律出版社2004年版,第132页。
人工智能决策不是根据价值判断,而是以大数据统计为样本,通过特定算法计算出各种可选方案的得分,然后选出最高得分对应的方案。人工智能裁决需要克服的主要问题是如何对待自由裁量权,因为在法律赋予的自由裁量权内,决定性的力量是不可逻辑化的价值观,即道德、情感、正义感等良心因素,法官根据个案情况自主决定。由于人工智能没有 “良心”,只能按照算法进行逻辑判断。在自由裁量权范围内,人工智能必须对“良心”因素现象化、客观化、逻辑化,然后编入算法。这种办法并不鲜见,为了防止法官滥用自由裁量权而对“自由裁量权”切割、赋予权重等定量化处置,正是这种办法的运用。例如,最高人民法院、最高人民检察院制定的《关于常见犯罪的量刑指导意见(试行)》规定,如实供述自己罪行的,减少基准刑的20%以下;退赃、退赔,可以减少基准刑的30%以下;尽管没有赔偿,但取得谅解的,可以减少基准刑的20%以下。对于美国联邦法院最近关于堕胎的案件裁判,如果交给人工智能裁决,则不是平衡妇女生育自由权和胎儿生命权,而是首先统计各州是如何对待的、联邦法院之前是如何处理的、各种判决引起的后果是什么、支持和反对的利弊是什么、社会对各种判决的反应如何,从而按照最高得分进行判决。
人工智能可以胜任逻辑判断,如自动刹车(按照既定算法计算,当风险达到阈值后,启动刹车系统)、自动下棋(在下一步的各种走法中选择收益最大的走法)、法条检索(计算各法条与本案事实的相关度,选择相关值最高的法条)。在单一价值观下,即使是非功利的判断,也可以通过大量样本的数学归纳,抽象出本质特征,并选择最接近该特征的数据作为决策结果。如人工智能选美,通过大数据深度学习,把1万张人们认为美的照片交给人工智能深度学习。当然,有1万张丑的照片用于反面特征归纳更好。人工智能通过深度学习,可以归纳出美的特征,决策时就选择该特征最明显的样貌。
然而,面对多个价值,人工智能就无法作出判断。价值判断是当存在多个价值时,放弃哪个价值,捍卫哪个价值的抉择;而不是单一价值观下得分最高的计算。比如,结婚对象是选择最美的还是能力最高的(美和收益的冲突)。对于价值冲突,人工智能通过在算法中给不同价值设置权重(功利系数),从而把多元价值的比较,转换为同一价值坐标系下的得分比较。其实,对价值设置权重的理念早已有之,200年前英国功利主义哲学家穆勒就指出,快乐不仅有数量之分,还有质量之分,并且对质量的判断是要优于数量,因而做痛苦的苏格拉底比做快乐的猪更好。
人工智能所具有的没有个人情感、严格依法行事的优势,使得人工智能裁判方式对人们产生持续的诱惑力。然而,人工智能判决只能给出冰冷的结论,而不能解释该结论,阐述其正当性,从而说服人接受该结论。人工智能通过深度学习、大数据归纳、已有判例统计,按照特定算法计算出最优判决,并没有建立数据间的因果联系,所以人工智能判决无法说理。人工智能裁决不是根据“理”得到的判决,而是根据算法,缺乏人类推理的逻辑和因果联系,无法按照人可以接受的方式进行解释和说服。算法是“机理”,而非“人理”。不能说理的判决,与古代社会的神判并没有本质区别。
如何让人工智能说理,则是另一个领域的话题。本文探讨的是人工智能如何作出裁决,而如何解释裁决已非法学话题。像法官一样,用修辞学阐释其裁决,属于人工智能领域的语言学问题。
法官能否被机器取代的话题,可以追溯到“人工智能”这个概念出现之前的图灵测试时期。(34)Alan M.Turing, “Computing Machinery and Intelligence”, 59 Mind 434(1950), p.434.在简单案件中,事实(小前提)靠陪审团表决,法律(大前提)被输入机器,剩下的工作就是做一个三段论。这个形式逻辑推理不需要多少智商,机器可以取代法官。(35)机器人取代法官,不指过程,而指结果,即机器人对案件的处理结果和法官一样。Eugene Volokh, “Chief Justice Robots”, 68 Duke Law Journal 1135(2019), pp.1137-1138.然而,对疑难案件,选择规则本身就是一个难题。寻找规则的工作可以由具有人工智能的机器人替代吗?这也许是人工智能时代法官细思极恐的问题。不仅如此,事实查证能否由机器人替代?这也是值得深思的问题,虽然人工智能目前达不到决策的水平,(36)Frank Pasquale, “A Rule of Persons, Not Machines: The Limits of Legal Automation”, 87 George Washington Law Review 1(2019), pp.46-49.但它引发了关于未来陪审员下岗问题的讨论。
一般认为,按照逻辑设计出来的机器人的理性能够到达的高度是无限的,算法自我迭代的速度超过了人类对算法进行规制的速度,(37)Jacob Weisberg,The Digital Poorhouse, The New York Review of Books, 2018, p.3.无论多么复杂的判断,只要是理性的,机器迟早能学会;机器人学不会的是非理性活动,(38)“它们终究只是智能机器,它们有智商但无情商,它们长于计算但不会算计。”刘洪华:《人工智能法律主体资格的否定及其法律规制构想》,载《北方法学》2019年第4期,第56-66页。包括顿悟、灵感、情感、预感、欲望、本能,因为这些不符合逻辑,且无法客观化,其设计者不能把这些因素进行逻辑化表达,进而写进驱动程序。(39)法律推理中的非理性因素一直是法律逻辑试图涵盖其中的一个变量。有关理性与情感的二元对立仍然是法律思维的隐形桎梏,参见Martha C.Nussbaum, “The Use and Abuse of Philosophy in Legal Education”,45 Stanford Law Review 1627(1993), pp.1627-1642.换句话说,因为与生俱来的缺陷,机器无法超越理性。(40)“人工智能在思维能力上无法超越人类思维和意识的整体性,对于感官和人脑的模拟仍处于机械化阶段,更不能产生人类主体性所依赖的社会关系和实践基础。”张劲松:《人是机器的尺度——论人工智能与人类主体性》,载《自然辩证法研究》2017年第1期,第49-54页。对于缺乏非理性的人工智能,有的学者甚至不认为其属于“智能”,“因为智能的内核是‘主体的自由’以及主体对这种自由的自我认知和主动应用”。(41)郑戈:《人工智能与法律的未来》,载《探索与争鸣》2017年第10期,第78-84页。
非理性因素在法律推理中发挥了重要作用,有时甚至是决定性作用。法律人尤其是法官经常发现,“在大多数情况下,他的决定所依据的完全是另一种方式,即直觉地、本能地求助于是非感,实践理性,健全的人类理智”。(42)[德]卡尔·恩吉施:《法律思维导论》,郑永流译,法律出版社2004年版,第51页。因此,探讨人工智能是否可以判案,需要回答法律中的非理性因素究竟是理性绝对无法处理的不可知变量,还是理性通过特定算法可以捕获的变量。
适用法律就是做三段论推理,在这个过程中,找到规则(大前提)是关键的一步,也是“疑难案件”之所以疑难的由来。寻找大前提的方法有二:发现规则和加工规则。
发现规则意味着规则已经存在,只是散落在无数判例或法典里,有待找出来。在法典法系,这是一件容易的事,只需对法典中的全部规则进行有限次数的比较,找到最适合本案事实的规则即可。(43)“法官通常运用‘有节制的前理解’并结合‘具体的法律政策考量’进行疑案决策。从形式上看,这一决策活动是法官在准用规范和个案事实之间不断进行比对、调适‘初步结论’而得出结论性判断的过程。”陈林林、张晓笑:《认知的双重加工模型与司法决策》,载《浙江学刊》2014年第5期,第132-138页。在判例法系,发现规则的过程相对困难,需把在先判例输入计算机,分别与在审案件进行比较,找到“本质相似度”最高的那个判例(这种发现的过程是基于特定价值观的),然后,抽象出其规则。这个过程包含四个步骤:对在审案件的事实进行抽象;对全部在先判例的事实进行抽象;逐一比较上述二者的本质相似度,选择相似度最高的那个在先判例;从该在先判例中抽象出规则。
可以看出,上述过程都是逻辑过程,只要机器人聪明到具有事实抽象能力,就可以胜任发现规则这项工作。(44)Richard Susskind & Daniel Susskind, The Future of the Professions:How Technology Will Transform the Work of Human Experts, OUP Oxford, 2015, p.283.
加工规则是指面对疑难案件,在规则真空、规则冲突或者规则模糊的情况下,如何创建规则、选定规则或解释规则。加工规则需要价值判断,即为达成一个价值目标,在特定场景下放弃什么、保护什么?以及当根据多个价值目标的选择结果发生冲突时,按照哪个价值目标做选择?这些显然不是逻辑可以解决的,属于意识形态范畴。(45)Joshua P.Davis, “Legal Dualism, Legal Ethics, and Fidelity to Law”,Journal of the Professional Lawyer 1(2016), pp.1-48.这个问题的核心是一个哲学问题:机器人能否做价值判断?说得直白一些就是,电脑的决策程序是软件工程师用逻辑设计出来的,其按照逻辑运行,而价值判断不是逻辑判断,是有关善恶、正义、公平的判断,逻辑能否胜任这项工作?(46)Symposium, Discussion, “The Role of the Legislative and Executive Branches in Interpreting the Constitution”, 73 Cornell Law Review 386(1988), p.386.
1.价值标准的本质
价值标准是判定行为是否理性的基础。(47)Gerald L.Clore, “For Love or Money, Some Emotional Foundations of Rationality”, 80 Chicago-Kent Law Review 1151(2005), pp.1151-1167.我们需要首先探讨价值标准的本质,然后才能回答逻辑是否胜任价值判断。与梦魇、顿悟、灵感、情感等非理性活动不同,价值标准的形成是群体无意识的理性归化,是为了长期的、全局的利益。(48)“司法领域公众诉求的本质在于追求司法裁判对其眼前利益或预期的惠及每个社会主体的社会利益的保护。”参见熊寿伟:《裁判结果对公众诉求的合理引入》,载《人民司法》2014年第21期,第9-14页。这类似于看似主观的女性审美标准,其实是生育基因进化的理性选择:大胸利于哺乳,细腰利于判断未在孕期,大臀利于存储能量。
“善”的进化也是理性选择的结果。善一定有功利主义的支撑,只不过着眼点是远期的、共同体的功利,而非个人的、眼前的功利。比如,动物保护主义者标榜的“爱心”,其实是保护有利于自己的动物;爱狗人士消灭“四害”(苍蝇、蚊子、蟑螂、臭虫)而不认为这是作恶,是因为狗利于人,而“四害”对人有害。又如,利他者的动机也可以从长远、全局的视角找到功利主义的解释,为了共同体在“人人反对人人的战争中”生存下来,人们需要结盟、互助,所以,利他成了“善”的普遍标准。
可见,“善”一定有利于长期的共同体利益,而“恶”正相反;价值标准的本质是长远的共同体功利。
2.单一价值判断和复杂价值判断
既然价值标准是理性长期进化的结果,那么,按照理性运转的机器人就可以掌握这个标准。也就是说,机器人是可以做价值判断的。接下来的问题是,即使机器人可以胜任单一价值判断,比如选善行、选好人、选公平的结果,但在复杂价值判断中,根据不同价值标准得到的结果不一致,如何抉择?复杂价值判断似乎是人工智能仅依赖逻辑进行判断的天花板。(49)“在选择之际,价值的复数性会凸现出来。人工智能如何对不同的价值取向或评价标准进行排序? 如何通过比较、权衡以及取舍做出适当的价值判断?电脑信息处理系统怎样才能抽取那些决定某个价值群的等级次序的元规则,并适当描述法律的价值函数?”参见季卫东:《人工智能时代的法律议论》,载《法学研究》2019年第6期,第32-49页。以下可说明复杂价值标准下判断的难度。在显失公平的撤销权案中,如果交易价格为市场价格的2倍,该交易是否应予以撤销?如果不可撤销,那高出市场价10倍呢?在这种案件中,公平和自由的价值目标发生了冲突,属于复杂价值判断。为保护公平,稍微偏离市场价格就应干预;而按照意思自治原则,无论多么离谱的交易价格,都是当事人的自由意志选择,公权力都不应干预。
实际上,既然单一价值标准是着眼于远期、全局的功利主义进化的结果,那么,当根据两个价值标准作出的选择不一致时,只需要比较二者的功利结果即可。简单价值判断和复杂价值判断,都是理性活动。能胜任简单价值判断的机器人,一定能胜任复杂价值判断。在上述案件中,只需比较维持交易(遵循自由价值)或撤销交易(遵循公平价值)的总体社会功利值,维护大的功利即可。因此,只要人工智能足够发达,机器人就可以进行单一价值判断——单一价值标准下选“善”,以及复杂价值判断——多重价值标准冲突时选“优”,进而处理疑难案件。
缺乏非理性能力的人工智能不仅可以胜任价值判断,而且在判决疑难案件过程中,没有情感反而更有利于保持中立,从而杜绝法官的个人偏好对自由裁量权的影响。(50)Daniel Ben-Ari , Yael Frish, Adam Lazovski, Uriel Eldan and Dov Greenbaum, “Danger, Will Robinson? Artificial Intelligence in the Practice of Law, An Analysis and Proof of Concept Experiment”, 23 Richmond Journal of Law & Technology 2(2017), pp.35-36.
诉讼中的事实问题可以通过陪审团的民主表决机制解决,故只会有冤案,没有事实上的疑难。疑难案件只存在于规则的选择和适用上。价值判断是选择和适用规则的关键,疑难案件是先有判决结果,后有判决理由。结果由价值观决定,理由是对结果的正当化解释,不是得到结果的原因。对判决结果的各种解释方法就是法律论辩,其目的是对判决结果背后的价值判断进行法制化包装,使一个判决看起来更像是规则适用的结果,而不是价值判断的结果。一个社会的主流价值观不是顿悟、灵光一现的非理性,而是长远的功利,是长期发展的利益平衡的理性选择,故由纯粹理性设计并按照纯粹理性运行的人工智能可以学会价值判断。因此,从理论上讲,人工智能可以判决疑难案件。