冯洁
摘 要:大数据时代不仅给司法裁判带来了技术和制度-教义方面的挑战,更重要的是会在裁判思维的层面带来潜在的危险。司法裁判在本质上是一种以追求正确性为目标的规范性论证说理活动,它秉持的是理由思维、正确性思维和规范性思维。大数据技术的核心在于基于司法行为的历史数据、通过计算(算法)来预测未来的裁判,它可能带来三方面的危险:一是数字解决主义,即以数据计算取代论证说理;二是司法实证主义,即以统一裁判取代正确裁判;三是法律实用主义,即以结果预测取代规则实践。但只要人(法官)的道德主体地位与自主性仍然是司法裁判的价值根基,上述危险就不构成根本挑战。但它的确带来了一个反向挑战,那就是在“算法社会”到来之际,如何让人(法官)更像人、而非像机器那样去思考。
关键词:大数据;裁判思维;数字解决主义;司法实证主义;法律实用主义
中图分类号:DF920.0文献标志码:A
DOI:10.3969/j.issn.1001-2397.2021.03.03 开放科学(资源服务)标识码(OSID):
一、引言
大数据时代的来临,对于人类实践的方方面面、包括法律领域造成了持久而深远的冲击。而在法律领域中,司法裁判无疑是其中受到最多冲击的一个领域。在司法实务界,“智慧法院”口号的提出,以及杭州、北京、广州等地互联网法院的纷纷设立,都彰显出司法实践对这种冲击的积极回应。与此相比,理论界对于智能化司法与大数据技术则抱持更加多元和复杂的态度。近年来,学界主流对这一领域投入了大量的热忱和精力,使得相关研究成果亦呈“大数据级的”几何倍数增长。但不少学者在肯定智能化司法与大数据技术对于提升司法效率和社会效能、实现 “可视正义”之积极意义的同时,也认为这种应用有其限度以及可能的风险。参见马长山:《司法人工智能的重塑效应及其限度》,载《法学研究》2020年第4期,第23-40页。在一开始的亢奋期过去之后,学界越来越认识到,当“阿尔法狗”碰上“独角兽”,结果或许不仅是理想状态中“智慧”与“正义”的简单叠加,两者之间也可能会产生内在的紧张关系。
目前,相关的反思主要集中于两个层面:一是技术的层面。除了信息化和数据库技术本身可能存在的缺陷外,一个核心问题在于,能否以及如何解决“算法黑箱”问题。有论者系统阐述了算法风险和目前算法规制的局限性参见苏宇:《算法规制的谱系》,载《中国法学》2020年第3期,第165-184页。,有论者反思了算法透明性原则的不足和算法问责的可能参见沈伟伟:《算法透明原则的迷思——算法规制理论的批判》,载《环球法律评论》2019年第6期,第20-39页。。如何避免算法歧视,保证裁判的可验证性和公正性亦成为争议的焦点。二是制度-教义的层面。核心问题在于,大数据技术所引发的司法实践问题是否对既有的法律体系与法律教义构成了根本性的挑战?质疑者认为,人工智能既没有对法律本身,也没有对法律基础理论、基本法学教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景以应对这些问题。参见陈景辉:《人工智能的法律挑战:应该从哪里开始?》,载《比较法研究》2018年第5期,第142页;刘艳红:《人工智能法学研究的反智化批判》,《东方法学》2019年第5期,第124页。例如,通过司法对机器人的民事责任、刑事责任或知识产权归属等问题的认定,是否在既有的法律或学说框架内就足以应对。但在笔者看来,除此之外,在司法裁判领域更值得反思的还有思维的层面。与前两类问题相比,大数据技术给裁判思维所可能带来的影响更为深远,其潜在的危险也更值得我们警惕。因为科学技术从来就不只是一种影响社会实践的手段,它同样也会附着特定的意识形态或者说价值观念。当我们在拥抱技术的同时,也会潜移默化地受到这些价值观念的影响。而这些价值观念有可能要比技术和制度-教义更为颠覆性地挑战既有的思维模式及其背后值得尊重的价值。最近,已有一些学者在论述中部分地涉及到了这一问题,参见孙海波:《反思智能化司法的可能及限度》,载《国家检察官学院学报》2020年第5期,第80-99页;宋旭光:《论司法裁判的人工智能化及其限度》,载《比较法研究》2020年第5期,第80-92页。但主题仍不够聚焦和深入。本文旨在就大数据时代给裁判思维可能带来的影响进行体系性阐述。为此,我们将首先阐明司法裁判的既有思维方式(第一部分),然后依次剖析大数据技术对这种思维方式可能带来的三方面危险(第二、三、四部分),最后予以小结。
二、司法裁判秉持什么样的思维
司法裁判的思维方式与司法裁判的本质密切相关。司法在本质上是一种判断权,参见孙笑侠:《司法权的本质是判断权——司法权与行政权的十大区别》,载《法学》1998年第8期,第3-5 页。在所有纠纷解决方式中具有终局性。但这并不意味着它就是一种纯粹的决断。司法裁判的特征在于,它是一種通过“说理”来解决纠纷的活动。法律推理也就是为司法裁判的结论提供理由,或者说证明结论之正当性的过程。但如果我们反转“从理由到结论”这一顺序,将结论视为先行提出的“命题”,而将理由视为为了支持命题而提出的“论据”(arguments),那么法律推理的过程其实也就是法律论证(legal argumentation)的过程。论证在司法裁判中扮演着重要的角色。因为任何提出法律命题的人都被期待提出论据去支持它。Eveline Feteris,Fundamentals of Legal Argumentation,2.nd ed.,Springer Press,2017,p.XV.司法裁判不仅要告诉当事人和社会公众,对于特定的纠纷,法院给出的判断是什么,也要告诉他们,为什么给出了这一判断。一般而言,司法裁判的说理论证将从法律与事实两个方面进行:法官必须一方面证明自己的裁判拥有恰当的法律基础,另一方面证明自己的裁判具有(通过证据证实的)事实基础。这就是“以事实为依据,以法律为准绳”。当然,在很多时候,抽象的法律规范含义并不明确,能否适用于有待解决的个案并非一目了然,此时就需要进行法律解释。而在通过法律解释将抽象规范与具体案件事实对接起来的过程中,除了法律本身的规定外,法官还需运用各种其他来源的理由或论据,以增强判决的说服力和可接受性。所以,司法裁判中的说理就包括了“基于法律的说理”(释法)与“围绕法律的说理”(狭义上的“说理”)两个部分。基于此,最高人民法院《关于加强和规范裁判文书释法说理的指导意见》才提出,裁判文书说理要做到四个层面,即事理、法理、情理和文理的统一。简言之,司法裁判是一种论证说理的活动。相应地,裁判思维就是一种“理由先于结论”或“理由优于结论”的思维,可简称为理由思维。
那么,司法裁判中论证说理的目标是什么?简单地说,就在于为法律判决提供充足的理由与根据,获得充足理由与根据的判决就是正确的法律判决。什么是“正确的”法律判决?通常来说,正确的司法裁判要满足两个方面的目标,一是依法裁判,二是个案正义。一方面,司法裁判与其它纠纷解决机制在运作方式上的重要区别,就在于前者乃是一种根据“权威性资料体系”进行裁决的活动。参见[美]庞德:《法理学》(第2卷),邓正来译,中国政法大学出版社2007年版,第134页。所以,司法裁判在本质上不仅是一种论证说理的活动,而且是一种依据权威性法律进行的论证活动。换句话说,只有依“法”裁判的活动才能被视为“司法”。它意味着法官的司法判决要建立在已被确立且事先已经向社会公众公布之一般法律规则的基础之上。参见舒国滢、王夏昊、雷磊:《法学方法论前沿问题研究》,中国政法大学出版社2020年版,第169-170页。据此,公民就有根据同一套规则(至少在一定范围内)来预测司法判决的可能,法官也可借此证明司法判决并非个人喜好的产物,他的裁量权受到规则的限制。此外,现代社会的法律规则大多都是由立法活动来提供的,而立法机关又兼具民意代表机关的性质。所以,法官依法裁判也就具有了将通过民主方式产生的规则适用于具体案件的意味。依法裁判所蕴含的可预测性、限制裁量权和民主这些价值,都属于形式正义的范畴。另一方面,司法裁判不仅要合法,也要合理,不仅要追求形式正义,也要追求实质正义。这意味着司法裁判过程中的价值判断是必不可少的,因为司法裁判本身就是通过权利和义务的分配,来优先保护某种利益,弘扬某些价值。通常来说,法官所运用的价值判断应当是特定社会的主流价值观。这些价值有的已经得到了法律的明确认可,例如我国《民法典》第1条(弘扬社会主义核心价值观)、第4-9条(平等、自愿、公平、诚信、公序良俗等),但更多时候需要法官自身去发现和论证,来对法律中的“需进行价值填补的一般性条款”进行补充。更重要的是,司法裁判中的个案正义是具体正义而非抽象正义,是法律正义而非纯粹的伦理正义。因此,法官在追求个案正义时,负有义务来证立他所采取的价值判断具备规范基础,符合社会主流价值观,且可以理性的方法适用于个案。正因为司法裁判追求的并非纯粹的实质正义,而是统摄了依法裁判与个案正义这两个方面,我们才将之统称为“正确性”。它要区分什么是法律上对的,什么是法律上错的。所以,司法裁判是一种追求正确性(对错)的活动。相应地,裁判思维就是一种致力于区分(法律上的)对错的正确性思维。
“依法裁判”的要求已然表明,司法裁判是一种规则的实践。在本文中不区分“规则”与“规范”。为了论述的方便,用“规则”来统一称呼。因为站在法律自身的角度看,它不外乎是一种适用法律规则的活动。规则实践要求实践主体采取一种对于法律的“内在观点”:法律在个人生活中的功能不仅仅是作为习惯或预测法院决定或其他官方行动的基础,而且也被接受为行为的法律标准。也就是说,个人不仅仅相当规律地去做法律要求做的事,而且他们也将之视为行为的法律标准,在批评别人、证成要求以及接受别人所做之批评或要求时,引用这个标准。参见[英]哈特:《法律的概念》,许家馨、李冠宜译,法律出版社2018年版,第203页。这是因为,凡有法律之处,人类的行为在某个意义上就不是随意的,或者说是“具义务性的”。参见[英]哈特:《法律的概念》,许家馨、李冠宜譯,法律出版社2018年版,第138-139页。换句话说,个人必须以规范性的方式来使用法律规则。对于作为司法裁判之主体的法官而言,还要更进一步。他不仅要持一种内在观点,而且还要持一种对于他所身处之法律体系的“参与者的立场”。这里涉及观察者的立场与参与者的立场的区分。观察者的立场不问某一法律体系中的正确决定是什么,而更关心在此一特定法律体系中决定如何实际地作出。相反,持参与者立场的人则在某一法律体系中参与到有关此一体系的命令、禁止、允许以及此一体系所欲达致的目的争议之中。参见[德]罗伯特·阿列克西:《法概念与法效力》,王鹏翔译,五南图书出版股份有限公司2013年版,第42-43页。引用时改变了一些表述。作为法律体系的核心,法官运用法律规则处理纠纷的过程,其实就是围绕个案事实,就“此情此景中法律应该要求如何行动”或“正确的法律标准是什么”这类实践问题进行回答的过程。法官的工作,并不是去描述法律体系中曾经发生过什么、将会发生什么,而是尽可能按照法律的价值观念、通过努力作出正确的判决,去塑造好法律的每一个细节,推动法律体系的进步。为此,法官要将法律规则奉为有拘束力的标准,法官所作的判决也会被他人奉为有拘束力的标准。因此,司法裁判是一种以规则为标准的规范性活动。相应地,裁判思维就是一种规范性思维。
综上,司法裁判在本质上是一种以追求正确性为目标的规范性论证说理活动,它秉持的是理由思维、正确性思维和规范性思维。之所以裁判思维具有这三重特征,归根结底是因为法律论证属于普遍实践商谈的“特殊情形”参见[德]罗伯特·阿列克西:《特殊情形命题》,载罗伯特·阿列克西著:《法:作为理性的制度化》,雷磊编译,中国法制出版社2012年版,第82-83页。,而商谈理论的基本理念在于将所有的参与者都作为自由和平等的论证伙伴来对待。参见[德]罗伯特·阿列克西:《商谈理论与人权》,载罗伯特·阿列克西著:《法 理性 商谈》,朱光、雷磊译,中国法制出版社2011年版,第123页。简单地说,也就将人作为具有自主性的人(Person)来对待,或者说尊重论证伙伴的道德主体地位。就此而言,司法裁判就是一场由法官和其他论证伙伴共同参与的商谈式对话,是一种由不同的道德主体就法律规则在个案中的正确要求为何的问题进行说理论证,以达成共识的活动。法官不仅要让自己确信裁判结论,也要说服当事人、乃至社会公众接受裁判结论。然而,大数据时代的裁判方式以及背后隐含的思维模式,将会危及这一基本理念以及司法裁判秉持的上述三种思维。
三、数字解决主义:以数据计算取代论证说理
司法大数据领域的算法有两种:一种是显式编码、封闭规则的算法,通过法律专家系统实现对人类法律推理的模拟并将之应用于司法裁判的决策;另一种是机器学习算法,通过大数据分析训练,发现人类司法裁判的内在规律,并将之应用于对未来裁判的预测。参见宋旭光:《论司法裁判的人工智能化及其限度》,载《比较法研究》2020年第5期,第82页。如果说上世纪90年代之前的智能化司法主要采取的就是专家系统的话,那么最近十数年来大数据与智能化的结合则带来了基于自主和深度学习的机器学习算法。大数据时代智能化司法的基本方式为:将开放的司法数据通过自然语言处理后,输入机器学习的算法之中,然后得出一种或多种用于预测或预见案件胜诉或败诉可能性的模型。这个算法的目标并非复现法律推理,而是寻找判决中各个参数间的相关性。参见郭锐:《人工智能的伦理和治理》,法律出版社2020年版,第156页。如无特殊说明,后文所针对的正是这种大数据时代的司法人工智能。
事实上,机器学习算法能做的,只是通过一种自动化的方式用多种预设配置将一组观测值(输入值)与一组可能结果(输出值)关联起来。它在组成司法判决的不同词汇组之间构建分类链接:输入阶段的特定词汇组(表征案件事实)对应于输出阶段的特定词汇组(表征裁判结论)。它的基本原理近似于“讯飞”这样的机器翻译系统,只能在一组词汇和已经完成的译文之间对最佳匹配作可能的估计值,而无法真正“理解”所处理的句子的意思。参见郭锐:《人工智能的伦理和治理》,法律出版社2020年版,第156-157页。因为它并不会复制或模拟人类的推理,而仅仅是让机器自己识别数据中现有的统计模型,并将它们与特定的结果进行匹配。它无法理解,为什么在成百上千个先前的同类案例中,法官作出了这样的判决。换句话说,它不会“说理”,而只能通过自主学习这些案例“识别”要素或词汇组之间的相关性。因此,大数据时代对于裁判思维的最大挑战,就在于用相关性思维去取代理由思维。如果说建立相关性是数据计算的目标,而理由思维对应于论证说理活动的话,那么它的危险就在于试图以数据计算取代论证说理。这种做法,将导致对司法裁判中的因果关系和归责关系的双重无视。
大数据技术的支持者认为,用相关关系取代因果关系,正是大数据时代的进步。如果说因果关系代表着人类认知世界的理论模型的话,那么在大数据时代就意味着这种模型观的过时和理论的终结。因为“有了足够的数据,数字会自己说话”,对此“相关关系足够了”。“科学甚至可以没有连贯一致的模型、统一的理论,或者实际上可以完全没有任何机制性解释而发展。”Chris Anderson,The End of Theory: The Data Deluge Makes the Scientific Method Obsolete,Wired,June 2008,p.5.大数据时代最惊心动魄的挑战,就是社会将从对因果关系的需要中解脱出来,而代之以简单的相关关系。“大数据告诉我们‘是什么,而不是‘为什么。在大数据时代,我们不必知道现象背后的原因,我们只要让数据自己发声。”“知道是什么就够了,没必要知道为什么。”[英]维克托·迈尔-舍恩伯格、肯尼思·库克耶:《大数据时代》,盛杨燕、周涛译,浙江人民出版社2013年版,第19、71页。但我们真的已经不再需要因果关系了吗?在笔者看来未必如此。即使是在大数据时代,相关关系也无法取代因果关系成为裁判的基本思维模式。
首先,要重新理解因果关系及其与相关关系的关系。因果关系是人类理性行为与活动的基本依据,人类理性本身不可能否定因果关系。但大数据所凸显的相关关系,的确从实践层面实质性地推进了对传统因果概念的深入反思。传统的因果观念包括两种进路,一种是康德式的先验进路(哲学进路),从“理知的”而非“自然的”的意义上,将因果关系理解为人类理解活动的不可或缺的先验假设,故而认为这种关系具有必然性;参见[德]康德:《纯粹理性批判》,邓晓芒译,人民出版社2004年版,第111、123、440页。另一种是休谟式的经验进路(科学进路),在经验科学中导向了因果关系的概率研究,并从穆勒以后逐渐由必然性退离至或然性。这就导致了因果关系的量化研究进路,而量化后的因果关系就蜕变为变量之间的相关关系。如此一来,用“相关关系”而非“因果关系”的说法就似乎更为准确。但是,这种方案误解了因果关系本身。传统因果概念的根本缺陷,就在于把原因等同于某种原子式的存在。这里的关键在于区分因素与原因。事物是相互联系、相互作用的,如果我们把参与相互作用过程、构成一定原因的事物称为 “因素”,那么,传统因果观中某种类似原子的 “原因”,实际上就只是相互作用过程中的 “因素”。而原因,则是对因素相互作用过程的描述。所以,原因和结果(效应)总是同时出现的,有原因必有结果,有结果也必有原因。因为因果关系描述的是因素相互作用过程与其效应之间的联系,而非单个的因素本身。因素和原因的区分也打开了通向相关关系的窗口:因素可以与实际结果发生相互作用,也可以与潜在结果相联系。后一种联系就是相关关系。相关关系虽非因果关系,但却与因果关系密切相连,可谓因果派生关系。参见王天思:《大数据中的因果关系及其哲学》,载《中国社会科学》2016年第5期,第26-28页。这种因果派生关系就其能否转化为现实的因果关系而言,是可能的、或然的,而非必然的,它为人类活动提供了选择的空间。因此,大数据思维将相关关系与因果关系对立起来的做法本身就是错的。即便倡导大数据背景下将裁判中的因果关系转变为相关关系的学者也承认,“探寻事件/事物之间的因果关系仍然是社会科学工作者所追求的目标”。参见吴义龙:《因果关系在大数据时代的转变》,载《法律与社会科学》第15卷第1辑(2016年),第176页。
其次,仅仅确定相关关系对于司法裁判是不够的。上述论述表明,相关关系具有因果性根基,它可以被转化为因果关系,但它本身也仅仅是潜在的因果关系。然而,在司法裁判的领域,仅仅满足于通过大数据来确定这种潜在的因果关系是不够的。第一,大数据处理算法不能真正保证排除错误的相关性。因为法律中的因果关系并不等同于数据统计得出的相关关系。虽然人们普遍认为,统计模型和概率模型可以通过增加数据输入(喂养数据)来完善,但对于机器学习算法而言,可能出现的规则实际上是随机的,因为它不会“分析”因果关系,从而无法将与结果不具有因果联系的因素(输入值)排除出去。参见郭锐:《人工智能的伦理和治理》,法律出版社2020年版,第158-159页。第二,相关关系在向因果关系转变时具有多种可能性。相关关系意味着对事物过程的定量描述模型,而因果关系则意味着对事物过程的定性描述模型。在司法裁判中,重要的不是确立数量关系,而是事实要素在法律上的定性。但大数据计算很难满足这一点。有大数据研究者明确指出,“作为一堆海量原始信息,大数据不是自明的”。David Bollier,The Promise and Peril of Big Data,The Aspen Institute,2010,p.13.不仅数据本身并不会说话,而且 “海量数据可以提供辐射到所有方向的关联”。Danah Boyd and Kate Crawford,Six Provocations for Big Data,in: A Decade in Internet Time: Symposium on the Dynamics of the Internet and Society,Oxford Internet Institute,2011,p.2.在数据计算中,将相关关系误当因果关系并找到误导性模型是十分容易发生的事。所以,每一个学科、包括法律科学都需要运用自身的规范和标准来对作为矛盾综合体的数据进行再处理,以建立符合自身需求的因果关系。第三,相比于自然科学,法律科学(司法裁判)更需要区分因果关系与纯粹条件关系。在相关关系向因果关系转化的过程中,要区分(潜在的)原因与纯粹条件。将原因与纯粹条件相对照是所有原因思考都不可缺少的一个特征,但在法律科学中,这种对照尤其有必要。因为自然科学采取说明性陈述,而法律科学(司法裁判)采取归责性陈述。前者要指出的是,某个自然事件是由另一个自然事件或人的行为造成的,而后者要确认的是,根据法律规则,法院能否将某一现实发生的危害归责于被告的行为,或者能否恰当地说是他造成了这一结果。参见[英]哈特、托尼·奥诺尔:《法律中的因果关系》,张绍谦、孙战国译,中国政法大学出版社2005年版,第11、22页。换言之,司法裁判确认因果关系的根本目的不在于获得某种科学认知,而在于规则实践,是为了找到作为破坏法益或法秩序之根源的行为,并让行为人承担责任。如果说自然科学中的因果关系展现为“由果溯因”的话,那么法律科学中的因果关系则展现为“由因确果”当然,这里前一个“果”指的是自然后果,而后一个“果”指的是法律后果。。在司法裁判中确立因果关系的同时,通常也意味着初步确立了归责关系(前者是后者的基础)。正因为如此,法律中特别强调区分纯粹条件与原因,前者是事件之正常狀态的组成部分(无论事故是否发生都会存在的因素),而后者是在意外现象与正常发展的事物之间“造成差异”的因素关系。参见[英]哈特、托尼·奥诺尔:《法律中的因果关系》,张绍谦、孙战国译,中国政法大学出版社2005年版,第26、30、31页。例如,通常情况下,氧气的存在只是起火的纯粹条件,而某人随手丢掉燃烧的烟头则会被认为是原因。区分两者的目的,就是为了将法律责任归于后者而非前者。但在自然科学中,无论是氧气的存在、还是燃烧的烟头都是发生火宅的必要条件,区分度不那么明显,因而纯粹条件与原因的区分也历来存在更大的争议。但是大数据计算显然是要用自然科学的因果/相关观念来引导司法裁判,这里的风险是显而易见的。
最后,也最重要的是,司法裁判的重心不在于对过去的模仿,而在于立足当下、面向未来的论证。大数据所遮蔽的司法论证其实包括两个步骤:一是将结果性事实与原因性事实联结起来,二是将这种原因性事实涵摄于规范的构成要件,并将特定法律后果与之联结起来。前一种联结涉及因果关系,后一种联结涉及归责关系。大数据计算所要做的,其实是将这两个步骤化约为简单的数据关联,也即从结果性事实(输入值)与特定法律后果(输出值)直接联结起来,将之上升为通则性的算法规则。这种联结并不是“推理”,因为它并没有在“理由-结论(主张)”的意义上来对待结果性事实与特定法律后果,而仅仅是将它们视作相关联的两组数据而已。但这种化约法的危险之处恰恰在于忽视了,上述两个步骤中分别展现的因果关系和归责关系,恰恰都反映了司法裁判提供理由/说理论证的特性:前一种关系提供的是说明性理由(为什么出现了符合构成要件的事实),而后者提供的是规范性理由(为什么应对这一事实赋予特定的法律后果)。提供并证明/证立司法判决的事实基础与规范基础,以及将两者联系在一起的理由,才是司法判决得以成立的根基。对于“为什么”的追问是司法裁判永远不可省却的负担。然而,一旦形成对于算法程序的依赖,最终的结果就可能是:理由不再重要,重要的是历史统计数据,论证不再重要,重要的是对过去的模仿。See Mireille Hildebrandt,Law as Computation in the Era of Artificial Legal Intelligence: Speaking Law to the Power of Statistics,University of Toronto Law Journal 68 (supplement 1,2018),p.28.一旦如此,法官就相当于放弃了追问“为什么”的义务,慢慢地也将丧失自主思考的能力。他实质上就是在以服从历史模型的方式臣服于機器,机器便以尊重历史经验的表象实际统治了人类。参见宋旭光:《论司法裁判的人工智能化及其限度》,载《比较法研究》2020年第5期,第89页。这就是大数据裁判之科学主义和客观主义表象下的危险。所以,即便大数据技术能够帮助我们确定先前案件是“基于什么事实因素作出了特定判决”,也不能取代当下和未来案件的说理论证。事实因素能够扮演“理由”的角色,但这取决于裁判主体对于它们的运用和理解。正因为主体的理解和判断有可能发生改变,因而同样的事实要素在未来有在理由的层面被重塑的可能,它们是开放的。
当然,这并非是说大数据技术完全不可能被用于论证说理。实际上,大数据在事实认定过程中完全可能发挥积极作用。参见周蔚:《大数据在事实认定中作用机制分析》,载《中国政法大学学报》2015年第6期;李茜:《大数据时代司法裁判的路径探索》,载《财经法学》2019年第2期。只是要注意的是,事实认定虽然可以构成论证说理的基础,但也仅仅是基础。能否、以及如何将经认定的事实与特定法律规则的构成要件发生关联,进而将特定法律后果适用于这一事实,都需要超越简单的数据计算的实质说理和论证。所以,数据计算所代表的相关性思维是无法取代司法裁判中基于因果关系与归责关系的理由思维的。“数字解决主义”其实是一种想要系统地使用技术来解决不属于其应用范围之问题的努力,这种努力是注定要失败的。
四、司法实证主义:以统一裁判取代正确裁判
在论证大数据司法裁判的正当性问题上,以裁判的可接受性标准进行论证是目前的主要视角。也就是说,当机器人法官的裁判能比平均水平的法官作出更能被接受与更具有说服力的裁判文书时,就可认为机器人法官具有了替代法官裁判的正当性。See Eugene Volokh,Chief Justice Robot,Duck Law Journal68 (2019),pp.1141-1142.那么,大数据时代的算法如何可以被认为达成了更大的“可接受性”与“说服力”呢?不外乎两种做法。一种做法是一个个案件去比较,看同时用机器裁判和用人工裁判哪一个的结果更能为人们所接受。但这种比较具有偶然性,依赖于具体情况。另一种做法,也是通常的做法,是通过“统一裁判”来为机器裁判进行辩护:通过学习和分析同类案件的历史数据,要求以后案件的法官也遵照历史数据的结果进行裁判,就可实现“同案同判”。进而,就可以统一法律适用标准、限制法官的自由裁量权,从而实现司法公正。这一点也得到了实务部门的认可。比如2017年的《最高人民法院关于加快建设智慧法院的意见》就明确提出,运用大数据技术是为了“促进法官类案同判和量刑规范化”。故而机器裁判看起来就要比不同的法官个人所作的裁判更加具有可接受性和说服力。
但真的如此么?对于智能化司法正当性的质疑可以从两个层面来进行。一个是技术的层面,也就是指出,机器裁判的可靠性很大程度上取决于它所使用的数据的质量和对机器学习技术的选择。例如,目前在机器学习的刑事案例库中,纳入到样本库的基本上都是有罪判决,而中国的无罪判决事实上非常低以至于“趋零化”。以有罪判决样本为基础构建起来的数据库,几乎不可能智能化地预测出无罪判决。参见孙海波:《反思智能化司法的可能及限度》,载《国家检察官学院学报》2020年第5期,第92页。所以,机器裁判能否真正实现恰当的同案同判是存疑的。但这仅仅是技术问题,技术问题的特点在于它有被解决的可能性。不可否认,随着全样本案例库的建立和机器深度学习能力的提高,同案同判的确可能变成现实。但即便如此,智能化司法也要面对第二个层面、也是更为根本性的质疑,那就是:实现了以同案同判为标准的统一裁判,就同时意味着实现了司法公正或者说正确裁判吗?
事实上,同案同判既不等同于司法公正,也不是司法裁判的绝对要求。要理解同案同判在司法裁判中所扮演的角色,就要对同案同判的性质有准确的界定。很多学者都将同案同判视为约束法官裁量权的方法。但正如有论者指出的,它在某种意义上其实就是依法裁判的另一种表达,或者说是其更为具象化的表达。参见雷磊:《如何理解“同案同判”?——误解及其澄清》,载《政法论丛》2020年第5期,第35页。因为裁判的统一性不外乎表达是一种形式正义,或者说“相同情况相同处理”的要求,而这种要求原本就为依法裁判所蕴含。法律规则原本就蕴含着“一般性”和“类型化”的要求。正如哈特(Hart)所言:“如果我们将这种最低限度的含义附加于法律体系之上,即它必然由一般性规则……组成,那么这种含义就隐含着同案同判原则……这是法律实施的正义,而非法律本身的正义。”H.L.A.Hart,Positivism and the Separation of Law and Morals,Harvard Law Review 71 (1958),p.263.从这段话中我们可以解读出两层含义:
其一,如果在一般性规则之体系的意义上来理解“法”,那么依法裁判本身就隐含着同案同判原则,或者说蕴含着统一裁判的要求。当然,在哈特所处的英美法系背景中,一般性法律规则除了存在于制定法之中,也存在于先例之中。而在民法法系国家以及中国,一般性法律规则主要在制定法中寻得。但无论在什么样的背景下,同案同判所表征的形式正义已经为依法裁判所蕴含。进一步的思考是,这是否意味着同案同判就是依法裁判的同义反复呢?并不完全如此。因为司法裁判除了从法学的视角被视为法律适用的活动,也会从政治-社会学的视角被视为国家治理的一环。所以我们经常讲,司法裁判要同时兼顾法律效果与社会效果。从社会效果的角度看,同案同判其实是依法裁判的形象化与鲜活化,它使得形式正义变成了一种“看得见的正义”,使得民众对于司法裁判有了“可触摸感”和“代入感”。因为很多情况下,民众并不是通过抽象的法律规则、而是通过一个个具體而鲜活的个案去了解法律的。如果涉及他们自身的案件以与先前同类案件相同的方式被处理,他们就会合理地推断自己受到了公平的对待。因为类似案件类似处理的做法看起来最大限度地压缩了法官的裁量空间,因而减少了裁判过程中偏见和歧视发生的可能,从而维护了司法公正的外观。但要注意的是,社会效果并非司法裁判的本质,而是裁判活动所展开的“剧场化效应”。所以,从司法裁判之本质的角度看,(机器裁判所确保的)同案同判只是依法裁判的应有之义。
其二,同案同判仅代表法律适用的正义,也即“法律面前人人平等”,而不代表案件真正在实质意义上得到了公正解决。同案同判(依法裁判)只是一种形式性要求,它并不代表正确裁判,虽然它的确构成了正确裁判的初步要求。因为正确裁判要求依法裁判与个案正义的统一,而同案同判(依法裁判)无法替代个案正义。要实现个案正义,就必然需要运用自由裁量和价值判断,而这正是大数据技术的短板。算法对于司法裁判的介入,基本上是通过建构模型的方式,将价值判断排除在外。但是,不仅作为价值判断的自由裁量是无法被算法以理性的方式精确模型化的,而且从根本上无法与“价值(道德)判断的性质”相容。参见陈景辉:《人工智能的法律挑战:应该从哪里开始?》,载《比较法研究》2018年第5期,第141页。因为在机器算法之中,任何表述都被视为是数据,它只能简单地将不同的词汇组机械相联,只能识别出事实关系的真假(比如,如果历史数据库中重复将“打人”与“错误的”这两类词组相关联,那么就可证明先前案件中的确存在“打人是错误的”这个规则),却无法识别出价值关系的对错(打人真的是错误的么?)。此外,假如数个事实上相似的类案对同一个法律规范采取了数种不同的解释,从而做出了数种不同的裁决,伴随着类案样本库的扩大,智能系统就会按照不同判决的概率高低来预测待决类案的结果。如果这种概率判断的方式可以看做是大数据算法解决法律不确定的一种方式,这显然是一种随机正义,本质上与抛硬币或掷骰子并没有什么两样。参见孙海波:《反思智能化司法的可能及限度》,载《国家检察官学院学报》2020年第5期,第97页。所以,价值判断在本质上无法被还原为简单的事实判断,否则就会犯“自然主义谬误”。Vgl.Otfried H?ffe,Ethik: Eine Einführung,Verlag C.H.Beck,2013,S.33-36.
具体而言,智能化司法的正当性取决于两个前提,即依据历史数据裁判是正确的,且裁判模式会反复运行。宋旭光:《论司法裁判的人工智能化及其限度》,载《比较法研究》2020年第5期,第89页。这两个前提都与价值判断相关。一方面,即便历史数据库(案例库)全面真实反映了先前判决的情况,也不能保证不存在数据具有错误相关性的情形。同案同判的要求建立在后案与前案具有相关相似性的基础上,而所谓的“相关相似性”其实指的是“具有法律意义的”“与法律后果相联”的相似性。如果尽管两个案件具有事实特征上的相似性,但这种相似性却不具有法律意义或不应与法律后果发生关联,那么它就是不相关的。如果基于不相关的相似性将前案的法律后果适用于后案,就会发生法律判断的错误。但是,何谓“相关”、何谓“正确”“错误”的判断无疑涉及复杂的价值判断活动,算法恰恰对此无能为力。例如,假如前案中出现了“黑人”“女性”等关键词,智能系统就很可能将它们作为相关特征与前案所确定的特定法律后果联结起来,并适用于也出现了这些特征的后案。但从法律判断的角度而言,这么做可能就会有违司法平等。另一方面,让同一个裁判模式反复运行(同案同判)也不是司法的绝对要求。即便同案同判建立在相关相似性的基础之上,它也可能与正确裁判的要求发生背离。作为案件裁判背景的社会环境和公众价值观念可能会发生变化,新出现的案件中也可能存在前案所没有的额外特征。在前一种情况下,对于同一事实特征的法律评价本身发生了变化;在后一种情况下,伴随额外特征的出现,相应的价值判断可能会要求法官作出差异化判决。在这些情形中,个案正义的要求都有可能凌驾于同案同判或统一裁判的要求之上,而算法显然无法顾及这些情形。这也是为什么不少学者都坚持大数据技术在司法系统中只具有辅助地位的原因。参见郭锐:《人工智能的伦理和治理》,法律出版社2020年版,第168页。因此,智能化司法的确可能实现统一裁判,但却无法消解司法裁判所必需的价值判断,因而无法完全满足正确裁判的目标。
更为严重的问题是,智能化司法所表征的同案同判究竟是算法在裁判,还是法律/法官在裁判?一方面,司法裁判语境中的同案同判有其隐含的前提,即它必须是“依据法律”的同案同判。换言之,同案的判断标准、同判的法律后果都必须依据法律来确定。但是,智能化司法虽然看上去是依据法律在裁判(至少案例库中时间最早的前案的确是依照法律来裁决的),并且它细化了法律的标准(压缩裁量权),但事实上它是在法律之外重新树立了一套标准,那就是算法。“依据法律”的同案同判与“依据算法”的同案同判是一回事吗?比较极端的看法主张,人工智能时代的算法就是法律。[美]劳伦斯·莱斯格:《代码2.0:网络空间中的法律》,李旭、沈伟伟译,清华大学出版社2009年版,第6页。反对者则依据法律的性质(全面性和至高无上性)对此予以反驳。参见陈景辉:《人工智能的法律挑战:应该从哪里开始?》,载《比较法研究》2018年第5期,第138-139页。争议的核心其实在于,能否让算法来取代法律成为人类公共行动的终极判断标准。对此本文不拟深入,只是想指出,只要承认算法本身也要受到审查,而审查的标准需要由法律来确立,或由法律授权给其他规范体系(例如伦理体系)来确立,那么算法就无法取代法律的地位,成为裁判的终极依据。这也体现在,针对同一类案件的裁判,法律依据可以保持不变,但算法却可以改变(因为本就存在复数的算法规则)。另一方面,智能化司法存在以机器算法压迫法官强行保持统一裁判的危险。最典型的如类案智能化检索推送和裁判偏离预警机制,这些机制看上去只是为法官的裁判提供了辅助性服务,但却会对审理后案的法官产生强大的压力:要作出与前案不一致的裁判,很可能就要面临社会公众的批评乃至错案追究的风险。一旦在全社会形成这种压力,就会产生这样的问题:当事人和律师是否可以以法院的判决和立足大数据的模拟裁判结果不同为由提起上诉,要求作出更符合大数据的判决?这还会涉及到司法伦理:司法能否彻底放弃多样化判决?正如有学者所认为的,如果放弃多样化的判决,法官也就放弃了“为善”(doing good)和“实施正义”(doing justice)的特定道德义务。See Raymond Wacks,Judges and Moral Responsibility,in: Wojciech Sadurski (ed.),Ethical Dimensions of Legal Theory,Rodopi,1991,pp.111-120.
可见,智能化的基础建立在某种化约论的基础之上,它在模拟人脑的思考方式时,试图将所有的人脑活动简化为经验性的神经反应。See Adam J.Kolber,Free Will as a Matter of Law,in: Dennis Patterson & Michael S.Pardo (eds.),Philosophical Foundations of Law and Neuroscience,Oxford University Press,2016,pp.12-14.它通过主动向我们提供那些记载过去倾向的数据,使得我们慢慢习惯于它的“喂养”,服从于它的“推荐”。于是,我们通过反思来塑造自己生活的能力也逐渐被它所侵蚀,因为我们的生活已部分或全部地被它所决定。如果说在日常生活(例如精准营销和推荐系统的情形)中,这种情形所导致的后果还不那么严重的话,那么在司法裁判中,它的危害就体现得十分明显了。因为司法是一项能决定公民自由、财产乃至生命的公共判断活动,误用、滥用大数据将会让公民面临风险或其重大利益受到威胁。同时,司法又是得到国家权力加持的活动,个人或组织是无法自由“退出”的,一旦司法裁判产生负面影响往往不可逆转。参见郭锐:《人工智能的伦理和治理》,法律出版社2020年版,第167页。取消价值判断和合理的自由裁量空间只是智能化司法带来的表面结果,实质上它所危及的是普遍意义上的人的尊严与自由意志。因为自由意志的选择和价值判断之间存在明显的联系,而自由意志很难被化约为某种神经反应。See James Woodward,Emotion versus Cognition in Moral Decision-Making: A Dubious Dichotomy,in: S.Matthew Liao (ed.),Moral Brains: The Neuroscience of Morality,Oxford University Press,2016,pp.87-116.通过“司法实证主义”——引导法官去服从通过智能化系统对过去司法数据的分析所得出的结论——的面纱,大数据技术正在侵蚀人类法官所拥有的自由意志(这也是他区别于机器的特点),以及通过裁判来更多元化地塑造未来的可能。它将裁判这一重要的公共领域交由机器来统治,使得法官变成了机器裁判的一个或许是无足轻重的“部件”。当然,考虑到现在很多数据库和算法系统都是由商业公司来设计的,那么可能会涉及到的另一个问题是:究竟是商业公司、还是机器自己在审理案件。这就是另一个问题了。缺失了对正确裁判的追求,而满足于统一裁判所带来的司法公正的假象,法官也就放弃了迄今为止受到尊重的司法道德。所谓的“人在干、云在算、数据在监管”,看起来能够避免因人性差异而带来的偏颇,但表现的却只是代码的僵硬和冰冷。
五、法律现实主义:以结果预测取代规则实践
大数据的核心是建立在相关关系分析法基础上的预测,也即将数学算法运用到海量的数据上来预测事情发生的可能性。参见[英]维克托·迈尔-舍恩伯格、肯尼思·库克耶:《大数据时代》,盛杨燕、周涛译,浙江人民出版社2013年版,第16、75页。大数据时代的智能化司法不仅基于历史数据来进行计算,而且这么做的目的在于“预测”法官未来的行为。因为其核心要素便在于建构一種能够实现对判决进行预测的算法模型。参见王禄生:《司法大数据与人工智能技术应用的风险及伦理规制》,载《法商研究》2019年第2期,第102页。这很容易让人想起法律现实主义的引路人霍姆斯(Holmes)的名言:“法律,正是对法院将会采取的实际举措作出的预测”,法律人的“学习目标就是预测,即预测公共强制力通过法院得到施展的概率”。[美]霍姆斯:《法律之道》,姚远译,载周赟主编:《厦门大学法律评论》(2015年下半年卷总第26辑),厦门大学出版社2015年版,第157、159-160页。因此,智能化司法大体上蕴含着法律现实主义的思维。类似的观点参见陈景辉:《人工智能的法律挑战:应该从哪里开始?》,载《比较法研究》2018年第5期,第140页;宋旭光:《论司法裁判的人工智能化及其限度》,载《比较法研究》2020年第5期,第82页。相反,孙海波似乎认为人工智能裁判更接近于法律形式主义(机械法学)的立场(孙海波:《反思智能化司法的可能及限度》,载《国家检察官学院学报》2020年第5期,第94页)。事实上,孙文只是在将司法裁判视为道德无涉的事业这一意义上使用了“法律形式主义”一词,但却误解了法律形式主义的根本立场,即主张法律规则足以决定裁判结论。由于人工智能裁判是诉诸法律规则之外的其他因素(通过算法)来决定裁判结论,因而与法律形式主义的立场相悖。它体现了一种典型的规则怀疑论的主张。因为它事实上表明,法律规则并不能真正决定司法裁判的结果,能够决定司法裁判结果的是根据法院、甚至特定法官先前的裁判“轨迹”总结出来的算法规则。我们可以将这种算法规则视为艾森伯格所说的“社会命题”,尤其是其中的经验命题。在艾森伯格那里,社会命题是指与判决的作出相关的、规则命题(国家法律规则)之外的全部其他命题。参见[美]迈尔文·艾隆·艾森伯格:《普通法的本质》,张曙光、张小平、张含光译,法律出版社2004年版,第1页。从而,只要法院或该特定法官继续在此“轨迹”上前进,未来的判决就可以被预测到。由此,司法裁判就成为一场事关预测的游戏,各方当事人就成为下注的玩家,看谁预测得准赢面就高。
预测论最大的危害在于混淆了规则与规律。问题的关键不在于事实上有没有可能基于数据和算法对司法裁判的结果进行预测,而在于这种观点对于作为规则实践之司法裁判的性质的遮蔽。预测建立在规律性的基础之上,正因为法院的特定行为曾反复出现,且在未来也极有可能出现,所以才能进行预测。但这种视角最多只能用于私领域的个人或其顾问所作的法律陈述,而不能用于法院本身对于法律的陈述。这就涉及到前文所讲的外在观察者的立场与内在参与者的立场之间的区分:前者只关心描述出法院做过什么、将会做什么,而后者则聚焦于根据现行法律规则、在有效的法律体系之中如何做出正确的决定。但是,即便站在外在观察者的立场上,法院的裁判的确可能被预测到,这一点也是以此为基础的:法院并非将法律规则视为可以预测的规律,而是视为做决定时必须遵守的标准。这种预测最终依赖于对于规则之非预测面向的和规则之内在观点的理解上。参见[英]哈特:《法律的概念》,许家馨、李冠宜译,法律出版社2018年版,第214页。虽然法律规则可以成为可靠预测的基础,但它在社会生活中的功能就是被用作规则而不是对习惯的描述或预测。[英]哈特:《法律的概念》,许家馨、李冠宜译,法律出版社2018年版,第203页。因此,预测论只是外在观察者视角的产物,它无法取代裁判者立场(内在参与者的立场)下的裁判思维。作为裁判正当依据的只能是规则而不能是规律。参见王洪:《制定法框架下的判决论证模式》,载《比较法研究》2019年第2期,第146页。
大数据和智能化司法所进行的预测包括两种。一种是基于先前所有同类案件的历史数据来预测当下案件的裁判结果(同案预测)。至于裁决这些先前同类案件的具体主体(法官)是谁,对于这种预测来说并不相关。这种预测模式的错误之处就在于:司法裁判不可能完全由经验数据来支撑,它是规范性的。即使经验数据可以用来解释影响司法裁判的某些因素,裁判的正当性也不能依赖于既往案件的规律性,除非存在一个更高的规范,即新的案件应该按照过去类似案件的裁判方案进行处理。宋旭光:《论司法裁判的人工智能化及其限度》,载《比较法研究》2020年第5期,第85页。这里的“应该”本身就是一种规范性判断。如果我们作出了这种规范性判断,它实际上就已经上为司法裁判树立了一条规则,也就是“类似案件应当类似判决”。只有此时,观察者立场下的预测与参与者视角下的规则裁判才有可能总是在结果上保持一致。但正如前文所说的,同案同判并非司法裁判的绝对义务,它至多只是一种可以被凌驾的道德要求。参见陈景辉:《同案同判:法律义务还是道德要求?》,载《中国法学》2013年第3期,第46页。司法决定无法仅凭借历史数据作出(也即通过一次次的裁判来不断对历史数据进行正当化),它是基于当下的特殊情境作出且面向未来的。法官必须基于当下的个案情形以及背后的法律判断与价值观念来说服当事人和社会公众。因而同案预测的结果至多只能作为法官审理待决案件时的参考。
另一种预测是基于法官个人裁判的历史数据来预测当下案件的裁判结果(个性预测)。应当看到,随着各国司法文书电子化与公开化的推进,基于文书大数据挖掘的法官判决结果预测已经成为法律大数据最为主流的应用之一。很多国家科技界与学术界均建有此类大数据预测平台,甚至有商业公司推出了基于法官“画像”的判决书大数据应用产品,也即利用法官过去对同类案件的判决轨迹对其裁判行为进行分析和预测,从而为当事人进行选择性诉讼提供便利。这种做法的实质是“从模拟法律推理的外在逻辑形式进一步转向探求法官的内在思维结构”张保生:《人工智能法律系统的法理学思考》,载《法学评论》2001年第5期,第12页。,也就是试图建立起法官的个人特征(心理特征)与裁判之间的联系。一方面,这种做法已经滑向了更为彻底的事实怀疑论,完全撇开了规则(不仅是法律规则、还有基于案件事实的社会规则)和案件事实特征。它实际上将司法裁判完全视为法官个人的权力活动(政策性活动),从而颠覆了法治作为规则之治与理由之治的理解。这一理解参见雷磊:《法律程序为什么重要?——反思现代社会中程序与法治的关系》,载《中外法学》2014年第2期,第338页。另一方面,对于法官个人判决行为进行预测并作为商业行为来牟利无疑也有违司法伦理。它会与法官隐私、司法权威、司法独立和司法公正产生冲突。具体参见王禄生:《司法大数据应用的法理冲突与价值平衡——从法国司法大数据禁令展开》,载《比较法研究》2020年第2期,第136-139页。正因为如此,法国于2019年3月颁布的《司法改革法》规定了一个“禁令条款”,即“法官的身份资料不得用于评价、分析、比较或预测其实际或假定的专业做法”。这其实就是禁止将法官的个人身份特征视为特定裁判结果的相关性特征。因为司法裁判是基于规则的实践,而非基于法官个人特征的实践。
综上,隐藏在大数据和智能化技术背后的法律现实主义立场(无论是规则怀疑论、还是事实怀疑论)会导致将司法裁判视为基于历史数据去预测法院或法官之未来行为的活动。它以规律性思维去取代规范性思维,实际上是想要赋予规律性模式以规范的效果。但正如前文所阐明的,这种做法既是对裁判思维的误解,也会带来危害司法伦理的后果。司法裁判永远是一种基于法律规则的实践,法官本身就是法律体系的组成部分。参见[英]哈特:《法律的概念》,许家馨、李冠宜译,法律出版社2018年版,第202页。然而,正如德沃金(Dworkin)所言,法院是法律帝国的帝都,法官是法律帝国的王侯,但不是它的先知或预言家。[美]德沃金:《法律帝国》,许杨勇译,上海三联书店2016年版,第320页。法院和法官要做的,是基于法律规则,通过说理和论证来获得正确的、因而可以为当事人和社会公众所接受的判决。法律的确应具备可预测性,但它指的不是法院或法官实际作出的判决能(通过大数据技术)被公民预测到,而只是指司法裁判应建立在事先已经被公布的一般法律规则的基础之上。参见雷磊:《法律方法、法的安定性与法治》,载《法学家》2015年第4期,第5页。这样的“可预测性”本就属于依法裁判的要求,是司法裁判之规范性思维的组成部分,而作为事实经验描述和规律性总结的“预测”却不是。
六、结语
反思和警惕大数据在司法裁判领域的应用,本质上是质疑在一种复杂的人类活动领域中,用机器学习算法来化约复杂性的可欲性问题。如果这种化约是可欲的,就意味着要放弃一直以来我们对于司法裁判的理解以及通过这种理解所展现出的一种值得尊重的价值实践。这首先就体现为裁判思维的改变:理由思维、正确性思维和规范性思维(规则)将被计算思维、统一性思维和规律性思维(预测)所取代。随之,“人”的逻辑也就得让位于“机器”的逻辑。这最终将导致道德主体意义上的“人”消失在所谓的“算法社会”(Algorithm Society)之中。或许正如学者颜厥安所言,在大数据时代,“最优先要问的问题,并不在于AI是否能够产生高度接近、甚至完全相同于人类心灵的能力,或者是否能产制出与人类几乎一模一样的机器人(人造人);而在于人类社会的运作,是否越来越可以透过算法,甚至依赖算法来進行?也就是那些透过算法所无法达致的心灵能力,在人类社会的运作中,是否有可能会越来越不重要”?颜厥安:《人之苦难,机器恩典必看顾安慰:人工智慧、心灵与演算法社会》,载《政治与社会哲学评论》第66期(2018年),第119页。假如真的如此,那么迄今为止的司法裁判观念就将发生根本性的转变,已确立的裁判思维也将有完全被技术主义所吞噬的危险。甚至,这种危险也将不再会被我们感受为危险,因为那时的我们已经丧失了自我意识和反思危险的心灵能力。但只要我们依然承认,自主是人类的根本特征,面向某种未决状态,人类有自主思考、自主作出决定的权利,同时人类还要因此肩负某种面向未来的责任,那么将人类自己作出选择、决定的权利和责任完全交给机器显然是不可行的。参见韩水法:《人工智能时代的人文主义》,载《中国社会科学》2019年第6期,第43页。所以,大数据时代的智能化司法对裁判思维的最大挑战,就不在于如何让机器像人(法官)那样去思考,而在于在一个“算法社会”到来之际,如何让人(法官)更像人、而非像机器那样去思考。
ML
Adjudicative Thinking in the Era of Big Data
Feng Jie
(Tianjin Normal University,Tianjin 300134,China)
Abstract:Not only the technical and institutional-dogmatical aspects of judicial decisions are challenged in era of big data, but also, and what more important, there arises a latent risk embodied in the level of adjudicative thinking. Judicial decision is an activity of normative argumentation and reasoning pursuing correctness in nature, which presents a thought pattern of reason, correctness and normativity. The core of big data technology lies in the historical data based on judicial action, and predication of the future adjudication through calculation (algorithm), which will probably bring about dangers in three aspects: (1) digital solutionism, i.e., substitution of data calculation for argumentation and reasoning, (2) judicial positivism, i.e., substitution of an unified adjudication for a correct decision, (3) legal pragmatism, i.e., substitution of result predication for rule practice. However, as long as the moral subject status and autonomy of persons (judges) are still the value foundation of judicial decisions, the above dangers do not constitute a fundamental challenge yet. But they do bring a reverse challenge, that is, along with the coming “Algorithm Society”, how to make persons (judges) think more like a human rather than like a machine.
Key Words:big data; adjudicative thinking; digital solutionism; judicial positivism; legal pragmatism
本文責任编辑:董彦斌
青年学术编辑:任世丹