雷 磊 王 品
(中国政法大学 法学院,北京100088)
虽然马基雅维利(Machiavelli)早在 15 世纪就对于智能进行了定义①,但目前,学界对于人工智能仍然没有一个统一的定义。按照人工智能类权威论著之一的《人工智能:一种现代的方法》中的界定,对人工智能的定义大概可以从四个维度进行划分,即人性化思考(thinking humanly)、理性思考(thinking rationally)、人性化行为(acting humanly)和理性行为(acting rationally)②,而在每一个维度中又有不同的更加细致的定义区分。笔者认为,并非要能够完成以上所有任务的综合的系统才能称为人工智能,完成其中任何一项任务,其只要达到了智能标准的都是人工智能,比如人工智能判断系统、人工智能推理机、人工智能证明系统以及人工智能思考学习机等,主要判定标准是看它能否满足图灵测试。从法律的角度来看就是法官在对来源的性质无知的情况下,能否确定该来源是计算机还是人③。
类似地,目前无论是理论界还是实务界,对于法律人工智能都没有一个统一的定义,但既有研究基本上是从两个角度出发的。第一种是从学科的角度来进行定义,可分为三类主张。一是主张法律人工智能属于计算机科学的分支,如早期研究者麦卡蒂(John McCarthy)认为人工智能是结合软件和硬件并通过符号表达式来进行计算的形式主义计算机学科④。布坎南(Bruce G. Buchanan)和海德里克(Thomas E. Headrick)也指出:人工智能是计算机科学的一个分支,它的研究阐明了我们利用计算机模拟人类思维过程的能力⑤,进而有学者指出,法律人工智能研究的重心是计算机建模行为⑥。二是主张法律人工智能属于交叉学科,如凯文·阿什利认为,人工智能是与计算机、应用数学和心理学等多学科交叉的新兴学科,而法律人工智能更是这些学科和法律学科再次交叉⑦⑧。三是主张人工智能是结合了对思维过程和智能行为过程模拟的独立学科⑨。另一种是从客体的角度来进行定义,这类观点认为人工智能是人造的智能机器或智能系统⑩。
笔者认为,法律人工智能既是法学与计算机、应用数学和心理学等多学科交叉的新兴学科,又是具有同法律人的思维功能相似之能力的智能系统,因此,法律人工智能背景下的法律推理既是这门新兴学科研究本身的组成部分又是适用于法律智能系统的推理模型。
对于法律人工智能可以进行不同的分类,出于本文的研究目的,这里主要讨论强法律人工智能与弱法律人工智能的区分,因为这一区分对于法律人工智能推理模型的设计具有理论指导意义,也会对法律人工智能背景下法律推理的特征分析产生影响。
对于强人工智能与弱人工智能的划分来源可以追溯到塞尔(Searle)在1980年的代表作《思维、智力与编程》,其主要是基于心智状态和认知状态进行区分。有学者认为,强人工智能基本上是达到幼儿智力水平,并预测此奇点大概在2045年出现,但是这种界定过于笼统,对于何为幼儿智力水平没有一个准确的定义,而且在某些方面也不符合实际。就法律领域而言,对于强人工智能与弱人工智能之争最著名的是麦卡蒂(McCarthy)和明斯基(Minsky)的观点,后者采强人工智能观,认为人工智能推理可以模仿人的心智,与逻辑无涉;前者采弱人工智能观,认为人工智能推理跟心理无关,还是要依靠逻辑,是对常识推理设定例外,属于非单调推理的逻辑,但笔者认为这种区分过于绝对和严苛,即使是强人工智能,甚至是超人工智能,也不是逻辑无涉的。目前学界除了对于何谓人工智能、何谓法律人工智能这种定性的问题没有达成一致外,对于何谓强人工智能、何谓弱人工智能这种更为定量的分析更是没有统一的界定。出于本文后续论证之需要,笔者暂将强人工智能定义为主要基于机器学习而具有在动态环境中感知、理解、推理、学习和行动的能力,并且心智水平达到人类水平的计算机程序,而弱人工智能是主要基于逻辑运算并且具有在静态环境中模拟人类思维某些方面的能力,但心智水平尚未达到人类水平的计算机程序。
目前学界对于强、弱人工智能和通用、领域人工智能区分存在着一定的误解和混淆。一般将通用人工智能界定为可以解决跨学科、跨领域问题的人工智能,而将领域人工智能定义为只能解决特定领域、完成特定任务的人工智能,或者是从个别领域出发来构建处理特定问题的智能系统。通常法律人工智能更多属于领域人工智能,但通用和领域其实是相对的,换句话说,即使是最强的人工智能也不是无所不能的,所谓的通用也不是对于所有的领域问题都能够解决。如此一来人工智能在法律领域就催生了两条研究进路,一条是通用人工智能投射到法律领域,而另一条是直接开发法律领域的领域人工智能。从目前的趋势来看,跟以往专注于法律专家系统的开发不同,领域人工智能的研究进路在“退潮”,而通用人工智能投射法律领域的趋势呈上升势头,但是要注意的是,通用和领域这种划分并非与强、弱的划分相对应,虽然其中有一些交叉的部分。有些学者将强、弱人工智能对应到通用和领域人工智能,认为强人工智能就是通用的人工智能,其实这是有问题的,因为两者分类的角度不同,强、弱之区分主要是基于心智状态,而通用和领域之分则主要是依据人工智能所能发挥作用的领域。
超越于强、弱法律人工智能之上的是超人工智能,超人工智能是各方面都超过人类的智能,但需注意的是:即使到了超人工智能,也并非是无所不能的,而只是通过在算法和建模上的优化超越了人类智能。超人工智能不是本文关注的重点,但对于人工智能法律推理的特点这一主题而言,其相对于强人工智能、弱人工智能在某些方面还是有一些差别的。
法律推理是由已知的法律命题或事实命题推导出未知法律命题(结论)的过程,对于法律推理的性质,学界同样存在诸多认识上的分歧。应当说,法律人工智能兴起并未创造出一种性质上迥异的法律推理,而毋宁说是凸显出了法律推理的特定面向。
按照罗尔斯(John Rawls)以及其继承康德(Kant)的目的论(teleological theory)和道义论( deontological theory)的划分,可以将法律推理分为目的论推理和道义论推理,对此,阿列克西(Robert Alexy)曾指出:(法律论证的)第一种形式是通过诉诸某种规则来证明自己是正当的,第二种形式是通过提及后果来证明自己是正当的。第一种形式是道义论,第二种形式是目的论。第二种形式直接服务于上述道德目标,即避免不必要的痛苦。德沃金(Ronald Dworkin)也同意这种区分方式,就道义论和目的论推理的区分而言,笔者认为,法律人工智能背景下法律推理的性质应当是基于道义论的推理。
首先,从哲学分析的角度,在道义论与目的论的对比中,目的论并不占上风。道义论与目的论之争可以追溯到古希腊时代,当时以至善论、快乐论等流派为主要代表的目的论推理观点更为发达,而随着斯多葛学派等的出现,自然法以及道义论逐渐兴起和发展,逐渐成为了更为主流的观点。随着资本主义的兴起,目的论主要表现为功利主义,并再次取代道义论成为了更为主流理论。随后康德发展了道义论并再次使目的论沦为了相对非主流的观点,同时康德的道义论成为了现代西方道义论的基础。在这之后,道义论与目的论的较量从未停止过,包括罗尔斯等对目的论、对功利主义的批判。纵观整个西方哲学史,道义论与目的论之争从未停息,但就目前最新的进展来看,在数量上反而是道义论的观点更多。
其次,目的论推理掺杂了很多主观因素,掺杂了诸如价值、情感主义和直觉主义的很多因素,如果按照前文对于弱人工智能、强人工智能和超人工智能的划分,可能只有到了超人工智能阶段才能够处理这些因素,尤其是其中涉及到的对整个社会的共同价值、社会中最大多数人的幸福等问题的界定等,所以,就目前的人工智能发展水平而言,难以实现基于目的论推理的模型。人工智能视角下的法律推理不是基于目的论的推理,或者说人工智能视角下的法律推理相比传统的法律推理并没有凸显这种合目的性。
最后,也是最重要的,法律人工智能的核心是法律逻辑,没有形式逻辑去空谈目的、空谈辩证推理都是空中楼阁,而相比于目的论推理,道义逻辑、模态逻辑等是更适合目前法律人工智能的处理方式,因为道义论相比目的论更加体现了一种形式主义的进路,例如,康德就是道义论方面最具代表性的人物之一,而“康德所要求的这种道德律完全是形式主义的”。考虑到目前的人工智能发展阶段,笔者在整个法律人工智能研究中尤其在建模过程中,秉承的是一种修正的法律形式主义或者说是以法律形式主义为基础、以法律形式主义为智能化裁判以及为人工智能法律推理提供理论根基。法律体系形式化的程度往往决定着人工智能法律推理系统的发展阶段。形式主义对于案件特别是简单案件的裁判具有重要意义,也是人工智能法律推理在早期人机系统(human-machine)、专家系统方面能够有所突破的重要理论支撑,而从人工智能视角来看,在推理过程中首先考虑的也是如何对于权利等核心概念进行形式化和建模的问题,比如目前有一些学者从霍菲尔德方阵等理论着手来建构法律本体,类似的还有马利的道义逻辑系统等。相反,我们尚未发现有基于目的论或者以目的论作为理论基础从法律人工智能角度来进行法律本体建构,所以,人工智能视角下的法律推理更加凸显出道义论推理的性质。
因此,在人工智能视角下,笔者对法律推理持一种以道义论为基础的观点,也即认为法律人工智能背景下的法律推理是一种基于道义论的推理。需要说明的是,很多时候道义论和目的论之间并非是一种非此即彼的关系,以道义论为基础也并非是要割裂二者之间的内在的联系,只是在目前的人工智能发展阶段,选择基于道义论来建构法律推理模型更为适宜。所谓基于道义论,就是要以道义论而非目的论作为其基本属性,要以基于理性法则建构的更为形式化的和客观的、具有普遍性、更加固定的以及具体的道义规则作为推理的依据,而非以非形式化的、主观的、特殊性的、非固定的和抽象的目的作为推理的基础。由于理性法则在道义论中的关键作用,因此引出了人工智能视角下法律推理的另一个面向,即从性质上来看,人工智能视角下的法律推理更加凸显出基于实践理性的性质。
正如萨尔托尔(Giovanni Sartor)所说,从法律人工智能应用的角度来看,应当将法律推理视为一种更加广泛的人类能力的应用,即实践认知或实践理性。什么是实践理性?从知识论的角度来看,与实践理性相对的是认知理性:认知理性关注的是相信什么(what to believe),属于理性的范畴;实践理性关注的是做什么(what to do)。从法律论证的角度出发,可以对实践理性的概念做分层化处理,据此,实践理性可分为三个层面:第一个层面是一般的、抽象的实践理性概念,即一种超越语境意义上的正确性,代表了道德、伦理和语用因素之间复杂的相互作用。第二个层面将第一层面中的实践理性概念具化为七个方面,即一致性(consistency)、有效性(efficiency)、可检验性(testability)、融贯性(coherence)、普遍性(generalizability)、笃实性(sincerity)以及自由(freedom)。第三个层面则进一步体现为人工智能法律模型各个层级或面向的建构过程中的具体要求,比如在人工智能法律推理模型建构的论辩面向中,主要体现为理想言谈情境模型的建构,尤其体现为机会平等性,包括应用交往的言语行为的机会平等、论证的机会平等、应用表白性言语行为的机会平等、应用调节性言语行为的机会平等。以上三个层面的实践理性要求最终统一于“行动中的善”(基本善与整全性的善)。
法律推理的实践性得到法学者的广泛认可。麦考密克(Neil Maccormick)提出通过实践理性的一般原则来论述法律推理,阿列克西(Robert Alexy)致力于说明法律论辩如何可以成为实践理性的一个特殊领域,阿尔尼奥(Aulis Aarnio)则试图将实践理性与生活形式以及法律转化理论相结合来建构理论框架,将其作为法律推理的基础,甚至可以说法律本身就“形成了实践理性和实践推理的制度化”,而就法律人工智能的语境而言,实践性也体现在法律人工智能推理的各个方面。
首先,从宏观的视角看,与法律人工智能推理相关的最核心的两大学科是计算机学科与法学。计算机、人工智能学科的科学性是毋庸置疑的,而要更好地在法律人工智能背景下建模法律推理,即如何保证或提升法律论辩过程、法律证立过程的科学性以及进而提升法律学科的科学性是必须考虑的。有学者就认为实践理性是提升法律科学性的关键因素,通过建立在实践理性基础上的论辩等过程,可以对于道德论辩和法律论辩中什么是正确的问题进行更好的证立,这种更加体现科学性的证立方式也更容易被计算机领域的科研人员或者法律人工智能交叉学科的人员理解,从而更好地在人工智能中进行建模。
其次,从中观的视角,即从人工智能法理推理建模的角度来看,对法律推理亦应当采取更加偏重实践理性的立场,因为计算机模拟人的思维不是直接获取人类的想法或者对于人类的认知理性进行建模,归根结底还是通过实践理性来进行模拟和理解的,在法律领域则更是如此,这是由于相较于其他领域,法律推理中的事态更多是一种规范事态(normative states of affairs),而非事实事态。规范事态是作为实践认知和实践理性的反射(reflex)而存在的,相应地,法律推理中更为核心的问题是“应当如何”的问题,而非“实际如何”的问题,是应然的问题,而非实然的问题,是“实践理性”而非“思辨(speculative)理性”,所以,对于规范事态等问题的研究必须基于实践理性。最终,人工智能法律推理的实际效果以及其中算法的优劣也应当基于上述实践理性第二层面或者第三层面的具体要求来进行评估。类似这样需要基于实践理性来解决的问题在人工智能法律推理研究中比比皆是,比如萨尔托尔的意向状态模型,在这种模型中,认知理性原则上是工具性的,即从属于实践认知,因此服从于指导实践理性并由实践理性产生意向状态。
再次,从微观视角来看,对人工智能法律建模的基本要素问题(如人工智能法律推理中的证据、法律文本和案例等各个具体要素)的研究更加偏重实践理性进路,比如艾伦(Ronald J. Allen)等在《分析性的证明路径》中就用一种分析哲学的方法,对法律文本、法律问题以及案例的相关问题进行了研究,其中多次提到“一种更为实践理性的进路是必需的”。在目前的人工智能发展阶段,对人工智能法律推理模型的建构更多地还是聚焦于法律推理实践问题的解决。或许正如萨尔托尔所说:实践理性作为处理实际问题的正确方式,要求行动者在面临资源有限的多重问题时具有形成意图的能力。
最后,法律人工智能建模过程中的一些具体图式和模型的设计也与实践推理密切相关,例如,法律人工智能建模的一个关键是概率图式的研究,其中对于主观概率的建模是研究的热点,简言之,主观概率是一种在不同的参考系下,主体对于某件事情发生可能性的主观相信程度。将人类的主观概率在人工智能中进行建模的一个桥梁就是对于实践理性问题的研究,正如波洛克(John L. Pollock)所言:如果主观概率对外在主义者有用,那么它必须以实践理性而不是认知理性来定义,再如,在建模基于不一致信息推理过程时,也需要基于实践理性而非认知理性。认知理性的一个特点是往往倾向于避免或限制在两个同等强度的不相容结论之间作出选择,而实践理性则相反,会在此时进行随机选择,以避免出现类似布里丹之驴(Buridan’s ass)的尴尬处境。对于不同强度的理由之间选择的方式则是基于权衡,采用一种基于理由的逻辑建模方式,而在对理由的权衡过程中实际上也体现了一种实践理性,因为实践理性要求一个人衡量所有相关的理由,并根据其对理由权衡的评估采取行动。此外,与不相容信息处理相关的是法律融贯性问题,而融贯性最终是服务于实践理性的。
如果上升到人工智能法律推理的论辩层面,则更需要基于实践理性而非认知理性,尤其是其中的论辩过程、对话过程和对话模型的建构等,比如其中的核心要素商谈和协商要素就更加需要基于实践理性。沃尔顿(Douglas N. Walton)建构的对话论辩模型就是基于实践理性来建构的,在他看来,言者与听者之间可以看作是一种逻辑对话,这一理论代表了一种逻辑模式,即双方如何以一种有序的、结构化的方式相互推理,这种逻辑模式代表了一种实践理性。法律论辩模型中的难点是多智能主体系统的建模,而其中的核心问题是智能行动者概念与实践理性概念的关联问题,其以实践理性相关问题的解决为关键点。除此之外,在法律策略层面中,也需要实践理性,比如关于论证的合理性、实践理性与其说服力(persuasiveness)之间的关系问题。
基于前述对法律人工智能背景下法律推理性质的分析,可以阐明法律人工智能背景下的法律推理具有或应当具有的诸多特征,但首先要说明的是,以下对于法律人工智能背景下法律推理特征的阐述更多的是一种前瞻性论述,是一种应然角度而非实然角度的分析,因为毕竟就目前的人工智能尤其是法律人工智能的发展阶段来看,它仅仅处于弱人工智能阶段,甚至只是弱人工智能的初级阶段。
人工智能视角下法律推理基于道义论推理的性质决定了法律人工智能背景下的法律推理应当具有超越性,这是一种超然推理(detached reasoning),首先是要超越个人,超越个人的目的和价值。其次,从对特定观点的初始的支持和反对的角度看,人工智能法律推理的初始设定应当体现出一种中立性,既不支持也不反对特定观点,这与传统法律推理中特定视角的推理相比具有一定的差别,但是这种差别更适合人工智能的处理方式,也更能体现法官必须是中立的这一基本的法律原则。
如果从强人工智能和弱人工智能的区分角度进行更为细致的分析,可以发现强人工智能法律推理和弱人工智能法律推理在超然性方面仍有不同。对于弱人工智能背景下的法律推理而言,其实现难度较强人工智能来讲反而相对较低,其超然性更多体现在法律逻辑(包括但不限于非单调逻辑、模态逻辑等)的运用中,至于非理性因素(经验、价值等)则关涉较少,或者即使关涉也仅仅是人为设定了一些数值。倘若说初始数值是基本固定的,机器学习所占的比例相对较少,而如果是强人工智能,因为已经开始有了类似于人类主观的判断,在超越性这一点上反倒有可能成为一种劣势,所以,强、弱人工智能在法律推理超然性方面要采取不同的策略:对于弱人工智能法律推理,更多是要做加法并且考虑如何通过增加和拓展可用的逻辑方式来提升推理的超然性;对于强人工智能法律推理,则要分为两个阶段:前期主要是抑制和约束非超然性的因素,因为此时的强人工智能有自己的类似人类主观的意识,可能会“不自觉”地掺杂非逻辑的、启发式的以及经验或价值的因素,此时就需要人为进行一些限制,避免强人工智能过多地进行“个体主观判断”,但在后期,如果能够形成一些法律领域的或者说社会整体的“共同价值判断”,并进而进行一些初始的优化设定,那么超越性特点就并不会带来强人工智能初级阶段的负面问题。
与一般的法律推理相比,法律人工智能背景下的法律推理应更加体现辩证性,当然并不是说传统的法律推理没有这个特点,只是说在法律人工智能背景下将更加凸显出这个特点。辩证性指的是法律推理对怀疑的观点、反对的观点、对立的观点保持开放性,这又会衍生出法律推理的不确定性或者盖然性的特点,其意味着法律人工智能往往会将法律推理带回到一般实践认知和常识推理(common-sense reasoning),这与上文提到的基于实践理性的推理性质是相一致的。
从人工智能法律推理的角度,就整体而言,这种辩证性主要体现在三个方面:一是由于人工智能视角下法律可废止性体现出的本体论层面的辩证性,比如法律人工智能代表人物哈赫(Jaap Hage)就是从本体上来对相关问题进行分析的。二是由于法律概念的开放结构等问题导致的认识论层面的辩证性。概念表述的一般性和应用实践的特殊性之间存在着尖锐的矛盾,从而使得无论是在法学理论上还是在法律实践中都存在着这种辩证性。三是在对法律规则、法律原则进行逻辑表达时体现出的辩证性,比如规则往往有例外,不同规则之间可能出现冲突、对立等,此时就需要用辩证的方式来决定最终适用何种规则。法律原则在辩证性上也没有本质的不同,比如碰撞法则(Collision Law)、权衡法则(Law of Balancing)以及权重公式(Weight Formula)等都是在人工智能法律推理的逻辑层面来处理法律原则问题的辩证方法。
从人工智能法律推理建模的角度具体分析,辩证性主要体现在如下几个方面:一是从建模过程看,辩证性主要体现为其表达逻辑的非单调性(non-monotonicity),而“非单调性的主要来源是关于争议语境的新事实或信息与规范性结论所依据的现有前提之间的辩证性关系”。二是从建模的逻辑层面来看,这种辩证性主要体现在其推理的可废止性,即采用辩证的方式,针对理由逻辑中的可废止性进行处理。三是从建模的论辩层面来看,主要体现为一种需要通过对话模型来实现的可论辩性、可辩驳性,展现为两个参与者——因承担不同的论辩角色 (支持者或反对者)——围绕不同命题展开的论证博弈。四是从建模的程序层面来看,在对实际的司法程序进行建模时也要体现这种辩证性。需要注意的是,法律程序层面的辩证性和法律论辩层面的辩证性是不同的:法律论辩层面的辩证性是一种静态的辩证,重视的是对于何谓反驳、何谓破坏攻击等状态的定义,它并不会“自动地引入论辩性的程序”,其需要人为地进行转换和重构,而法律程序层面的辩证性则是一种动态的辩证,其加入了时间维度并体现整个司法论辩程序随着时间的变化而变化的实际过程。五是从建模的策略层面或修辞层面来看,辩证性和修辞发明之间具有密不可分的关系,辩证性可谓逻辑学和修辞学两个领域在法律人工智能领域联结的纽带,而这种联结主要就是通过在人工智能中对于群体环境(group environments)中对多智能主体应用修辞进行说服的过程建模。
强人工智能和弱人工智能法理推理在辩证性方面亦有所不同。一般情况下,强人工智能法律推理在辩证性方面的表现会更好一些,因为弱人工智能更多是通过逻辑方面来实现这种辩证性,比如非单调逻辑、模态逻辑和可废止推理等,而强人工智能更多是通过辩证推理或者说通过一种法律对话模型的建构来实现,体现的是一种对抗性,需要融入商谈理论、对话理论和理性论辩理论等。从主体来看,弱人工智能的辩证性是一种零主体或者单一主体模型中的辩证性,主要实现进路是在建模的逻辑层面,而强人工智能更多是基于多主体的模型,需要综合逻辑层面、论辩层面、程序层面和修辞层面。正如上文已经提到的,要想更好体现这种辩证性,需要在建模的多个层面中重视启发类(heuristic)知识的研究以及重视论辩语境的研究,这就引出了法律人工智能视角下法律推理的第三和第四个特点,即所依赖知识的特殊性以及语用性。
一方面,相比于传统法律推理,人工智能视角下的法律推理所依赖的知识更加具有结构性的特点。人类在表达知识时往往不会针对不同性质的知识进行详细的区分和结构化,也不会在语法结构上进行截然不同的处理,但人工智能则不同,这里体现的是一种面向对象编程和面向过程编程的不同。如果用一个比较通俗的表达,面向对象编程是“盖饭”,面向过程编程是“炒饭”,人类在进行推理以及法律推理时对于各种知识的处理更像是“炒饭”,饭和菜是掺杂在一起的,而人工智能进行法律推理时则更像是“盖饭”,饭和菜是分离的。解决法律人工智能背景下法律推理很多难题的一个关键就在于将逻辑知识和启发类知识分开、将知识和知识的推理分开。论证图式是目前法律人工智能的一个比较前沿的研究对象,在论证图式中的一个亟待研究问题是其中领域知识表示的问题,尤其是对于陈述知识表示与程序知识表示的区分以及结构化问题,由此产生了陈述主义者与程序主义者两个阵营的对立,并继而衍生出对知识控制的不同理念。笔者认为,对于陈述知识表示路径而衍生的知识系统或知识库系统可以和符号范例相结合,同时将逻辑知识与启发类知识、知识与使用知识的方式相分离,这种分离和将知识与其推理方式的分开理论极为相似,从而解决人工智能法律推理中跟知识库建构相关的一些难题,所以,人工智能法律推理中知识的建构和表达具有特殊性。
另一方面,相对于传统法律推理,启发类知识所起的作用更加关键。总体而言,传统法律推理更多关注的是法律领域的知识,不同法律职业者之间的差距更多体现在专业领域知识的质量和丰富程度上,而人工智能则不同,其差距更多体现在启发类知识的不同上。人工智能视角下法律推理基于实践理性推理的性质决定了推理主体应当“至少拥有特定的生活经验”,就目前法律人工智能的发展阶段来看,我们需要解决相对丰富的专家领域知识和相对贫瘠的启发类知识之间的矛盾,可以说,人工智能视角下法律推理很多难题的解决不在于专家领域知识,而在于启发类知识。对于启发类知识的处理能力体现着弱人工智能和强人工智能的主要区别:首先,弱人工智能更多地专注于逻辑方面的知识,或者说形式化的知识、自上而下建构的知识,比如模型、标准和图式等,而强人工智能则更多地专注于非逻辑方面,或者说非形式方面、自下而上建构的知识,比如经验知识、常识知识,这种所依赖知识的差异性是一种质的差别。其次,弱人工智能更多地专注和依赖于领域知识,而强人工智能更多依赖于通用的、在各个领域基本上都能够适用的知识,当然,这只是一种量的差别,而不是一种质的差别。
法律人工智能背景下的法律推理更注重语用思维和语用学的相关理论。法律人工智能背景下法律推理语用性的特点是如此鲜明,致使一些学者开创法律论辩的语用进路。沃尔顿在其代表作中通篇都是在分析语用学方法对于非形式逻辑的关键作用。与语义学不同的是,语用学专注于目标的实现,体现了一种主观因素,专注于在对话或者商谈的语境中,为了更好地实现目标、更好地说服对方或第三方筛选、重构相关的命题。
虽然语用学本身并没有被清晰地界定,但至少可以认为其研究的对象包括语境、言语行为(speech acts)等。语用学并非只研究语用,而是在语形、语义的基础之上来研究语用,它秉承“词汇的意义在于其在语言中如何使用”的观点,在语用思维的规则性、主体间性的基础上研究法律思维和法律推理,呈现出更多的交互性和语境敏感性。法律人工智能背景下,在通过语用范式来建构推理模型的过程中,语用思维和语用学起着十分重要的作用,比如在论证图式的场景图式中,在法律人工智能的论辩、程序以及策略层面,都需要借助主体间的语言交互,由说者与听者在场景中来展开法律论辩,最终的裁判往往也需要语用学视角的权衡和博弈。
语用性也与法律人工智能模型(尤其在法律人工智能的论辩层面)建构的重要元素(即缺省推理)具有十分紧密的联系。在日常会话中,当缺少或不需要当前语境的信息时 (即推理结论与当前语境不冲突时) ,就会触发缺省推理。缺省推理同样在法律领域具有十分重要的意义,比如和无罪推定理论等具有一定的相似性,而在人工智能推理过程中,如果遍历整个数据库没有发现一个命题,那么对于计算机来说,就可以缺省推出某个命题是不存在的结论。从不太严格的角度来看,缺省其实和可废止以及非单调推理的特征十分相似,都有可能在增加新的证据、新的条件之后不再成立。
传统法律推理中的因果关系本质上是归纳式的,是一种基于自下而上的进路形成的因果关系。正如休谟(David Hume)所说的,因果关系是人类的一种想象,人类通过想象将两个经常相伴存在的事件之间的关系总结为因果关系,只是结果相似令我们得到了原因也相似这样的结论,而在人工智能的背景下,除非进行特殊设定或者如以上第三个特征中所述的那样对于启发类知识等问题有所突破,推理中的因果关系则主要走的是一条相反的进路,即自上而下的进路。在这一方面值得一提的是朱迪亚·珀尔(Judea Pearl)的因果模型理论,他通过因果关系阶梯(Ladder of Causation)、关联、干预和反事实推理对于人类因果关系进行解构,并引入马尔可夫、隐马尔可夫等模型。由于涉及过多技术问题,这里对于其中更为详细的细节问题暂不展开,而就法律人工智能的建模而言,德米特鲁克(Maria Dymitruk)等已经进行了很多有益的尝试,比如他们关注因果关系建模中的三个关键过程——识别、建模和推理,并且已经进行了一些具体问题的解决,比如如何设计一种方法,将法律文本中的因果联系一致地转移到抽象的推理模式?如何使用语言学工具识别法律文本中的因果模糊限制语和伴随模糊限制语?如何系统地将因果语言抽象为半形式化模型?这样的过程可以自动化吗?案例中的因果关系如何建模?如何使现有的一般因果关系理论适用于法律案件中的因果关系?在因果分析中,这些模型在哪些方面支持法律推理主体?如何在法律上用因果模型进行推理?形式的和半形式的理论如何支持在法律上可供选择的因果模式之间的选择?证据在法律推理中的作用是什么?我们如何将证据推理整合到因果模型中?如何弥合形式上的因果关系和证据理论与法律从业人员的需要之间的鸿沟?这些法律人工智能与因果关系模型建构直接相关的前沿问题的提出和关注,都体现了人工智能法律推理中因果关系的特殊性。
在因果关系的特殊性方面,强人工智能法律推理和弱人工智能法律推理也有不同。首先,弱人工智能更多是从积极的方面去促进和拓展因果关系、从如何优化算法的角度去发掘各种各样的因果关系,而强人工智能则需要做减法,也就是研究如何不把或不把更多的“个人”或智能主体的主观的因素代入算法,避免错误地把单纯的相关性也纳入到因果关系。其次,弱人工智能法律推理建立在比较简单的因果关系模型(如“一因一果”)的基础上,而强人工智能法律推理则主要依托于较为复杂的因果关系模型,如多因决定、先占和疏忽等,需要综合运用“But for”“Ness”“Actual Causation”等多种因果关系分析工具,同时需要融入到场景图式(Scenario Scheme)、锚定叙事(Anchored Narratives)以及最佳解释(Best Explanation)等因果关系相关理论。最后,就获取因果关系的方式而言,弱人工智能法律推理主要还是运用逻辑的、线性的和静态的方法,而强人工智能法律推理则主要运用非逻辑的、非线性和动态的方法,如启发式的检索方法。
从真值是否能得以保持的角度,我们可将法律推理分为真值保持的法律推理(truth-preserving legal reasoning)和非真值保持的法律推理(non truth-preserving legal reasoning)。传统法律推理往往是基于“大前提为真,小前提为真,所以结论才为真”这种观点的推理,但事实上,逻辑推论并不要求命题具有真值,甚至不要求该命题有任何具体或特定的逻辑值,只需该命题具有可以传递的同一属性即可。在人工智能背景下,这意味着只要它们有着同样的数据类型,就可以进行逻辑运算,因而相对于传统法律推理,法律人工智能背景下的法律推理体现了一种真值的不敏感性。
强人工智能和弱人工智能法律推理在真值的不敏感性方面同样也有所差别。弱人工智能法律推理对于真值以及数据类型的相近性要求会更高和更严一些,比如必须是同样的数据类型,而强人工智能法律推理对于真值更加不敏感,甚至对于数据的同类性这个限制都可以有所变通,例如通过模糊算法对于本来不相同的数据类型通过算法来进行一定的转换,最终实现了表面上看起来不同的数据类型之间的计算问题,或者通过自然语言理解(NLP)技术的突破来实现对一些在弱人工智能看起来毫无头绪的命题进行推理。这其实更类似于人类的思维,尤其是人类的思维对于一些表面上看起来缺失了关键信息的推理思维,其主要体现在对于日常语言中的口头交流语言方面。人与人之间平时的、口头的以及非正式的语言交流往往会省略很多信息,此时弱人工智能可能根本找不到有用的数据,更无法对其数据类型或者说数据的一致性进行判断,当然也无法进行法律推理。所以,在弱人工智能法律推理中,真值问题引起的数据不充分问题可能导致无法得出任何结论,但强人工智能由于具有更为强大的模糊表述转化能力和语境数据采集能力,在数据不充足的情形下仍然可以进行法律推理,但此时它会遇到另一个问题,即由于数据过多,这些数据大概率会存在很多不一致的地方,此时就需要基于不一致信息进行推理,而强人工智能在这类场合可能通过启发类知识等因素的融入掺杂自己“主观”的判断。
一言以蔽之,弱人工智能法律推理中出现的问题影响的可能是效率,而强人工智能法律推理中出现的问题则影响的可能是公平、正义,需要顺带说明的是,笔者认为在人工智能推理领域不存在实质上的算法黑箱问题,黑箱是针对专业领域之外的人士而言的,对于IT人员来讲,所有的数据都有记录,即使数据被删除、被篡改,也会有日志文件留下,完全可以追溯到得出结论的所有过程。至于删除、篡改数据问题,可以通过设定类似阿西莫夫(Asimov)定律的方式写进初始的人工智能建构底层程序中。问题主要在于,如果是最后一步的司法判决,我们可能马上能够看出来其中的问题并进行回溯,但如果仅仅是中间步骤,甚至是对于一些非常前期的、非关键问题的推断(而该问题通过多个不易识别的间接环节最终影响了判决)可能比较难以察觉。从技术的角度来看,对于弱人工智能仍然是以促进为基调,要研究的是如何引入更多的、更好的算法获取更多的语境相关数据,而对于强人工智能法律推理来讲,是如何在数据不充足或者对于不一致信息进行处理时不掺杂过多的“主观”判断。
人工智能背景下法律推理的性质与特征之间具有内在的关联性。人工智能法律推理特征中的超越性主要是由其基于道义论推理的性质所决定的,而辩证性主要衍生于其基于实践理性推理的性质,道义论、实践理性和辩证性又衍生出依赖知识的特殊性和语用性等特点。基于此,我们要在未来对于人工智能法律推理的研究中采取一种更为实践性的立场,要针对人工智能法律推理基于道义论和实践理性的性质,针对超越性、辩证性以及所依赖知识特殊性、语用性、因果关系特殊性以及真值不敏感性等特征,有的放矢地进行更为有针对性的研究,并结合人工智能技术领域的最新发展变化,进行法律推理建模和具体要素设计。
注释:
①参见 Elaine Rich, Kevin Knight, Shivashankar B Nair:Artificialintelligence(Tata McGraw-Hill Education Pvt. Ltd, 1985, p.3)。
②参见Stuart Russell, Peter Norvig:Artificialintelligence:amodernapproach(Pearson Education Limited, 2014, p.1)。
③参见Kevin D. Ashley:Teaching law and digital age legal practice with an AI and law seminar(Chicago-KentLawReview, 2013,Vol.88,No.3)。
④参见John McCarthy:History of LISP(ACMSigplanNotices,1978,Vol. 13,No. 8)。
⑤参见Bruce G. Buchanan, Thomas E. Headrick:Some speculation about artificial intelligence and legal reasoning(StanfordLawReview, 1970,Vol. 23,No.1)。
⑥同③。
⑦参见凯文·阿什利、黎娟、王春穗:《法律人工智能系统:法律实践的新工具》(《自然辩证法通讯》,2020年第6期)。
⑧类似观点参见吕玉赞、焦宝乾:《法律逻辑的拓展研究——以新兴交叉学科为背景》(《上海政法学院学报(法治论丛)》,2019年第1期);彭舒琼、黄兴作:《人工智能影响法律职业发展之研究》(《辽宁公安司法管理干部学院学报》,2019年第1期)。
⑨参见张妮、杨遂全、蒲亦非:《国外人工智能与法律研究进展述评》(《法律方法》,2014年第2期)。
⑩参见唐昊涞、舒心:《人工智能与法律问题初探》(《哈尔滨学院学报》,2007年第1期)。