吴旭阳
内容摘要:大数据深度学习模式是近年人工智能获得飞速发展的重要模式,其在法律科技中也有相关的应用,并引发了部分法律人的担忧或欢迎。对这种模式在法律中的若干应用进行分析,发现其在现有应用中已经具有大数据的优势,获得不少认可;但也存在智能水平较低、事实认定方面的能力较弱等问题进行法哲学探讨,发现该模式存在对于社会信息收集不广、也不能符合司法能动主义创新要求的缺陷。同时,该模式不能够进行证据的充分质证、事实认定方面的认知能力不足;并在行为的正当性、决策中的潜意识或者非理性、综合性和未来发展、公法的社会性大问题等方面的考量不足。该模式能够协助法律人进行工作与研究,但不可能取代人类法律人。
关键词:法律人工智能大数据深度学习事实认定行为正当性
(一)人工智能的发展
自从阿尔法狗战胜围棋界诸多世界高手之后,人类恍然发现人工智能(以下简称AI)在某一方面的智识水平已经超越了人类。以往“深蓝”在国际象棋领域战胜人类并未引发人们的关注、思考或者忧虑;但现在大家显然发现,在不久的将来,AI可能会在很多领域达到人类的水平,辅助人类进行部分工作;甚至超越人类,在部分工作中取代人类。有人甚至会担忧未来高智慧的AI对人类的统治。因此,普通人对于AI迅速由漠视或忽视,改为重视、欢喜或者担忧;人类对于人工智能的关注在近两年呈现爆发式增长。
而在法律领域,法律人们除了关心普通大众所关注的问题之外,还更关心AI在法律中能够起到什么作用?AI能否成为法律人的助手?还是成为法律人的威胁?这些都是部分法律人相当关注和思考的问题。这其中,对法律人而言最好的模式当然是AI能够成为法律人良好的助手,而且还不会威胁和取代法律人的职业。事情当真如此吗?我们可以作一些研究或者思索。
(二)人工智能在法律中的应用及其不足
乘着AI的东风,国内外也出现了不少法律人工智能的创业项目。现有的AI技术和创业团队,进行了法律人工智能的研究和创业,并在实践中进行了若干试用。他们力图让法律或者司法裁判、法律教学领域在不久的将来像围棋领域一样,使AI成为重要的角色,部分甚或全部取代人类裁判者、法学教授的作用。
笔者经过文献查阅,以及对若干法律人工智能项目的现场调查、观摩,发现已有的法律人工智能创业项目多数有以下特点:
1.大量地以裁判文书或者法律资料为基本的数据库进行大数据的深度学习。最近几年,AI研究获得巨大的突破,其科学基础在于使用了机器的“大数据深度学习”的技术。现有的法律人工智能项目,也多以该技术模式为主。在中国,诸多法律人工智能项目以中国裁判文书网的数据库为大数据进行AI的深度学习训练。〔1 〕西方比较有名的法律人工智能机器人ROSS平台的研究2014年始于多伦多大学,先是进行10个月的破产法学习后,它获得了Baker & Hostetler律师事务所的工作。IBM将继续教授ROSS不同领域的法律,以便其在多个法律领域进行工作。〔2 〕
截至2017年6月,中国裁判文书网的上网文书有近三千万份,以近四年的为主;而其内网运行的亦有六千万份。相关数据有较大的价值,对于司法管理、司法公开、法律教学科研以及相关的法律创业项目而言,均是一座巨大的宝矿。但是该数据库里的文书,对于法律人工智能的学习而言有以下缺点:(1)部分法官因为裁判文书上网公开的原因,也因案件越来越多而精力越来越不够的原因,将说理部分尽量压缩。(2)部分的内部规定、会议纪要等,虽然不会在裁判文书上体现,但却是法官们作出裁判的重要依据。(3)相对判决书而言,案卷是重要的部分,尤其是案件审理的重要内容不少均在内卷之中。但是案卷并不上网,其没有信息化或者电子化,则让研究法律人工智能的部分内容显得有“隔靴挠痒”之感。
在大数据深度学习的模式之外,还有其他的模式,如部分法律人工智能采用类型案件的关键“争点”或者“关键点”的规则梳理和设定。例如江苏省检察院系统采用的“案管机器人”系统,制定了六百多个程序、证据、事实等方面的规则,设定了一千多个对比点。然后可以根据提出的问题进行反馈、修正。但是此类机器人不具有自主学习能力,是否属于真正意义上的人工智能尚有待商榷。
2.在事实认定方面的能力较弱。现有的法律人工智能主要工作流程在于“要素性事实”→“要件”→“裁判结果”,而“要素性事实”则是以“证据性事实”和“推断性事实”为前提。以大数据深度学习见长的法律人工智能,现阶段在事实认定方面是个较大的缺失,很难实现由“证据性事实”向“推断性事实”的推论,再实现由“推断性事实”到“要素性事实”的推论转化。部分法律人工智能项目在事实认定方面的处理,以当事人个人的陈述为主;在一些标准化较强的案件类型中(如交通事故、劳动争议、医疗伤害类型案件方面),系统对当事人在此类法律领域的各个主要方面进行选项设计。当事人在系统界面上对各类事实认定问题进行选择,以协助法律人工智能进行事实认定。然后,在这个事实认定的基础上进行法律规则的推理,最后得出结论。这种事实认定并未经过庭审的质证,双方也没有证据交换,其准确性相对较低(当然,法官或者陪审员进行的事实认定,也会存在意见不一致)。
3.在当下,法律人工智能的进步程度比较低,其在案件的事实认定、定性等关键环节上不能完全、完美地运行;其水平仅仅像是法学院大一、大二学生的水平。案件判断和分析的正确性(或者说是精确性)不高。其大体上不能作为法官助手,而只能作为法官助手在收集资料时的参考。当然,个别法律人工智能产品已经开始具有初步的应用价值,能够初步提出法律意见,并具有一定的正确性;但是这仅仅是在部分比較容易规范化的法律领域。
从以上梳理可以看出,在国家公权力机关所提供的服务中,最高人民法院因为建立了中国裁判文书网,为社会提供了大数据的支撑服务,从而能够支持在裁判文书大数据基础上的机器深度学习;有企业也在此基础上一步步“培养”出法律人工智能项目。与其他国家机关相比,司法机关的公开性、统一性比较好(统一的大数据库),为相关创业项目提供了基本的制度和数据支持。但是,以此为基础所进行的法律人工智能研究开发项目,仅仅处于起步阶段,依旧存在诸多问题,需要采用相关的技术进一步优化和升级,也需要进行哲理上的探讨。
诚如阿尔法狗模式那样,以大数据深度学习的AI具有较强的视野和经验,在某一方面甚至能够远超一般人和专家。在法律领域,采用了这种模式的法律人工智能,也能够依靠法律数据库的大数据进行深度学习,从而实现决策的优化。那么,法律人工智能能否像法官或者律师那样办案?它们能否作为合格的法律助手,甚至在很多工作岗位上起到法官、律师的作用,乃至于取代法官和律师?在当下的法律人工智能项目中,这些应该还不能成为可能。但是今后随着AI技术的发展,在大数据的内容比较充分的情况下,其能否通过深度学习而达到、取代法官和律师的作用呢?AI的大数据深度学习的基本模式,优势已经被大家所广泛获知,而其在另一方面也可能存在缺陷。笔者从法律人工智能的视角进行优劣的探讨。
(一)法律人工智能大数据深度学习模式的优势
以大数据为基础的深度学习,能够为法律人工智能提供广博的信息数据基础。当下法律人工智能的主要模式是大数据的深度学习模式,该模式基于庞大的法律数据库。以当下中国为例,就是以数千万份法律裁判文书为基础的中国裁判文书网。通过对此海量裁判文书的深度学习,相信法律人工智能在不远的将来就会有较高的法律知识。这种数千万份裁判文书的海量数据,能够提供较好的决策选择基础,其所提取的裁判决策,也往往是在这些文书中较优甚至是最优的决策,具有较好地解释力和说服力。
以海量数据为基础,是形成较优法律制度的重要基础。我们常言,古代的罗马法是最伟大的法律制度体系,其影响到今日还十分深远;其作为简单商品经济下最完备的法律制度,“以致一切后来的法律都不能对它做任何实质性的修改”(恩格斯语)。从某种角度看,罗马法的这种性质是最大样本的制度筛选结果。也就是说,罗马法从其发展的公元前5世纪开始(就仅以第一部成文法《十二表法》起算)到《国法大全》完稿的公元6世纪,其核心繁荣时期的四五百年时间内,罗马帝国至少五六千万人口,地跨亚、非、拉三大洲;在此广大的时间、人数范围和地域差别内的纠纷解决方案,经过如此大数量的博弈、测试和筛选。这种大数据创新、优选下的法律规则,因其支撑的数据量够大,其适应性自然也比较强,对后世的影响是全球性的和历史性的。因此,现有裁判文书网的大数据已经有近三千万份(内网运行约六千万份),不管存在什么样的不足或者局限,其也有足够的数据量能够培养较为高级的法律人工智能。更何况在此后的一二十年内,裁判文书的数据量至少达到数亿级别的量级;其数据量应该足以支撑更为高级的法律人工智能。
虽然当下的法律人工智能的水平不高,但是以发展的目光看,随着AI技术的提高,以大数据学习为基础的AI存在较大的发展空间;其接近于人类法律人的水平,应该是指日可待的。
(二)该模式下法律人工智能的缺陷
大数据深度学习模式的法律人工智能,其重要优势在于海量的大数据,但是其重要的一个缺点,也是在于大数据;也就是说,法律人工智能学习基础的这种大数据的覆盖面如何覆盖的问题。
第一,法学是一门实践性很强的学科,同时也是牵涉面很广的社会科学;司法决策的过程较长,涉及生活的方方面面。那么,是否能够将世界上大多数有用的数据电子化,或者被数据库所采用?或者人类自身的数据,人类社会交往的各种数据被电子系统所采集,并被归入数据库以供AI进行学习?从现有的信息采集体系看,基本上是不可能的。尤其是人与人之间的当面交流、行动与合作,在現有的技术水平下基本上不会纳入电脑、手机的信息采集系统中,不会被邮件、互联网购物、互联网社交体系的数据库所采集。
如果从这个角度看,法律人工智能可否有机会理解人类社会的各种行为?其大数据的学习模式就类似于从大学象牙塔毕业出来的法科大学生,带着丰厚的法学知识,却对社会认知不够,在一些案件中就很可能作出比较符合规则或逻辑却不能够为社会所接受的裁判。因此,从这个角度看,法律人工智能不能够作出比较精细、精确的裁判,其更可能仅仅是作为人类司法裁判者的助手。
当然,法律调整的是重要的社会关系,而不是调整所有的社会行为或社会关系。法律是有成本的调整模式,因而只是调整足够重要的社会关系;而在这些社会关系中,法律也不是对所有相关行为进行调整,而往往只是在纠纷发生后被动地进行调整。法律对于纠纷的解决也不强求所有的数据,所以法律人工智能也不需要所有的人类行为数据。但从总体而言,在相当长的一段时间内,由于法律人工智能所理解的人类社会是不周全的,毕竟大量的人类个体信息和社会交往信息在很长一段时间内并不能上传到网络或者数据库。因此,其不能精确理解这些社会性的规则和纠纷解决方式(当然,在通讯网络的5G或者6G之后,力图实现“万物万联”,其可行性有待于观察)。
第二,从司法能动或者创新的角度看,“世界上没有同样形状的叶子”,其实世界上也没有同样的案件。那么我们要问:每一个新案件是不是一类新型案件?或者我们甚至还可以问,在“司法能动主义”盛行的今日,有创意、有想法的法官能不能在普通案件中挖掘新意,创制新的判例?或者在判决书中阐述新的观点,从而发展新的法律学说或者新的权利保护类型、模式?即便是纯粹法学派的代表凯尔森,也意识到“一般规范因司法判决的个别化,始终是对那些尚未由一般规范所决定而且也不能完全由它所决定的因素的决定。所以,在判决内容永不能由既存实体法规范所完全决定这一意义上,法官也始终是一个立法者”。〔3 〕所以他指出:“立法者,即由宪法授权创造一般法律规范的机关,认识到他所制定的一般规范在某些场合下可能导致不公正的或不公平的结果,因为立法者不可能预见到所有可能发生的具体情况。他因此就授权适用法律机关在适用立法者所创造的一般规范会有一个不能令人满意的结果时,就不适用立法者所创造的一般规范而创造一个新规范。” 〔4 〕
因此,如若法律人工智能的学习模式仅仅是当下的深度学习模式,则其往往只能局限于旧有的知识或者规则,在新的问题上不能很好地以规则的目的或者利益进行解释的扩张或者限缩,从而让规则更好地适应社会不断发展的需要。而不同的社会关系或者犯罪手法层出不穷,先可能是“道高一尺,魔高一丈”;然后法律填补了空白或者漏洞,就出现了“魔高一尺,道高一丈”;然后再反复循环。当代社会出现各类新的法律问题,这些问题及其解决或者规则,在原有深度学习的数据库中没有,则基于此的法律人工智能也不能作出裁判或者不能作出较好裁判。
回溯人类的法律发展史,早在人类最早的法学流派——罗马法中的两大法学派出现了相关的争议,就能很好地说明了这一点。在罗马法兴盛的公元1—3世纪,出现了两大法学派:萨宾派和普洛克鲁斯派。两者差异的其中一个重要方面就是法律解释是否严格按照字面含义进行解释;这就会在实践中产生不同的结果。例如一个典型案例是当时两派关于往牲口身上披红色的衣服使其受到惊吓而跑掉是否是一种盗窃行为的争议。还如关于杀人的解释,拉贝奥(普洛克鲁斯派)在处理杀人案件时(在阿奎利亚法中),会举出“杀”这个词的古代涵义,即使用武器运用暴力杀害一个人。在一个案件中,助产士给女奴一包毒药让其食用致其死亡,拉贝奥则认为法律规定之诉不可用,裁判官应当颁发一个新的特殊诉讼程式。而萨宾则宁可在原有法律体制内提供救济。在这些新的案件问题上,裁判官是否应当颁给一个新的特殊的诉讼程式?还是仅仅局限于原有字面含义?或者对原有字面含义进行新的解释?这就是一个较大的问题。〔5 〕相似地,此类问题在今日的法律人工智能上,就是以大数据深度学习的法律人工智能是否适应社会的新发展?如果可以,则其需要非常高的智识能力,这是当前其所不能够解决的。
(三)未来的可能性
如若在长时间之后,前述此类问题能够解决,亦即人类的行为或者生存过程的几乎多数时刻均能够被大系统所监控并上传到数据库,则到时以大数据为基础的法律人工智能就有机会超越人类的法律人。另一方面,从更深的层面看,如果AI发展出比人类社会交往更好或更高级的策略呢?那么这种大数据的系统的学习,这种相关行为或者环境的监控则就仅仅成为需要而不一定是必要。AI强大的计算能力和见识(数据库足够大),就可能在某些方面提出比人类现在更好的行为模式,可能更好地解决纠纷。
应该说,现在法律人工智能所出现的各类问题,主要不是法律的问题,而是AI技术的水平不高导致的问题。日后随着AI技术的不断发展,法律人工智能就很有可能更加接近或者达到人类的水平。
前述是针对AI或者法律人工智能基于大数据深度学习的问题探讨。但是,事情不仅仅是这些问题。如果我们进一步深入思考,则还有必要分析其他的问题。
(一)事实认定与法律逻辑推理
司法裁判是法律人工智能的核心問题;人工智能在法律中的运用,其终极目标显然是能够像法官、律师那样,能够在多数领域上达到法官、律师那样的判案效果;甚至在某些方面能够做得比法官要好。在其他方面,我们也希望人工智能能够具有律师、检察官等法律人的效果。然而,当我们司法裁判对进行深入分析时,就会发现司法裁判其实是分成两大部分:事实认定和法律适用。这两者之间的差异非常大。显然,从现有司法裁判的逻辑推理视角来看,法律适用部分的逻辑性较强。根据法律规则的二要素学说——“行为模式”和“法律后果”,从“行为模式”到“法律后果”的逻辑推理过程显然相对容易。因此,以形式逻辑进行法律演绎推理的软件开发比较容易获得成功。但是,问题的难点在于事实认定方面。事实认定属于法律规则中的“行为模式”要素,如何从“证据”到“证据性事实”的推论,再到实体法行为模式中的“要素性事实”的推论,这对AI而言是一个难度极高的关键问题。这对AI的智能程度提出了极高的要求。
从知识论的角度看,单纯的形式逻辑并不能产生知识。在康德的知性理论中归纳了十二种知性的范畴,〔6 〕人类具有这些普遍的认识能力。事实认定问题,其实是先天知性能力对于外在世界“杂多”的“统合”问题。此外,在康德看来,先验超越于经验,但是先验又必须运用于经验,否则就不是知识,“但对于人类知性来说,这个行动却不可避免地是第一原理,乃至于它丝毫也不能理解别的可能的知性,不论是本身可以直观的那种知性,还是那种即使拥有感性直观但确实不同于空间和时间中那样的感性直观作为基础的知性。”“知性的图型法通过想像力的先验综合,所导致的无非是一切直观杂多的内感官的统一,因而间接导致作为与内感官(某种接受性)相应的机能的那种感觉的统一。” 〔7 〕 〔8 〕因此,不是单纯的知性就可以建立起知识,相反需要依靠知性和感性的结合,通过外在的刺激才能够获得理性知性和感性经验相结合的知识。事实认定者仅有先天、内在的人类普遍的知性能力是远远不够的,不能形成真正的知识;其还必须通过庭前证据交换、庭审质证等程序,以“杂多”的感性为知性能力提供材料,从而形成关于案件事实判断的“知识”。也就是说,由于知识是内外结合的产物,知识必然以内在的主观状态为基础,加以外在的刺激或观察。理性、知性加上经验,才能形成知识。如果只有先天知识而没有庭审,则单凭先天逻辑知识,也不能形成关于某一案件的知识。庭审过程中,随着双方提交证据,并进行质证,“真相”就在事实认定者面前不断展开。而双方是否能够提交充分的证据并进行司法证明,会在很大程度上影响事实认定。“因为它仅仅用于通过某种先天必然的统一的诸根据(由此使一切意识必然结合在一个本源的统觉之中)而使诸现象服从于综合的普遍规则,并借此使它们顺理成章地彻底联结于一个经验之中。” 〔9 〕而这一点恰恰是人工智能所较难具有的能力;或者说在很长一段时间内较难具有的“统合”能力。因此,在人工智能方面,我们看到,依照康德的“感性-知性”的认识论所建构起来的知识论,已经能够影响人工智能的机器人的认知理论。〔10 〕
而事实认定方面的数据量要求极大,从大数据深度学习的视角来看,除非其达到人类对于外在世界的认识能力,否则其难以实现比较精准的事实判断能力。所以从这个角度看,法律人工智能达不到人类的认识判断水平。
(二)法律的正当性问题
对于事实问题进行界定和统合是一个重要的问题,一旦人工智能在这个方面能够取得突破性的成就,那么下一步进行的逻辑性演绎推理就比较容易。即“行为模式”已经确定,则法律后果往往比较容易决定(在司法的自由裁量问题上,往往也有比较细致的事实方面的规定)。但是,这方面仅仅是法律规则制定之后的纯粹逻辑推理问题;而法律在实施过程中不可能完全是依照规则的字面含义进行解释,而还需要考虑规则的目的或者利益。也就是说,多数的纠纷依照规则的逻辑过程进行推理能够得出恰当的结果;但如若规则的施行结果与普通的道德直觉、广大群众的利益之间存在尖锐的差异矛盾呢?法律不仅需要考虑逻辑性,在部分案件中还需要考虑道德性、利益均衡或者目的性;这就不是完全的逻辑推理那么简单了。“法律含有目的:它们贯彻良好的原则和政策,同时又被这些原则和政策证明是正当的。” 〔11 〕而推理的大前提除了法律规则之外,在部分案件中还可以是价值;尤其是当法律规则比较模糊时,或者是法律规则的推理结果与民众的道德直觉、利益之间存在巨大、尖锐的冲突时。
法律人工智能深度学习的数据源就是人类的各类法条或者判决。然而,人类的法条和判决根源于社会,即纠纷解决的正当性方案的法律规则或者关于行为正当性的裁判,其自身也需要正当性的支持。“徒法不足以自行”,法律规则也不能赋予自身以正当性。此类更基础性的正当性,需要对法律之外的社会进行深度观察和分析。正当性的另一方面还体现在于:由于杂多的外在事务,不仅仅包括客观世界,更包含对于行为人的主观状态的评判——包括动机的正当性评判。这里不仅仅是杂多的问题,还包含对于行为人的内心状态的一种推断,所包含的信息量极大;在这些方面,基于大数据深度学习的法律人工智能,其解决能力是极为有限的。
(三)潜意识或者非理性的考量
人是理性动物,尤其是重大经济决策或者法律决策,其多数是理性的产物。但是,部分的决策会受到潜意识的重大影响,也不是全然理性的产物。而相当大一部分的潜意识或者非理性的思维、决策,既不为人类自身所知,也不为大数据的数据库所收集。固然法律推理是理性的产物,但是相当大部分纠纷并不是理性的。以推理的理性,在部分个案中解决非理性的纠纷以及面对处于情绪状态下的当事人,其解决效果并不一定是最佳,司法公信力也不一定最强。棚濑孝雄说:“法官在作出判决过程中应该不断地通过解释在结论的衡平性与法律适用的严肃性之间进行反馈,尽可能地获得符合实际并对双方当事者都有说服力的解决已成为一般认识。” 〔12 〕而在多元化纠纷解决模式——其往往由法院来进行主导或主管,采用的多种纠纷解决模式,则可以包括非法律规则的解决模式、社会综合治理的解决模式。但是,相关的纠纷解决模式不一定是理性的,所谓“晓之以理,动之以情,诱之以利”等多方式解决纠纷。因此,纠纷的解决,不仅仅是依赖理性,也可以激发纠纷当事人非理性的感情、或者以潜意识进行心理上的疏导,从而化解、解决纠纷。
此外,司法决策过程也并非全然是理性的,情感或者潜意识等非理性的思维或者意识,也是形成司法决策的一部分基础。这对于当事人双方、其他诉讼参加人甚至法官都是如此。而这些潜意识或者情感等人类意识状态,人工智能要进行学习或者模仿的难度是非常大的。这是演化心理学中的问题,即人工智能不是人类,即使其经历过大数据的学习,也不是完全的自然状态下演化的全历程下的筛选结果。毕竟后者的“自然状态下的演化的全历程”是不可模仿的。因此,在理性的问题上,AI可以依托超快的计算能力以及不知疲倦的运行模式进行通宵达旦的飞速学习,从而在某些方面迅速地超越人类。那么脱离真实性的演化过程的设计,能否实现逆袭?在潜意识或者非理性的其他知识方面,这种可能性虽然不是不可能,但是近期的可能性还是比较小。
(四)未来性和综合性评判的问题
除了上述这些方面的问题,还存在对于行为的未来以及综合的评判问题。当下人工智能对于行为的综合性评判是远远不够的。这里存在着各种计算量的问题,即人类行为计算的可能性。而针对未来性,主要是人类行为或者社会互动模式的未来走向。这里涉及人类社会发展的驱动力问题,这是人类中心主义的。人类因为有了压力和驱动力,因此会不断地发现和解决问题。世界上其实并没有问题,所谓的问题,是人类的问题而不是世界的问题,也不是宇宙的问题。从这个意义上说,所谓的问题的提出和解决,从终极上看都在于人类。因此,即便AI取代人类或超越人类,其所提供的解决方案也不大可能让人类满意。当然,如果AI能够基本解决前述的那些事实认定和正当性问题,其实AI已经与人类相差无几,其超越人类已经指日可待。一旦这个问题出现,则更可能的是“去人类中心主义”的趋向。
除了上述这些方面的问题,还会有其他的问题,例如涉及公法领域问题。这不仅涉及一个社会的小群体利益或者理性,还涉及大多数人及社会结构等大领域问题,甚至还涉及不同国家之间的关系等。在当今的司法能动主义的趋势下,以及当今的国家行为的合法性要求的趋势下,这些公法问题所涉及的数据量极大。此外,法律裁判不仅涉及法律规则,还涉及法律原则。“原则和政策没有建立法律的类别,确定法律的后果。但它们为规则提供了正当理由,也为把案件归于规则所定的法律类别中的法律理由提供了正当理由。” 〔13 〕这些方面的计算量也比较大,也更多变;以大数据深度学习为基础的法律人工智能接近或者达到人类法律人的难度极大。
前述对法律人工智能基于大数据深度学习的不足进行了若干的分析,但从长远而言,法律人工智能的前景应该是不错的,多数人对于法律人工智能的作用也比较肯定。笔者对这个趋势也比较认可,下面分析一下前景。
(一)过渡时期的半人工智能模式
在未来的二、三十年以及可能的更长的时间内,如果AI技术没有较大的突破,则法律人工智能无法进步到完全取代人类法官、律师的程度;其在案件的事实认定、正当性等关键环节上不能完美地运行。在法律人工智能无法完全赶得上人类法律人这一时期,笔者的方案是“人机结合”。这种人机结合,并非像“脑机接口”那样在生理上的结合,而是人类的法律人与法律人工智能的协作。大数据深度学习模式的法律人工智能有其优势,而人类法律人通过自身的法律素质,在法律人工智能无法完善解决的事实认定、正当性(以及疑难案件)等方面进行协作,以帮助法律人工智能系统在各类案件中进行难点的翻越,能够输出较为精确的结果。这将实现AI的快速和广泛的搜索、学习能力,与人类在关键问题上的直觉能力进行结合。
(二)完全时期
当然,在未来的二、三十年以及可能的更长时间之后,相信已经有了比大数据深度学习更佳的AI科学理论和技术;AI已经能够具有相当的思维能力,其强大的计算能力一旦能具有自行收集外在世界各类信息的能力,并能够具有分析人类各类事务的能力,获得基本精确地解决人类纠纷的能力。
另一方面,AI在全面介入人类的纠纷解决方式之后,可能会提出比现有纠纷解决方案更好的方案或者模式。阿尔法狗及其升级版Alfa master在一年之内接连败多名国际顶尖的围棋选手,国际排名前列的围棋大师柯洁在被Alfa master多次打败之后,其围棋水平获得了巨大的提升,大胜人类的其他棋手。〔14 〕而在此之前,在经过了与阿尔法狗多轮较量,他在屡战屡败之后醒悟到,“人类已经研究围棋研究了几千年了,然而人工智能却告诉我们,我们甚至连其表皮都没揭开。” 〔15 〕而在与人类的较量中,阿尔法狗已经屡屡下出了惊人的棋艺,更新了人类对于若干棋艺的认识。由相关的经验我们可知,AI一旦具有超越人类知识的能力,则其可能可以提出更佳方案以解决人类纠纷。首先,此类纠纷解决的新方案可能在人类的认知能力之外,因而人类更不可能在新制度安排下“钻空子”,从而提升法律的稳定性。其次,此类新方案可能会更有效率,从而提出更节约的纠纷解决模式,或者提出更能够提升经济增长的制度安排。再次,此类新方案也可能会更好地降低纠纷的发生或者复发。最后,此类新模式也可能更满足人类的基本道德感,以及不断发展演变的道德理论或者观念。当然,這仅仅是一种假设,并不一定会实现;AI能否真正超越人类,也是存有疑问的。
(三)非法律的其他治理模式
一旦法律人工智能能够具有人类的普通思维能力,甚至超越人类的思维模式,则可能会有另外的思维模式,以解决人类之间的纠纷,甚至可能出现其他非法律的治理模式。而AI超越人类,甚至有可能会实现AI对于人类的统治,这里又会出现AI对人类的统治秩序或者规则的问题。当然,这依旧是一种假设,能否實现依然存疑。
(四)如何解决AI之间的纠纷?
这个问题看上去几乎是无法相像的。因为多数人所设想的往往仅仅是AI如何解决人类之间的纠纷,或者协助人类法官解决人类之间的纠纷。而AI之间还会有纠纷发生?他们之间的纠纷如何可能被人类解决或者在AI之间自行解决?尤其是一旦AI的智识已经接近于人甚或是超越人,则AI之间是否也可能存在纠纷?
应该说,现在我们也只能依照人类模式猜测AI之间是否也能够有纠纷,设想计算机系统之间的冲突,引发的相互之间的不兼容或者系统崩溃,可能是AI之间的生硬的、鲁莽的系统冲突解决模式。作为计算机的AI以及作为生物个体的人类,其运行模式中均可能出现错误。人类的思维错误或者DNA错误比较常见,是演化的一种机遇。而AI的主机在运行中也可能因为硬件或者软件的问题,发生错误。这种错误在以往(现在)的解决模式,类似于人类生命体的生病或者想法出错,其可能引发AI之间的“误解”,这或许也需要进行纠纷的解决。而假若AI演化为高级的有智识水平,AI之间的冲突是否更可能像是人类之间的纠纷,其纠纷解决可能也是一个重要问题。而超越人类智识的AI之间的纠纷的解决模式,AI之间的沟通模式或者信号,也可能在人类的想象或者理解之外。
此外,假若到了此时,AI作为一个超越人类的智慧体,其也有可能制造新的AI,其也会成为造物主,则也需要调整作为造物主和被造物之间的关系。
人类对于AI的担忧,其实是对于自身族群之外其他高智慧族群的担忧。在这一年来AI的兴盛之前,虽然也有不少影视文学作品描述了AI或机器人的超级能力甚或其对于人类的统治和奴役,但更多人是将注意力投射到所谓的“外星人”上。然而,在不知不觉中,我们才豁然发现,原来在人类之外的高智慧族群,不大可能是外星人,而更可能是已经不声不响地发展出一定程度智力水平的AI。更让人类喜忧参半而不是滋味的是,很多人几乎可以相信,AI在不久的将来就可能会超越人类的智识水平。这是人类演化发展阶段的一个新的迈进,相信作为“造物主”的人类会与AI携手共进,和平相处,共同解决好各类问题。