盛学军,邹 越
(西南政法大学,重庆 401120)
机器人的智能正以超乎想象的速度追赶人类。英国伦敦大学研制出了一款智能机器人,能够评估法律证据,同时考虑伦理问题,然后决定案件应当如何判决。科学家们表示,这台计算机预测案件的准确率达到了79%[1],其针对的是欧洲人权法庭584个关于折磨、侮辱、公平审判和隐私的案件。2015年11月,智能辅助办案系统在上海市第二中级人民法院用于庭审,设计者认为这是“机器人法官”的雏形。2016年末,南京市中级人民法院引入机器人辅助判案系统,并形象地将该系统称为“阿尔法法官”。将司法大数据运用到司法辅助、办案参谋、智能咨询及决策分析等环节,法官输入案由、情节等案件事实,机器人自动弹出应适用的法条,并显示量刑建议,在法官确认后,判决书便一键生成[2]。
其实更早几年,IBM公司(International Business Machines Corporation, 简称IBM)就推出了名为高级案件管理(Advanced Case Management)的司法辅助系统。该系统能够在包含数据存储和流程管理的基础上,通过综合分析,自动生成最优判决结果。也就是说,IBM推出的系统更类似于一个机器人法官,能够在数据支持下自动判案[3]。
显然,以智能系统为核心的数字化建设和人机结合的模式深度介入审判事务、管理审判过程,有助于提高审判效率,减轻法官的工作负荷;铁面无私断案;促进同案同判,提高判决质量等。但是,从情景和自然语言中提取的冷数据总能满足审判要求吗?将证据分析、法理逻辑、法律适用都交给智能系统,机器人法官能够公正裁判吗?进而,同类案件千篇一律的判决会是我们想要的吗?
一个聪明的人不一定能成为一个智慧的法律专家,一个在法院里耳闻目染数十年的人,也不一定能成为一名优秀的法官。同样,一套智能系统,存储、搜索、运算、学习功能再强大,也不一定能成为一名合格的“机器人法官”。关键在于,不管是人脑还是电脑,应该拥有怎样的人性和人道观念、法治精神和信仰以及定纷止争的裁判艺术。从这些意义上说,“机器人法官”更需要的并不是算法技术。没有人类法官的深度参与就没有机器人法官的深度学习,也许我们今天引入司法智能系统的一个重要任务,就是由人类优秀的法官训练机器人法官。问题在于,能独立审案的优秀“机器人法官”最终可以造就吗?
相当一部分技术专家认为,现在尚处于人工智能的“石器时代”。我们对于机器人发展空间的认知源于人类对于人脑的运行模式尚知之甚少,关于意识和情感、直觉和语言、艺术和美、伦理和价值、爱和信仰在人脑中是如何产生、表达和相互作用的,我们知道得很少,更别说训练机器。
智能机器人的未来真的会如哈佛大学未来学家Phil McNally和Sohai Inayatullay在30年前预测的那样吗?“计算机技术的发展将迫使我们对‘活的’概念和权利概念重新定义。随着人工智能的进展,机器人将被认为是‘活的’。机器人在下一个25至50年很可能会有权利。电子司法机关有可能代替法院审理案件。随着智能机器人的发展,我们的宪法和法律可能需要修改或重写。有朝一日可能出现机器人法官和机器人律师在法庭上唇枪舌剑的场面。”[4]这样的场面,即便还很遥远,即使还有很大的变数,机器人会给司法审判带来怎样的变革和挑战?对于“机器人法官”的未来,我们应该有怎样的期待和应对?仍然是需要我们特别关注、深入研究的问题。
广义的“机器人法官”指的是可以参与法律事务的智能系统,既包括各种辅助系统,又包括面向各类法规及证据分析的智能专家系统,如司法进程的事务跟踪机器人,庭审记录机器人,判决书生成机器人,同类案件比照分析机器人,政府、企业、各种社会组织、家庭用于法律咨询和服务的机器人,律师事务所的机器人律师,还包括仍在设想中的、狭义的“机器人法官”,即不需要人类法官介入的、具有独立审案能力的智能机器系统。这就是马克斯·韦伯100多年前设想的自动售货机般的法官——“投进去的是诉状和诉讼费,吐出来的是判决和从法典上抄下来的理由。”[5]目前各法院引进的“机器人法官”或许有较强大的人工智能,但仍然只是法官的辅助工具,不是审判席上有知情意行的主体。
机器人法官的智能来源于“人工”,正所谓“人工智能”,也就是用计算机来模拟人的思维过程和智能行为,如学习、思考、推理、判断等。实现的方式主要有两种:一是基于逻辑的编程技术,如文字识别、案件比对等;另一种是模拟人类或生物机体的神经网络算法,不断地向大数据学习,不断地犯错误,不断地吸取教训,不断地改正错误,如自动驾驶、AlphaGo下围棋等。
智能机器人思维和推理的一般步骤是:(1)利用设计者嵌入的或后天习得的自然语言处理能力,理解“问题”涉及的语法和文本,从语言、表情和情景中找出要解决的“问题”;(2)评估“问题”涉及的各种含义,界定“问题”的实质和边界;(3)依据算法推理可能的解决方案,或从可能搜索到的大数据中寻找所有相似“问题”已经成功过的解决方案,或让各种方案比拼,确定胜出的方案;(4)将本案例的关键材料与选定的若干解决方案匹配,并对匹配的吻合度进行评分排名;(5)依据排名顺序提供多个解决方案和最优解决方案。所以,在记忆、搜索、运算确定的和重复的事务处理等方面,智能机器人可以比人类做得更好。向以往发生过的案例学习,为一个具体的判决提供尽可能丰富的法律依据和相似判决参考,智能机器人也可以做得比人类更快。目前及以后相当长的时间内,法院引进的“机器人法官”的功能都不会超出这个范围。
即便“机器人法官”还只是法院办案的辅助系统以及生物人类法官的智能工具,其对现有审判模式带来的冲击和变革仍然会是相当明显的。以下三个方面尤其需要引起足够的关注和重视,才能使审判体系和审判能力的现代化落到实处:
为防止冤假错案、保障司法公正,“以审判为中心”的司法改革正在推进。侦、诉、审三者以审判为中心,诉、辩、审三者“以庭审为中心”。根据“以庭审为中心”的要求,事实调查、证据认定、控诉辩护、定罪量刑、裁判说理都应从法庭审理中实现。也就是说,法官的内心确信主要是通过庭审,而不是通过庭外阅卷形成。在审判的多个环节引入智能机器人以后,庭审中心的内涵可能发生变化,事实调查、证据认定可能已经由诉、辩、审三方的法律机器人在庭外基本完成,或部分完成,定罪量刑也已经由智能机器人通过大数据比对给出多个选择及过往判例的百分比。若案件涉及的科学技术知识超出法官的知识结构,智能专家系统可能说了算。在这样的变革中,庭审中心的“庭”可能突破物理的法庭,法官的心证可能不那么自由,法官的确信有时要基于智能机器人的确信。譬如,智能机器人确信被告的有罪概率为85%,人类法官该如何抉择?是遵从机器人的判断,还是交给审委会?审判长有多大的裁决权?合议庭中可不可以有机器人法官的一席之地?如果可以有,机器人法官有没有投票权?如果有,权重是多少?由物理器件建构的智能机器人,从低价值密度的大数据中提取所需要的信息并推理,无论是作为书记员,还是作为证据分析的智能专家系统,都存在着出故障、犯错误的可能,由此产生的庭审错误,如何追究责任?从现行司法过程的制度和文化以及审判各方的权利关系来看,必须作出足够的调整才能恰当地容纳和利用这些“新人”。
就目前而言,可以让智能系统参与的事务性工作,可能不少于法院全部工作量的50%。例如,目前已经投入使用或即将投入使用的庭审书记员助手、判决书生成系统、同案不同判监测系统、危险驾驶罪判决系统、刑事案件智能辅助系统等,这些系统的投入使用,势必对审判队伍的素质要求特别是辅助人员的构成产生较大影响。书记员等事务工作人员可以减少,智能系统数据维护人员必须增加;法官的事务性工作将减少,审案效率会提高;办案痕迹和质量分析智能化,法官办案的规范性会加强,扁平化的网络监控使得法官考核更容易;机器人同行的参与对审判人员的知识结构和工作能力也会提出新的要求等。在这一背景下,审判队伍的重组成为审判体系和审判能力现代化的必然要求。
为了充分发挥智能系统的作用,需要重新规划审判流程。对事实调查、证据认定、控诉辩护、定罪量刑、裁判说理各部分进行模块化拆分和整合,适宜交给机器人的交给机器人,适宜庭外完成的在庭外完成,甚至可以考虑由相关方的人机组合,在规定的网络空间,限时或不限时诉辩,充分交流事实和证据,达成某些共识后,再开庭确认,减少庭审的程序和诉辩时间,提高审判效率。鉴于不同类别案件的审理程序和智能系统的功能差异较大,应当根据案件特征和智能系统的功能实现情况,对审判流程进行合法的重组。
从机器人“智能”的生成和累积方式可以看出,机器人法官的智能高度依赖以下两个因素:其一,设计者提供的逻辑推理框架——演绎推理,归纳推理,类比推理的数学模型、符号运算法则和神经网络算法模型。这个框架不完善,后续推理出错的可能性非常高。其二,对以往数据的学习、记忆和理解,并在此基础上形成一定的自组织和自适应能力。获得什么样的数据将决定机器人能学到什么。无论多么复杂高深的人工智能,总会带有设计者某种程度的偏好,甚至歧见。同时,机器人的每一次“质变”都依赖于足够多的“量变”,没有足够多的“量变”,机器人可能弱智。有了足够多的“量变”,机器人的“质变”则取决于用于学习的数据质量,数据的质量有多好,“机器人法官”就有多公正。显而易见,“机器人法官”的成长和应用,必然对现行的司法审判实践提出一系列严峻的挑战。
挑战之一:句子的意义不仅仅取决于词源词义、语法规则、逻辑实证,更取决于人们的约定俗成、感觉经验、思维方式、理念信仰;不仅取决于过去,还取决于当下;不仅取决于普遍意义,还取决于特定场合。如果要让智能机器人准确理解不同种族、地域和文化背景的人们以及与时俱进的语言所包含的态度、语义、要旨,我们为机器人准备的语料库能丰富到那样的程度吗?我们的法律用语能精确到那样的程度吗?经济社会的变迁速度远远超过我们制定法条实施细则和分类表的速度,要建设这样的语料库和案例库,其成本会不会使得某些深度参与案件审判的“机器人法官”没有存在价值?
挑战之二:可以依照智能机器人匹配的吻合度进行判决吗?不同案件之间的吻合度是依据什么确定的?这样的依据可靠吗?可以肯定的是,要件和细节百分之百相同的案件几乎不可能有,差之毫厘失之千里倒是可能。譬如,对平行进口采用商标权利国内用尽原则还是国际用尽原则,不同的法官可能作出不同的选择,很难对这样的判决进行对错之辩。无论是法律条文,还是学界,这类还没有定论的问题很多。社会在进步,人们的观念在变化,我们不能期待所有司法判决一经生成入库,就成为机器人可以长久学习的标准。
挑战之三:智能机器人在人流如织的大街上开车,在一个路口错过了,机器人可以自主重新规划线路,在下一个红绿灯处掉头。实在避免不了事故,则可以在小概率的大事故与大概率的小事故之间作出抉择。智能机器人战胜围棋顶尖高手,是因为一盘输了,还可以在下一盘扳回。机器人可以根据比赛规则和现有棋谱,几秒钟内模拟千万次的“对打”,从中找到最优策略。司法审判可以让机器人法官在小概率的大错案和大概率的小错案之间抉择吗?可能在原告和被告不出席的情况下模拟他们千万次的“对打”吗?也就是说,刑事案件的470个罪名,民事案件的467个二级案由,“机器人法官”得分门别类地进行千万次的学习演练,每一项新的法规或司法解释出台后,都需要大量的案例提供给“机器人法官”再学习,否则,“机器人法官”可能反复地提醒“系统错误”“请重新开机”。于是,当我们明知“机器人法官”只有79%的正确性,或者99%的正确性,我们能让“机器人法官”坐在审判席上断案吗?
挑战之四:智能机器人会学坏吗?如果我们对入库的案例进行甄别,不妨假定这样做是可能的,机器人学习的案例数量会大大减少,不能正确判断的案件也会增多。如果所有的案例都入库,案例库的平均判决质量会下降,机器人在学好的同时也学坏,人类的冤假错案可能被机器人重演。而且,这些智能机器人使用同样的案例库,同样的决策系统,一台出错另一台也会出同样的错,别指望高级法院的机器人比中级法院的机器人更高明。向过去的案例学习并裁决未来的案件,我们能放心吗?
挑战之五:我们的文化能接受机器审判人类吗?我们真的能给“机器人法官”人的权利吗?或者说,随着机器人智能的强大,生物人法官可以不给“机器人法官”审判长的权利吗?
关于智能机器人能否独立审案,关键难题有两个:一是机器人能否在大数据处理中准确地还原情感?二是机器人能否恰当地运用法律体系必须留给法官的自由裁量权?当然,也可以归结为一个问题,即怎样在法律的框架内,能动地展示法官的人性、人道和法治精神。
毫无疑问,能够数据化的知识,机器人都能学得很好。但心理学研究表明,人们回忆一件事情的过程,并不完全是事实重现的过程,也是对事实进行心理重构的过程。有人在路口的斑马线上被撞了,如果对目击证人提问:“你看见那个被撞的人闯红灯吗?”“你看见那个被撞的女孩闯红灯吗?”与“你看见那个低头玩手机的人闯红灯吗?”得到的结果很可能是不同的,尽管证人明白“那个被撞的人”“那个被撞的女孩” 与“那个低头玩手机的人”是同一个人。这说明,含在提问中的假定前提有可能改变大脑中的事实重构,并不是有意撒谎,而是因为某个假定前提触发了情感。
法官不同的心理倾向、个性特征、思维习惯、文化背景很容易在事实认知中留下印记。这种印记对于司法审判不可避免,正所谓法官是法律的嘴,法官在法律的框架内选择他愿意说的话。同样的语词、语句,不同的嘴表达出来的意思不尽相同。现做以下假定:一位刑庭的法官,在死刑判决宣布之后执行当天,要去会见死刑犯的家属,目睹生离死别;一位审理交通违法案件的法官,曾经差点被醉驾者撞死;一位审理合同纠纷的法官,亲人曾被诈骗得倾家荡产。类似经历产生的情感会不会影响法官对案件事实的重构和认知?技术可以让机器人心如止水,不受任何情感影响,人类法官却做不到。问题的意义在于,这类影响对法官把握事实背后的本质有益还是有害?对司法公正的作用是正面的,还是负面的?
广东省惠阳市惠阳区人民法院在于德水利用ATM机故障诈骗9万元案的判决书中认为,被告存在“明显的非法占有的故意”,“判处有期徒刑三年,缓刑三年,并处罚金人民币一万元”。这份被一些法律界人士誉为“最牛判决书”充满情感:“被告人于德水的父母早已病亡,其与几个姊妹相依为命,生活困苦”,“对于一个穷孩子来说,几乎是从天而降的钱财对他意味着什么?!我们不能苛求每一个公民都具有同等的道德水平和觉悟。同时,被告人取了钱带回老家,除了给弟弟一些钱,剩下的也一直不敢乱花,这说明他对社会管理秩序还是心存畏惧,被抓获之后,被告人随即全部退清所有款项,我们觉得,这孩子仍心存良知”。“合议庭三名法官做出的这一细致和认真的判断是基于我们的良知和独立判断,是基于我们对全案事实的整体把握和分析,是基于我们对法律以及法律精神的理解,是基于我们对实现看得见的司法正义的不懈追求”[6]。本案被告有“明显的非法占有的故意”,“已经构成盗窃罪”,却与之前类似的“许霆案”判决大不相同。许霆案最终认定的犯罪金额是17.5万元,终审判决有期刑期5年。惠阳区人民法院这份万字左右的判决书引发的社会反响强烈而正面。
关于情与法的很多研究基本忽略了法官自主的、正当的情感对司法判决的影响,也就是法官在社会环境中的情感体验所形成的心理倾向、思维模式、价值选择对司法判决的影响。司法案件的事实认知并不是2+3=5以及借债还钱、杀人偿命那么简单。正如惠阳区人民法院在判决书中所说,还有“良知”“对全案事实的整体把握”“对法律精神的理解”“对看得见的司法正义的不懈追求”,这些要素都要受到根深蒂固的情感影响,这里的情感是法官对人类、对社会的道德感和价值观,是对客观事物价值关系的主观反映,这样的情感支撑着恻隐之心、羞恶之心、恭敬之心、是非之心。
机器人能够准确地重构或者认知这样微妙的情感吗?更加困难的是,文化传统、知识背景、利益纠葛、兴趣偏好、情绪态度、观念信仰等因素,有些可以表达出来,成为计算机内的数据,有些则是默会的,与情感和人性紧密相连,优秀的人类法官或许可以意会,但难以言表。正是这类不可言传的默会知识,很多时候直接决定着法官的领悟能力、洞察能力和判断能力。这样的知识怎样教给机器人?机器人如何认知?是否可以认知?除了科幻小说以外,技术专家还没有看到可能性。
于是,我们还得回到法律适用方法的经典争论上来,即逻辑理性还是实践理性更为重要?法官面对的现实是,大量的案件必须依靠逻辑理性,同时也少不了实践理性,疑难案件尤其如此。在司法审判常用的三类逻辑推理方法中,演绎推理的大前提和小前提中不可避免地包含价值选择、人文态度和生活经验。归纳推理将大量面对不完全归纳,结论往往超出前提所断定的范围。对类比推理而言,判断类比对象相同点重要还是不同点重要的规则往往不确定。于是,“一个好的庭审取决于当事人、律师、法官,甚至社会其他成员(如证人、旁听人员)之间的成功合作”[7]。这种合作既包括对法律精神的尊重,对法条和司法过程的理解,又包括主张界定、争点梳理、事实认定、权利妥协中逻辑理性和实践理性的恰当融合。或者可以说,注入必要的、微妙的、精美的人类情感以后,我们向往的法律适用最佳方法往往并不存在,算法的“最优”在有些案件的审理中没有意义,法官需要寻找的是对于特定案例而言最适合的法律适用方法。法律适用方法对特定案例的“最适合”而不是“最佳”,就算“机器人法官”能够学会,那也是成千上万件类似案例入库以后的事情,那时此案早已非彼案了。
为了实现司法公正,我们不应该要求法官像没有人类意识和情感的机器那样断案,而是要抑制情感的负面作用,增强情感的正面作用,让法官的个人情感与社会的主流情感相通,跟随社会道德情操与时俱进。例如,2016年发生在山东省聊城市冠县经济开发区的“辱母杀人案”,当地一审法院条分缕析的判决引发了社会舆论一片哗然。“处在法律调节之下的行为和在伦理要求之下的行为或许会存在的冲突,显示出法的道理与人心常情之间可能会出现的罅隙。也正是在这个角度上看,回应好心人的诉求,审视案件中的伦理情境、正视法治中的伦理命题,才能‘让人民群众在每一个司法案件中都感受到公平正义’。也正是因此,转型期中国的法治建设,无论是立法还是司法,需要更多地正视这些人心经验,正视转型时代保护伦理价值的重要性,从而把握好逻辑与经验的关系、条文与人情的关系、法律与伦理的关系。”[8]从这个意义上我们可以说,法官在司法实践中应该有态度、有情感,这正是与人异类的智能机器人可能做不到的。至少在可以看得到的将来,算法不能设计人类的态度,技术也无法制造人类的情感,人类在复杂世界中千差万别的情感无法准确地进入机器人的决策系统,将机器人从过往案例中习得的情意表象用于当下的审判未必合适,因为这样的情感只能是生物人与生物人之间的事,没有人类情感的公正司法是不存在的。
“以事实为依据、以法律为准绳”是公正司法的基石,然而,文字表述的法条并不会自动成为分清是非、确认当事人权利义务的客观尺度。其一,法律可能出现空白,但法治精神没有空白,需要法官以专业的精神和能力为法规补漏。其二,法律条文中不可避免大量存在的“正当理由”“合理期间”“酌情”等用语,需要掌握法律精神和专业知识的人结合具体案情进行清晰界定。其三,法律在一定程度上滞后于社会发展有其合理性和必然性,即使是法律概念,也必须保持一定的开放性,才不至于使法规条文朝令夕改。这个开放性既是留给社会的,又是留给法官的。其四,程序正义仍然是保障实体正义实现的必要方法,法官在具体案件中基于目的正义的必要调整也是不可缺少的。其五,法治既包括硬法之治,又包括软法之治,很多没有经过立法程序的法规文件以及被社会普遍认可的公序良俗也是法律体系的重要组成部分,对这部分规范的理解和把握更多地取决于法官对社会主流价值的认同,对政府阶段性政策和社会舆论的把握。其六,依法判决的专业理性、利益相关者的权利要求以及社会大众对公平正义的理解之间往往存在着不小的鸿沟,这是任何法治体系中都会大量存在的难题,我国司法过程中的这类矛盾更加突出,恰到好处地运用自由裁量权修补这样的鸿沟,需要仔细地考虑每一个案件的特殊情况。
也就是说,在法官的司法实践中,适用的法律规则有时是不确定的,需要认定的事实有时是模糊的,逻辑过程有时是难以充分的。尽管有滥用自由裁量权,或自由裁量权使用不当,未能保障目的正义的现象存在,要求法官运用自由裁量权,准确而创造性地执行法律的原则仍然必须坚持。正如哈耶克所说:“对正义的实现而言,操作法律的人的质量比其操作的法律内容更为重要。”[9]用法律内容训练出来的“机器人法官”很难超越有质量的法律人,因此,无法将自由裁量权交给机器人。
机器人的智能再强大,也无法实现由法治精神、科学理性、人格品德和社会经验兼备的法官完成的自由心证,而自由心证已经成为世界上众多国家采用的一项证据原则和证据制度。法官也有公开自己心证的义务,使得当事人有机会针对法官的心证展开诉讼,减少或消除来自法官的诉讼突袭造成的司法不公。如果智能机器人成为独立审案的法官,相对固化的程序和算法面对复杂多变的庭审现场,无疑会大量产生和强化这类诉讼突袭。从20世纪70年代欧洲出现的法律人工智能库 WELBE和 LRS至今,人们一直在努力,试图让电脑逐步地代替人脑。“电脑量刑固然能在很大程度上排除在行使自由裁量权方面的主观任意性,但同时也会排除诸如自然法、人权保障、‘有耻且格’、预防为主之类的思辨性要素,还倾向于排除对各种不同利益进行权衡、考量等的政策性调整机制。可是司法的本质决定了诸如此类的思辨和整合化作业不仅无法排除,甚至还有必要在社会日益复杂化、动态化以及价值观越来越多元化的背景下有所加强。”[10]法律的生命不仅仅是逻辑,更是经验和价值。尤其是当双方证据都没有压倒性优势时,有丰富实践经验、有人性情感、有法治精神的法律人比装满精确程序和冰冷数据的机器更可靠。
智能机器人在司法领域可以大有作为,也应该大有作为。作为人类法官的得力助手,在司法事务处理方面,可以给人类法官提供尽可能多的支援、便利和多种判决参考。在这些方面,我们推进的步伐应该更快一些。应当记取的是,我们可以借助“机器人法官”提高审判效率,但不一定能节省人力、物力,至少在统一的、完善的法治大数据系统建立之前是如此。我们应该积极运用“机器人法官”辅助建立现代化的法治体系,提升法治能力,但也要警惕过分依赖冷数据和机器智能造成新的司法不公;我们既要造就一大批善于运用人工智能的新型法官,又要在引进“机器人法官”的同时,坚守人类法官的人性、人道和法治精神。
人是一切社会关系的总和。生物人的意识是生物人组成的社会的产物,生物人的本质既是历史的,又是现实世界的。至少在可以预见的将来,因为情感微妙而重要的存在,算法智能既不能完全解决语言智能的问题,更不能完全解决想象智能的问题。自由裁量权在司法实践中不可或缺,即便有那么一天,由于生物进化的漫长和众多客观条件的限制,电脑的智力超越人脑,人类官司的最后裁决权也不能完全交给“机器人法官”。人类的环境养大的机器人,不仅会有人类的优势,还会有人类的劣势,不仅会有人类的高尚,还会有人类的低下。趋利避害的选择同样会深入机器人的中枢。长期且大量依赖“机器人法官”断案,人类的法治思维、立法机制、法治能力会不断退化。我们原本希望“机器人法官”比人类法官更公正,更有效率,铁面无私辨忠奸,可能的结果却是,我们得恳求“机器人法官”给人类一个公正的判决。况且,到那时仅仅触动一个电源开关,就能让整个司法系统瘫痪。当代著名物理学家霍金的观点值得我们警醒:“人工智能的成功有可能是人类文明史上最大的事件。但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。”[11]法律体系的避险办法是:人是万物的尺度,人类公平正义的最后一道防线必须由人做主,尽管人类法官可能会误判,可能会徇私,可能有冤假错案,在一个健康的法律体系中,这些毕竟还属于可以更正的问题,属于社会法治和人类文明不断进步的着力点。将这些问题交由非我族类、其心或异的“机器人法官”,实在是一件祸福难料的事,至少目前还不能排除“开门揖盗、引狼入室”的可能。