郑 戈
戊戌年春节刚过,就有两则关于人工智能的新闻先后在微信朋友圈“刷屏”:一则关于特斯拉自动驾驶汽车,另一则关于一款法律人工智能产品(被称为“律政界AlphaGo”)。
自动驾驶汽车是人工智能最热门的应用领域之一,它结合了智能算法、传感器和执行器,可以说是一种有“感知”能力、“判断”能力和“执行”能力的智能产品。其鼓吹者不仅宣称自动驾驶汽车将大大减少目前全球每年100多万因交通事故死亡的人数,最终“将人类赶出驾驶座”,而且指出自动驾驶汽车将带来一系列生产力和生产关系方面的根本变革,比如人们可以在交通工具上工作,通勤时间不再是成本,而变成创造价值的时间,购买汽车并且让汽车大部分时间都躺在车库或停车场将被大多数人视为不明智的选择,招之即来、挥之即去的自动驾驶汽车将使汽车成为24小时都在路上的共享物品,这将极大缓解交通拥堵和停车位紧张等令人头疼的城市问题。但自动驾驶汽车真的安全吗?人们能把自己的人身安全交托给一部由算法控制的机器吗?当这部机器导致了人身伤亡和财产损失的时候,法律责任应如何分配?这些都是特斯拉事件促使我们再三思考的问题。
2018年2月27日,央视新闻客户端报道:历时一年多的河北邯郸车主高巨斌因特斯拉的Model S自动驾驶汽车在自动驾驶状态下发生事故造成其子高雅宁死亡而起诉特斯拉公司一案有了新进展,此前一直主张“没有办法知道”发生事故时车辆是否启用了“自动驾驶”(Autopilot)的特斯拉在大量证据面前被迫承认车辆在事故发生时处于自动驾驶状态。这起事故发生在2016年1月20日,是全球首起自动驾驶汽车致死事件。就在同年5月的一天,40岁的美国退伍兵、网络设备公司老板约书亚·布朗(Joshua Brown)驾驶的一辆特斯拉Model S自动驾驶汽车在佛罗里达州列维县(Levy County)的27A美国高速公路上与一辆卡车相撞,布朗当场死亡。美国国家交通安全委员会(NTSB)的调查表明,布朗和自动驾驶系统都未能识别出这辆卡车,特斯拉直接从卡车下面穿过,车顶被掀开,布朗的头部严重受伤,直到撞到一棵树上才停下。汽车的气囊在撞上卡车时也未打开,直到撞树时才打开。1Gareth Corfield, “Tesla Death Smash Probe: Neither Driver Nor Autopilot Saw the Truck”, The Register, June 20, 2017,https://www.theregister.co.uk/AMP/2017/06/20/tesla_death_crash_accident_report_ntsb/, accesscd on March 22, 2018.
值得注意的是,这两起事故发生时,中美两国都未曾制定允许自动驾驶汽车上路的道路交通管理规则和事故责任规则。直到今天,相关的规则也仍在酝酿过程之中。而这些事故使我们看到,智能算法操纵的汽车早已默默上路,正在与人类司机驾驶的汽车互动。事故早已先于规则出现。同时,这两起事故中丧生的司机都是退伍军人,这个特定身份或许意味着他们敢于冒险,在事故发生时他们都没有“驾驶”汽车,而是放心地把自己的安危交给智能算法。但现实生活中大多数人都是“风险规避者”,对于不能确定是否安全的新产品,我们总是不愿意贸然去尝试。立法可以起到稳定人心的作用:虽然法律不能消除事故,但可以让人们觉得有安全保障。
这类事件引出了本文要讨论的第一个问题,即算法的法律。我们正在进入“算法统治的时代”。越来越多的人拥有不止一种穿戴式智能设备,从智能手机、智能手环、智能眼镜到智能运动鞋、智能手套、智能服装,我们有些人生活在智能家居环境中,室内遍布着智能照明系统、智能冰箱、智能洗衣机、扫地机器人、擦窗机器人,等等。这些设备随时随刻都在向“云端”传送着我们的各种信息,从心跳、脉搏等身体信息到消费信息、饮食习惯、活动轨迹,等等。我们因此成为“物联网”时代的“量化自我”(quantified self)或“可测度的自我”(measurable self),2Sander Klous, Nart Wielaard, We are Big Data: The Future of the Information Society, Atlantis Press, 2016, p.61.我们的一举一动都留下了电子痕迹,变成可供处理、分析和利用的数据。但我们并不拥有这些数据,也无法控制这些数据,数据属于为我们提供各种服务的“大数据掌控者”。因此,量化自我可能是一个不准确的概念,它让我们误以为我们可以借助大数据来更好地进行自我管理和自我实现。更准确的概念应该是“被强加给个人的量化身份”。3Frank Pasquale, Danielle Keats Citron, “Promoting Innovation While Preventing Discrimination: Policy Goals for the Scored Society” , Washington Law Review,Vol.89 (2014), p.1414.
人不是数据,更不是电子痕迹的汇总,但技术正在使数据得到处理和整合,形成各种各样的自动化区分、评分、排序和决策,这些活动反过来使我们的“真实自我”在社会层面变得无关紧要。我们进入所谓“微粒社会”,4[德]克里斯托夫·库克里克:《微粒社会:数字化时代的社会模式》,黄昆、夏柯译,中信出版社2017年版。我们都成为数据,并最终成为被算法所定义的人。算法权力(algorithmic power)这种新兴的权力并不把我们当成“主体”来对待,而是作为可计算、可预测、可控制的客体。5John Cheney-Lippold, We Are Data: Algorithms and the Making of Our Digital Selves, New York University Press, 2017,p.141.在这里,马克思和恩格斯在一百多年以前所描述的资本主义对全部社会关系的革命性改造在数字技术的帮助下以更加彻底的方式得以推进:“一切固定的僵化的关系以及与之相适应的素被尊崇的观念和见解都被消除了,一切新形成的关系等不到固定下来就陈旧了。一切等级的和固定的东西都烟消云散了,一切神圣的东西都被亵渎了。”6[德]马克思、恩格斯:《共产党宣言》,载韦建桦主编:《马克思恩格斯选集》(第一卷),中共中央马克思恩格斯列宁斯大林著作编译局编译,人民出版社2012年版,第403页。大数据掌控者们借助越来越智能化的算法分析和利用着我们的数据,开发着靠数据化的人类经验喂养的人工智能产品,在为我们的生活提供越来越多便利的同时影响着我们的选择和决策,并在此过程中积累起日益膨胀的财富、技术和人力资源。我们时常听到各种美妙的新词汇,比如共享经济,似乎我们都是这个新世界的主人,分享着它所带来的各种好处,但“共享经济其实是一种聚合经济”,7Don Tapscott, Alex Tapscott, Blockchain Revolution: How the Technology Behind Bitcoin Is Changing Money, Business,and the World, Penguin, 2016, p.28.它所产生的巨大利益属于聚合数据的平台或“架构”,我们都在为自己的消费付费,而我们在消费的同时也都在生产,生产着数据,但没人为我们的数据生产支付报酬。我们是生产性的消费者(prosumer),“免费”使用APP或其他网络服务就是我们的报酬。8参见 Birgit Blättel-Mink und Kai-Uwe Hellmann (Hrsg.), Prosumer Revisited: Zur Aktualität einer Debatte, VS Verlag für Sozialwissenschaften, 2010。由此可见,有形的自动驾驶汽车只是算法影响人类生活的一个例子,而无形的智能算法已经改变了我们生产方式、消费方式和生产关系、社会关系。法律如何规制算法,解决算法所带来的主体性流失、权利损害和歧视问题?现有的立法和规制模式已经提供了一些可供参考的方案,通过比较这些方案,评析其利弊,我们可以形成一条相对清晰的思路。
第二则新闻是:专门从事法律人工智能产品开发的LawGeex公司与斯坦福、杜克和南加州大学的法学教授们合作进行了一项新的研究,让20名有经验的律师与训练好的法律智能算法竞赛,在四小时之内审查五份保密协议,找出包括保密关系、保密范围、仲裁、赔偿在内的30个法律问题点,以界定法律问题的准确和明晰程度作为得分点。人类律师平均花费9“Cambridge students organise 'AI v Lawyers' challenge,” https://www.law.cam.ac.uk/press/news/2017/11/cambridgestudents-organise-ai-v-lawyers-challenge, accesscd on March 25, 2018.2分钟完成了任务,准确率是85%,而人工智能系统仅用了26秒就完成任务,准确率高达95%。实际上,这已不是人工智能在法律技能竞赛中第一次打败人类了。2017年11Niklas Luhmann, Theory of Society, Volume I, translated by Rhodes Barrett, Stanford University Press, 2012, p.69.月,剑桥大学法学院的学生们组织一次人—机法律竞赛,由112European Parliament, Report with Recommendations to the Commission on Civil Rules on Robotics, A8-0005/2017, http://www.europarl.europa.eu/sides/getDoc.do?type=REPORT&reference=A8-2017-0005&language=EN, accesscd on March 25, 2018.位自愿报名参赛的律师和开发法律人工智能产品的新创企业CaseCrunch的一款产品进行比赛,比赛内容是预测金融申诉专员(Financial Ombudsman)对付款保障保险(PPI)不当销售申诉实际案例的裁断,结果人工智能产品的预测准确率高达86.6%,而人类律师的预测准确率只有62.3%。9“Cambridge students organise 'AI v Lawyers' challenge,” https://www.law.cam.ac.uk/press/news/2017/11/cambridgestudents-organise-ai-v-lawyers-challenge, accesscd on March 25, 2018.
这一类事件涉及本文要讨论的第二个问题:法律的算法,即法律人的推理和判断在多大程度上能够被算法所取代,或者说,法律职业在多大程度上能够被法律人工智能产品所取代。这是法律职业者们所关心的问题。算法能为法律做什么,取决于我们对法律思维和法律方法的理解,也取决于算法本身的发展状态。本文第三部分将重点讨论法律算法化的可能性及其限度。
信息技术革命带来了新的权力形态,导致了“算力即权力”的新现象,同时也使传统上用来抗衡国家权力的公民权利面对更隐微、更无所不在、更多元化的权力技术的侵蚀。法律是一种技艺,更是一套形塑体现人类基本价值的良好秩序的规范体系。面对新型的权力格局和权利处境,法治将向何处发展?未来的法治秩序将呈现何种面貌?这是本文最后一部分将会讨论的问题。
技术是导致经济—社会变革的重要变量之一,而且是不可逆转的变量。法国哲学家德布雷(Régis Debray)写道:“归根到底,唯一跳出星球运转的循环意义外的革命不是政治革命而是技术革命,因为只有它们才是不复返的。有了电流后就不再用蜡烛,有了汽轮船就不再用帆船。然而有了十月革命还是回到了东正教……”10[法]雷吉斯·德布雷、赵汀阳:《两面之词:关于革命问题的通信》,张万申译,中信出版社2015年版,第23页。人工智能是一种正在给人类社会带来全方位的深刻变革的技术,正像所有的技术一样,它服务于特定的人类目的。但机器学习(尤其是无监督学习)结果的不可控性又使人工智能不同于以往的技术,其中蕴含着更大的风险和不确定性。法律应当如何规制人工智能,从而在鼓励创新的同时保护人类社会的基本价值并将风险保持在可控范围之内?这是一个已经引起广泛讨论和立法回应的问题。
人工智能从某种意义上讲是一种能够学习、判断和决策的算法,它模仿和替代人类智能的潜质促使人们重新思考人与机器之间的关系。德国思想家卢曼(Niklas Luhmann)指出:“电子数据处理技术已经改变了人与机器之间的关系。这种技术不能再被认为是对体力劳动的辅助,因此要求我们重新界定人与机器的关系。‘人工智能’研究体现了这种变化——甚至开始质疑将问题表述成人机关系就认知科学的目的而言是否妥当。”11Niklas Luhmann, Theory of Society, Volume I, translated by Rhodes Barrett, Stanford University Press, 2012, p.69.
对“人机关系”新形态最先作出立法回应的是欧盟。2016年,欧洲议会提出了“机器人法”立法建议报告。12European Parliament, Report with Recommendations to the Commission on Civil Rules on Robotics, A8-0005/2017, http://www.europarl.europa.eu/sides/getDoc.do?type=REPORT&reference=A8-2017-0005&language=EN, accesscd on March 25, 2018.鉴于人工智能可能在无人监管的情况下做出“决策”并自主执行这样的“决策”,该报告在第50(f)项建议:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人(electronic persons)的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格(electronic personality)。”韩国国会正在讨论的《机器人基本法案》以欧盟的这份报告为范本,也提出要“赋予机器人以享有权利并承担义务的电子人格。”13参见https://www.lawmaking.go.kr/lmSts/nsmLmSts/out/2008068/detailRP,2018年3月25日访问。沙特阿拉伯则在没有相关立法的情况下在2017年授予一家香港公司生产的机器人索菲亚以公民身份并向“她”发放了护照,其主要目的是给沙特的人工智能发展战略做宣传。
实际上,在如何落实这种“法律人格”所必然带来的民事行为能力和责任能力时,欧洲议会报告并没有提出具体的方案。如果机器人对人造成了损害,无论是适用罗马法中的“缴出赔偿”(noxoe deditio)原则(把机器人交给受害者或其家属处置),还是让机器人支付赔偿金或坐牢,最终承担责任的始终是机器人的“主人”,因为机器人不可能有独立的收入,限制它的“自由”则等于剥夺了其“主人”的财产权。由此可见,机器人无论以何种方式承担责任,最终的责任承担者都是人,这使它的“法律人格”显得多余和毫无必要,经不住“奥康剃刀”(如无必要,勿增实体)的检验。实际上,这份报告在具体的规则设计部分也自动放弃了适用机器人“法律人格”的努力,比如,它提议制造商为他们的机器人购买强制性保险。此外,还要设立专门的基金来补充保险机制,主要的出资人也是制造商、经销商和其他利益相关者。
赋予具有自动化决策(ADM)能力的人工智能体以法律人格并不是一种完全不可行的模式,不可行的是目前这种缺乏相应法律能力和法律责任分配机制的简单拟人化模式。出于解决问题的需要,法律当中充满着各种拟制(fictions),“法人”这种“不可见、不可触、只存在于法律的凝思之中”14马歇尔大法官语,参见Dartmouth College v. Woodward, 4 Wheaton 518, 627 (1819)。的就是其中的一种,它导致了独立于自然人的行为能力和责任能力规则。要使“电子人”这一新的法律拟制有意义,就必须对智能算法的设计原理、它与人(设计者和使用者)之间的互动模式以及它做出决策的自主程度进行详细的研究、分类和基于应用场景的规则设计,15可参见Argyro P. Karanasiou, Dimitris A. Pinotsis, “A Study into the Layers of Automated Decision-making: Emergent Normative and Legal Aspects of Deep Learning” , International Review of Law, Computers & Technology, Vol.31, Issue 2(2017), pp.170-187。从而使它能够带来现行自然人和法人概念所无法得出的权责规则。
法律,尤其是私法,所体现的核心价值是交换正义和矫正正义。对于自愿的交易,法律旨在确保承诺的履行,合同法便是为了实现这一功能而出现的。对于非自愿发生的初始状态改变,对损害给予救济的侵权法原则和对不当得利予以返还的民法原则(restitution)是主要的法律介入形式。将矫正正义的形式法则应用于各种事实场景的技艺被认为是法律的独特技艺所在,体现了柯克(Edward Coke)所说的“人造理性”。16Charles Fried, “Artificial Reason of the Law or: What Lawyers Know” , Texas Law Review, Vol.60 (1981),p.35.影响甚大的多伦多大学新形式主义法律学派将矫正正义的概念化、类型化和系统化处理视为法学维持自身独立品格、避免受法律和社会科学交叉学科侵蚀的关键所在。17参见Ernest J. Weinrib, The Idea of Private Law, Oxford University Press, 1995; Ernest J. Weinrib, Corrective Jus-tice,Oxford University Press, 2012; Stephen Waddams, Dimensions of Private Law, Cambridge University Press, 2003。这种思路明显体现在人工智能若干应用场景的法律回应之中,自动驾驶就是一个例子。在特斯拉Model S自动驾驶汽车造成人员死亡的中美两个案例中,争议的焦点都在于发生事故时车上的自动驾驶系统是否处于启动状态,其中所体现的侵权法原则是:在事故责任不在于别的车辆的情况下,如果汽车处在自动驾驶状态,责任应当由汽车制造商承担;如果汽车处在人为操作状态,责任则在于司机。虽然中美两国都还没有专门针对自动驾驶汽车的交通事故责任进行立法,但这样的基本原则却已经包含在现有的法律体系和法律人的“默会知识”之中。实际上,这一原则源远流长,可以追溯到马车、骡车时代的古罗马。
《学说汇纂》中有一项基本的法律原则:如果人为原因造成了损害,就需要从结果回溯到原因,法律存在于因果关系之中(in causa ius esse positum)。同时,法律只惩罚有过错的行为,在确定法律上的请求权基础的时候,我们不仅需要找到因果关系(causa),还需要发现过错(culpa),因为“恶意和过失才是应受惩罚的”(dolus et culpa punitur)。18Iustinian, Digesta Iustiniani Augusti, Vol.I, ed. and trans. Theodor Mommsen, Berolini: Apud Weidmannos, 1870, 9.2.30.3.《学说汇纂》第九卷第1章讲述了四脚动物导致无意损害的请求权问题。一般原则是:动物的主人要么将其交给受害人一方自由处置,要么作出经济赔偿,用今天的话来说,这是一种严格责任。在法学家阿非努斯与一名奴隶主之间的对话中,奴隶主问法学家:有两辆骡车在卡皮托尔山的上坡路上行进,第一辆车的车夫在后面推骡车,以便协助骡子上坡,但不知何故这辆骡车突然后退,车夫为了自身安全闪开了,以至于这辆车撞上了后面一辆车的骡子,导致第二辆车撞上了一名奴隶男孩。我应当向谁提起诉讼?法学家答曰:法律要到因果关系中去寻找。如果是车夫主动改变原来的行为方式导致骡子后退,那么就应当向车夫提起诉讼。因为放开某物令其对他人造成伤害就跟主动拿出武器伤害他人一样。如果骡子后退是因为受到惊吓,车夫退让是为了自保,那么,更合理的方式是向骡子的主人提起诉讼。如果是因为骡子无力负重或车夫无力继续推车,那么奴隶主对骡子主人和车夫都没有请求权。19Ibid.,9.2.52.2.今天的自动驾驶法仍体现了这个古老的法律规则,只要我们把骡子换成自动驾驶系统。
2017年5月,德国联邦议会通过了一部法案,对德国《道路交通法》进行了修改,允许高度自动化和完全自动化的汽车作为交通工具上路。但为了符合1968年《维也纳道路交通公约》第8条“每一部车辆在行驶时都必须有驾驶员在位”的规定,它没有允许自动驾驶汽车变成“无人驾驶”汽车。它规定,当自动驾驶系统启动之后,司机可以转移注意力,比如去读书或上网,但他必须保持足够的警觉,以便在系统发出请求时恢复人工控制。它还要求高度或完全自动化汽车安装记录驾驶过程的黑匣子,在没有卷入交通事故的情况下,黑匣子信息必须保存半年。如果自动驾驶模式正在运行过程中发生了事故,责任在于汽车制造商。但如果自动驾驶系统已经发出了请求人工控制的信号,责任便转移到了驾驶人员身上。
德国的这部法律受到业界的猛烈批评。有人指出,在新法下,司机不知道该怎样做才能避免法律责任,自动驾驶汽车无法实现真正的“无人驾驶”,也就是车上只有乘客而没有驾驶员,阻碍了自动驾驶汽车的商业化发展。试想,如果一个花比传统汽车贵得多的价钱购买了自动驾驶汽车,却时刻必须保持警觉,而且要在自动驾驶系统控制汽车操作一段时间后瞬间介入,应付紧急情况,这实际上对驾驶员提出了更高的要求。新法把自动驾驶汽车造成人身伤亡的最高赔偿额度提高到1000万欧元,比原来的最高赔偿额度增加了一倍。虽然这笔赔偿在多数情况下将由保险公司支付,但保险公司无疑会提高保费,这也增加了自动驾驶汽车车主的负担。
对于一种深刻改变着社会而其中包含的风险尚无法确知的技术,损害发生之后的司法救济显然无法确保社会的公共利益。因此,许多国家都试图设立专门的规制机构来负责人工智能研发和产品化过程中的风险评估、风险沟通和风险管理。比如,欧洲议会报告中便提议设立一个“欧洲机器人和人工智能局”来统筹该领域的风险规制工作。2017年12月,美国众议院讨论了由议员约翰·德莱尼(John Delaney)提出的《人工智能的未来法案》,其中的主要内容也是要求在商务部内设立一个“联邦人工智能发展与应用顾问委员会”,就人工智能涉及的技术、商业、国家安全等问题进行综合研判并向政府提供立法和规制建议。该法案特别强调了促进人工智能发展与防止其负面影响之间的平衡问题,指出人工智能技术的持续发展对于美国的经济繁荣、社会稳定和国家安全具有至关重要(critical)的意义,不能因为担忧其不可控的风险就采取过多的抑制措施。此外,日本经济产业省已经于2015年7月1日在产业机械课内成立了“机器人政策室”,20《日本经产省成立机器人政策室》,载 http://finance.sina.com.cn/world/20150701/122322562315.shtml,2018年3月10日访问。前述韩国《机器人基本法案》当中也提出要建立直接对总理负责的“国家机器人伦理、政策委员会”。
2017年9月在美国众议院通过的《自动驾驶法》(Self Drive Act)也采取了这种以风险规制为侧重点的公法模式。它没有改变现有的道路交通规则和与事故责任相关的侵权法规则,而是用宪法和行政法的思维方式划分了联邦与各州之间在规制自动驾驶汽车方面的责任,明确了交通部在确立自动驾驶汽车硬件安全标准、网络安全标准、公众知情标准等方面的具体义务和履行时间表。其中第12条强化了隐私权保护,要求制造商和经销商只有在提出了满足一系列具体要求的“隐私权保障计划”的前提下才可以供应、销售或进口自动驾驶汽车。这些要求旨在确保自动驾驶汽车的车主和使用者对个人数据和隐私有充分的控制能力,不至于在自己不知情的情况下任由制造商或程序设计者使用自己的个人数据。风险规制模式下的隐私权保障计划是由大数据使用者自己提出的,政府在其中充当把关者的角色,规制部门是厂商与消费者之间的中立第三方,这一点与下述预防模式下政府积极控制技术发展方向的做法不同。
当一种新技术对社会的影响在科学上尚无定论的时候,如果这种影响有可能是负面的、巨大的和不可逆转的,决策者就应该假定它会造成这种影响,并据此来制定相关政策和法律。这就是“风险预防原则”(Precautionary Principle)。对该原则最广为人知的表述出现在1992年的《里约宣言》中,该宣言的第十五条指出:“在严重的或不可逆转的损害威胁存在的领域,缺乏充分的科学确定性不应成为暂缓采取有成本效益的措施来防止环境恶化的理由。”21United Nations Environment Programme (UNEP), Rio Declaration on Environment and Development, Principle 15. Rio de Janeiro, Brazil, June 14, 1992.这一原则也正在被适用到人工智能领域。
机器学习以大数据为素材,采取预防模式的欧盟选取了数据这个源头作为切入点来杜绝可能带来权利侵害的算法。即将于2018年生效的《一般数据保护条例》一体适用于对个人数据的自动化(算法处理)和非自动化处理(第2条),其目的在于保护数据流动和数据处理过程中自然人所享有的数据权利(第1条)。而个人数据的定义十分宽泛,包括与已被识别出(identified)或可被识别出(identifiable)的自然人相关的任何信息。其中对“可被识别出的”个人数据的保护对算法设计者提出了很高的要求,包括采取匿名化等一系列使数据无法被关联到具体个人的技术手段(第4条)。对个人数据的处理要符合合法、公平、透明、目的具体且有限、准确、安全等原则(第5条)。除非在法律明确规定的条件(比如数据主体明确同意)下,处理数据的方式不得显示出个人的种族、民族、政治观点、宗教或哲学信仰、工会成员身份等,处理的对象不得包括基因数据、使某个人被识别出来的生物计量学数据、健康数据以及性生活或性取向数据(第9条)。22该条例全文见:http://gdpr-info.eu,2018年3月15日访问。该条例明确列举了数据主体的若干具体权利,包括充分知情权、要求更正权、要求删除权(被遗忘权)和限制处理权(第15—18条),旨在强化数据主体对涉及自身的所有数据的控制能力。在鼓励创新和保护权利之间,欧盟立法者选择了后者,预先给智能算法的发展划定了界限。23更详细的论述参见郑戈:《在鼓励创新与保护人权之间:法律如何回应大数据技术革新的挑战》,载《探索与争鸣》2016年第7期。
不仅如此,控制机器学习可用的数据来源的做法基本无视了智能算法的现有技术状态。对个人身份的已识别或可识别状态往往是数据分析的结果而不是起点,现有的智能算法已经能够对海量的无结构数据(包括百度搜索记录、淘宝购物记录、手机GPS信息等各种电子痕迹)进行分析和处理,最终实现“完美个人化”,即准确识别出某一特定个人的身份、社会属性和偏好。从数据是否已包含个人身份信息入手来规制算法无法达到保护个人权益的目的。
上述各种模式都没有超出传统的公法和私法概念框架,试图用既有的权利保护—司法救济方式来间接影响算法的设计。但也有一些国家已经开始尝试直接规制算法设计本身,试图让法律和伦理规范进入算法。其中比较典型的是,德国交通部部长任命的伦理委员会最近提出的一个报告,展现了一种完全不同的思路:要求算法编写者遵守一系列伦理法则。其中提出了20 条伦理指导意见,核心是把人的生命放在首位。比如,其中第7条要求:在被证明尽管采取了各种可能的预防措施仍然不可避免的危险情况下,保护人的生命在各种受法律保护的权益中享有最高的优先性。因此,在技术上可行的范围内,系统必须被编程为在权益冲突时可以接受对动物和财产的损害,如果这样可以防止人身伤害的话。第八条规定,诸如伤害一个人以避免对更多人的伤害这样的伦理难题不能通过事先编程来处理,系统必须被设定为出现这种情况下请求人工处理。24Maßnahmenplan der Bundesregierung zum Bericht der Ethik- Kommission Automatisiertes und Vernetztes Fahren(Ethik-Regeln für Fahrcomputer), https://www.bundesregierung.de/Content/DE/Artikel/2017/08/2017-08-23-ethikkommission-regeln-fahrcomputer.html.
但这种将规则写入算法的做法只有在特定的算法设计模式中才有可行性,而很难被适用到像人造神经网络算法(ANN)这样的模式之中,因为这一类算法的特点和优势就是人类无法控制机器学习的结果。从机器学习模式的角度来看,只有监督学习状态下的算法才在设计者的掌控之下,对于无监督学习和强化学习而言,结果是无法预测的。法社会学家托依布纳(Gunther Teubner)曾以侵权法中的过失责任原则为例来说明这个问题:在现有的侵权法结构内,过错是指行为主体未能尽到注意义务。算法设计者的直接责任只能适用于监督学习,在此情景中人类行动者能够控制算法的输入和输出。而对于无监督学习和强化学习,唯一可以借用的是主人对宠物、监护人对被监护人或者雇主对雇员的看管责任(respondeat superior或 Erfüllungsgehilfe), 但确立这种责任要求被看管者的行为有一定的可预见性,即“对计算机行为之技术能力的常规化预期”。25Gunther Teubner, “Rights of Non Humans? Electronic Agents and Animals as New Actors in Politics and Law”, Journal of Law and Society ,Vol.33 (2006),p. 509.这种预期对于如今的智能算法而言是很难获得的。实际上,人们之所以对人工智能如此热衷,恰是因为它能带来超出人们预期的惊喜。但同时人们也担心它带来的是惊吓。因此,有学者建议,如果人类无法控制某种算法的结果,那就不能将它应用到影响人类生活和人际互动的场景中,而只能用于科学研究和游戏(如下围棋)。法律可以通过相应的责任设计,比如让算法设计者或其雇主对算法造成的损害承担严格责任,从而引导他们选择更有可预见性、更可控的算法。26Trevor N.White, Seth D.Baum, “Liability for Present and Robotics Technology”,in Patrick Lin, Ryan Jenkins, and Keith Abney (eds.), Robotics Ethics 2.0: From Autonomous Cars to Artificial Intelligence, Oxford University Press, 2017, pp.66-79.但这种建议的提出者所考虑的是自动驾驶汽车和机器人这种能够同人类接触并造成身体伤害的智能产品,而没有考虑到无形的算法评分、算法排序和算法决策对人造成的影响。在这些场景中,算法往往是无形的,人们无法判断损害是否由它造成,更不清楚算法本身是如何编写的。算法往往属于企业的“商业秘密”,是受法律保护的名正言顺的“黑箱”。
在美国,已经有案例涉及算法黑箱问题。2013年年初,威斯康星州指控艾瑞克·鲁米斯(Eric Loomis)五项刑事罪行,都和一起驾车枪击事件有关。鲁米斯否认自己参与了枪击,但承认自己在案发当晚驾驶过那辆车。在辩诉交易中,他承认了两项较轻的罪名:“企图逃避交警以及未经车主同意擅自驾车”。在量刑阶段,法院收到州政府罪犯改造部门提交的一份量刑前调查报告(PSI),其中包含再犯风险评估内容(COMPAS)。在初审判决中,法院在量刑部分援引了COMPAS评估的内容,并且部分基于这一评估判处鲁米斯六年监禁外加五年监外管制。在申请定罪后救济动议(motion for post-conviction relief)被拒后,威斯康星州上诉法院批准了向州最高法院上诉。鲁米斯的上诉理由是法院对COMPAS评估的依赖侵犯了他的正当程序权利。正当程序权利包括获得个别化量刑考量的权利(the right to an individualized sentence)以及基于准确信息而受量刑的权利(the right to be sentenced on accurate information)。由于COMPAS评估报告提供的数据是类型化的,未能充分体现个人特殊性,同时由于作出评估的方法是COMPAS算法的提供者Northpointe公司的商业秘密,其可靠性无从判断,鲁米斯主张自己的上述两项权利受到了侵犯。此外,他还声称该算法评估将他的性别作为一个因素加以考量,侵犯了他的平等权。27State v. Loomis, 881 N. W. 2d 749 (Wisconsin, 2016).
威斯康星州最高法院支持了初审法院的判决。在安·布拉德利(Ann Walsh Bradley)大法官撰写的多数派意见中,鲁米斯的正当程序和平等权主张被一一否定。首先,法院认为性别因素是作为提升评估准确性的目的而非歧视目的而进入算法参数的,而且鲁米斯无法证明法院在量刑时的确考量了性别因素,因此他的平等权并未受到侵犯。其次,因为COMPAS所分析的数据是记录在案的公共数据(犯罪记录)和被告自己提供的数据(他对137个问题的回答),因此,被告在算法评估结果出来之前本来就有机会否认或解释相关信息,也有机会验证相关信息的准确性,因此质疑信息准确性的主张站不住脚。最后,关于量刑个别化问题,法院承认COMPAS算法评估的结论揭示的是与鲁米斯相似的一类人的再犯风险,但指出该评估结论不是法院作出量刑判决的唯一依据,由于法院拥有在其认为适当的情况下不同意评估结论的裁量权和相关证据,因此该量刑判决是充分个别化的。28State v. Loomis, 881 N. W. 2d 749 (Wisconsin, 2016).还可参见Jason Tashea, “Calculating Crime: Attorneys Are Challenging the Use of Algorithms to Help Determine Bail, Sentencing and Parole Decisions”, A.B.A Journal Vol.103 (March 2017),pp.54-60。该文提到了若干与鲁米斯案类似的涉及“算法量刑”的案例。
从这个案例可以看出,当算法涉嫌针对个人作出了歧视性的或错误的评估或决策的时候,至少在美国,法院倾向于保护算法产品厂商的商业秘密,这种权益被视为没有争议的前提,法院不会要求厂商公开算法代码,也没有要求厂商用自然语言解释算法的设计原理、功能和目的。但算法可解释性是“算法的法律”可以成立的前提。人不可能控制或约束自己不懂的东西。之所以说人工智能算法进行深入学习的过程是个黑盒子,主要的原因除了它的保密性外,更重要的是即使公开了法官和律师也看不懂。算法可解释性乃至可视化是一个可以用技术解决的问题,一旦法律提出了相关要求,技术界便会想方设法使算法成为可解释的。比如,在2018年3月7日,谷歌大脑团队的克里斯·欧拉(Chris Olah)公布了一项题为“可解释性的基础构件”的研究成果,29Chris Olah, “The Building Blocks of Interpretability”, https://distill.pub/2018/building-blocks/, accessed on March 15, 2018.该成果解决了神经网络这种最令人难以捉摸的算法的可视化问题,谷歌将其比喻为人工神经网络的核磁共振成像(MRI)。如果说神经网络算法所处理的海量数据及其复杂运算过程会使人脑“超载”,这种可视化解释技术简化了相关信息,使算法的工作状态回到了“人类尺度”,能够被普通人看懂和理解。谷歌还对这种“解释算法的算法”做了开源化处理,使其他技术人员能够在此基础上编写适用于不同算法和场景的解释性算法。
由此可见,法律进入算法不能靠立法者和规制者的单方面努力,而需要法律人与技术人员的合作。正如李彦宏等人在《智能革命》中所指出的那样:“……也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工科专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。”30李彦宏等:《智能革命:迎接人工智能时代的社会、经济与文化变革》,中信出版集团2017年版,第312页。法律人可以向技术人员解释法律规则的要求,而技术人员可以设计出符合法律要求的算法。法律和技术都是非自然的“人工”造物,两者都服务于使人类生活更加美好的目的。在人工智能时代,一种新的职业——法律知识工程师——正在诞生,这种职业是由能够用技术解决法律问题的人士和能够用法律服务技术发展并将技术套上法律缰绳的人士共同组成的。人工智能是能够在给定问题的前提下通过深度学习和强化学习寻求最优解的智能算法,它需要人类提出正确的问题,对错误问题的正确解答可能带来灾难性的后果。法律就是用来划定问题域之边界的,它不能确保最佳问题的出现,但可以防止最邪恶问题的提出。
如何用算法来强化法律取决于人们对法律、法律推理和法律判断本身性质的认识,而统一的认识并不存在。因此,关于人工智能在法律领域之应用的讨论迫使人们回到基础性的法理学问题。从世界上第一份专业的《人工智能与法律》期刊(Artificial Intelligence and Law)上所发表的论文来看,绝大多数是基于分析主义法学对法律的理解来讨论如何建模的文章。这一现象是由人工智能本身的认识论基础决定的,但它也使丰富的法理学讨论贫弱化。当我们用技术来解决人类问题的时候,意味着人类问题本身的复杂性和丰富性被简化了,这是一个普遍的问题。
人工智能的认识论基础是“认知可计算化”,在人工智能技术的几大流派中,符号主义试图用符号—逻辑演算来模拟人类大脑的认知和决策过程;连接主义(又称神经网络学派)试图通过人造神经网络的并行计算来建构大脑;而行为主义者则试图通过遗传算法进化出人工大脑。它们的基础假设都包括:(1)大脑是人类认知和智能活动的载体;(2)认知和智能活动是一个物理-化学过程,其机理主要是神经元之间通过分泌化学递质和释放电子来完成的信息交流;(3)图灵机可以模拟任何物理-化学过程;(4)通过分析和处理真实人类世界的行为数据可以帮助机器来模拟人类的认知和决策,反过来,通过研究虚拟世界各种人工智能的详情可以把握真实世界人类认知和智能活动的基本结构和过程;(5)一切认知和智能活动的复杂系统都可以通过各个组成部分的动态行为和整体交互作用来解释(整体主义的还原主义假设)。31刘晓力:《认知科学研究纲领的困境与方向》,载《中国社会科学》2003年第1期。
认知可计算化,人脑功能最终可以用计算机模拟,这一认识论不仅被许多计算机专家所接受,而且得到来自脑科学家的佐证。主流的脑科学家相信,人脑是由一千亿个神经元构成的,神经元之间的连接方式决定了我们的所思所想,除了神经元之间的物理通讯机制(放电)和化学通讯机制(分泌递质)之外,我们找不到任何自我意识或灵魂存在的依据。既然如此,人类思考的过程最终可以用算力越来越强大的计算机来模拟和取代就不是天方夜谭,而是技术发展的必然结果。比如,目前任教于普林斯顿大学的韩裔科学家承现峻在他影响甚大的《连接组》一书中写道,“据我所知,没有任何客观的科学证据来证明灵魂的存在。人们为什么相信灵魂的存在?我怀疑宗教是唯一的原因”,32Sabastian Seung, Connectome: How the Brain Wiring Makes Us Who We Are, Houghton Mifflin Harcourt, 2012, kindle version, loc 1006/7864. 类似的观点也可参见德国脑科学家伍尔夫·辛格的著作:Wolf Singer, Vom Gehirn zum Bewußtsein,Suhrkamp Verlag, 2016。“你的身体和大脑与人造的机器并没有本质的区别”。33Ibid.,loc 3953 / 7864.脑科学和计算机科学的结合一方面会使用机器/算法取代人脑的技术(人工智能)得到快速发展,另一方面也会使借助算法来影响和控制人类行为的技术侵蚀法律的领地。最近曝光的大数据分析公司“剑桥分析”利用5000万Facebook用户的帐户信息帮助特朗普竞选团队量身定制投放政治广告从而帮助特朗普在2016年美国总统大选获胜的新闻,便是一个“算法统治”的鲜活例子。34Carole Cadwalladr, Emma Gaham-Harrison, “Revealed: 50 Million Facebook Profiles Harvested for Cambridge Analytica in Major Data Breach”, Guardian, https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebookinfluence-us-election, accessed on March 17, 2018.
法律是一个相对封闭的自我指涉系统,其本身的形成经过了法律人的分析和加工,并在一定的权威结构内形成规则。因此,将法律编写成代码的过程不是一个对未经选择的大数据进行学习的过程,而是一个有赖于前期加工的过程。大陆法系的《学说汇纂》和法律评注传统,英美法系的布拉克顿(Brockton)、布莱克斯通(Blackstone)、肯特(Kent)所做的判例整理和评注工作,都是前信息技术时代筚路蓝缕手工整理法律数据的典范。法律的算法化有赖于法律人将法律知识转化为“可计算化”模块的前期努力。“授计算机以数据,够它用一毫秒;授计算机以搜索,够它用一辈子”的机器学习法则显然不能适用于法律人工智能产品的开发。“有多少人工,就有多少智能”的法则在这个领域体现得十分明显。这其实是法律人的幸运:我们不用担心自己被人工智能取代。但是,法律系统的封闭性和算法在其中得到应用的有限性也使法律面对算法在影响人类行为方面的竞争时显得捉襟见肘,难以应对。
计算机可以处理的问题必须满足三个条件:(1)这个问题必须可以用形式语言(理想状态是数学)来表述;(2)针对这个问题必须存在一个算法,即程序化的指令集;(3)这个算法必须是可编程的。当我们用计算机来处理“数值计算”的问题时,原问题和数值化后的问题是一致的,其间没有转义映射,也就不存在意义/信息流失。而当我们用计算机来进行知识处理(比如将法律编写成算法)的时候,由于面对的问题非常复杂,就需要对知识进行符号化处理,然后用指称和解释的方法来保持和恢复计算结果的语义。35危辉、潘云鹤:《从知识表示到表示:人工智能认识论上的进步》,载《计算机研究与发展》2000年第7期(第37卷)。知识本身便已经不是经验本身,而知识的符号化表示是对表示的表示,对符号的再符号化,其间流失的意义很难被完全恢复过来。但是,不经过这样的处理,法律推理和法律决策的过程就无法实现自动化/人工智能化。
在前面提到的1991年创刊的世界上第一份《人工智能与法律》专业期刊的创刊词中,该刊的编辑们指出了用人工智能来处理法律问题之前需要法律人做出贡献的若干方向,其中包括:(1)对规范性概念及其与行动、意图和因果关系等常识性概念之间的相互关系进行符号化的表述;(2)需要通过例子和/或样本来界定开放结构(有多种解释可能性的)的概念,并且用如此界定的知识来推理;(3)用模型来表示对抗式的论辩过程以及这一过程支持决策的方式。36“From the Editors”, Artificial Intelligence and Law, Vol.1(1992), pp.1-2.在此基础上,技术人员才能着手开展法律的算法化工作。
随着自然语言处理(NLP)技术的迅猛发展,如今的机器学习已经不需要人们先把知识重新表述为高度形式化的符号以供机器学习,但法律知识的模型化和标准化工作仍是开发法律人工智能产品的前提。在理想状态下,法律是用经验浸润过的逻辑,也是用逻辑规整过的经验。但现实的法律世界存在大量未经逻辑规整的经验,也存在许多未经经验浸润的逻辑。法律的算法化其实是在倒逼法律人更加精准和体系化地表述法律知识,否则机器学习的结果可能是杂乱无章、任意武断乃至充满偏见的。
在现代法治社会,法律的应用场景遍及社会的各个方面,从国家治理到日常纠纷解决,从立法到交通处罚,从学校到监狱。算法是被设计来完成特定任务的。其表现可以通过一定的指标来衡量,这些指标体现了人类在不同场景中的语境化价值选择。比如,有些场景要求精确性:哪种算法能够更准确地识别出垃圾邮件,是朴素贝叶斯分类器还是支持向量机?有些场景更重视速度:哪种算法能够更快完成案件分类、排序,是插入排序法还是冒泡排序法?有些场景更强调节约资源:哪种算法能够用最小的资源投入(人力、带宽)完成同样的任务?37Eric PS Baumer, “Toward Human-Centered Algorithm Design”, Big Data and Society, July-December 2017, pp.1-12.算法旨在优化完成特定任务的绩效,这些绩效的标准是由特定场景的目的决定的。算法和程序技术的先驱者高德纳(David E. Knuth)教授曾经说过:“不成熟的优化是所有罪恶(或至少是大部分罪恶)的根源。”38David E. Knuth, “Computer programming as an art”, Communications of the ACM,Vol. 17(12), 1974, p.671.所谓的不成熟,是指算法与目的不匹配。人工智能算法至少到目前还不能自己生成目的(如果出现了有自我意识地追求自己目标的强人工智能,人类就更应当担心了),而必须服务于人类设定的目的,寻求给定目的情况下的手段优化。但在社会功能和制度功能高度分化的现代社会,法律系统中每一个子系统都有其功能决定的特定目的。
比如,美国现实主义法学理论家们主张法学的主要目的在于预测。霍姆斯(Oliver Wendell Holmes)写道:法学的目的是“预测公共暴力借助法院的工具性(instrumentality)而被触发的可能性”。39Oliver Wendell Holmes, Jr., “The Path of the Law”, Harvard Law Review ,Vol.10 (1897),p. 61.卢埃林(Karl N. Llewellyn)也告诉法学院学生,学习法律的“关键在于观察法律官员做什么,他们如何处理纠纷或者其他任何事务,以及观察他们的所作所为,从中寻找某种独特的规律性——这种规律性使人们有可能对法律官员及其他官员今后的所作所为作出预测”。40[美]卢埃林:《荆棘丛——关于法律与法学院的经典演讲》,明辉译,北京大学出版社2017年版,第7页。这是因为美国法学院是以培养律师为己任的,大部分法学院毕业生都会当律师,即使想当法官,也要先从律师干起。作为律师,当然需要预测法官会如何判决。但如果说法官工作的目的也是预测自己或别的法官如何判案,则完全不符合现实。法院的判决是权威结构中的规则适用。大法官杰克逊(Jackson)曾经说:“我们(的判决)是最终的,并不是因为我们不会犯错误;相反,我们不会犯错误,因为我们是最终的。”41Brown v. Allen, 344 U.S. 443, 540 (1953) (Justice Robert H. Jackson, concurring).如果整个法律职业都去预测,“预测什么”就会成为一个问题。实际上,法律是一个人为建构的决定论系统,法院的判决通过国家强制力的保障变得和自然规律一样不可动摇,既判力(Res judicata)就是人为拟制的自然力。霍布斯(Thomas Hobbes)曾一语道破:“权威,而不是真理,创造了法律。”(Authoritas non Veritas facit Legem)42Thomas Hobbes, Leviathan, Noel Malcolm (ed.), Clarendon Edition, Vol.II, Oxford University Press, 2014, p.431. 英文版中没有这段话,后出的拉丁文版中才有。后来在《哲学家与普通法学生之对话》中变成:“权威,而不是智慧,创造了法律。”正是因为司法判断具有权威性,而权威需要有正当性基础,正当性来自于社会共识,直到有一天社会大众接受机器人当法官,认为算法比人类更加“无惧无私”,司法判断的算法化才有意义。
法律职业内部的角色分工也决定着算法在不同法律场景中的应用前景。比如,我国的法律人工智能事业主要是政府推动的,智慧法院、智慧检务、智慧政务都被纳入国家的整体人工智能发展战略。但人工智能在涉及权威性法律判断的场合只能起辅助作用,不能取代人类做出自动化决策,否则便会产生谁来承担责任的问题。在美国,人工智能在法律职业中的应用主要靠律师界在推动,法院对人工智能的应用保持着审慎的态度。上文中提到的鲁米斯案就从一个侧面反映了概率论的预测算法在美国刑事司法中的有限应用及其限度。而这种算法的更广阔应用场景是律师业。
美国乔治城大学法学院每年都会发布一份《法律服务市场报告》。在2016年的报告43The Center for the Study of the Legal Profession, Georgetown University Law Center, 2016 Report on the State of the Legal Market, Thomson Reuters Peer Monitor, 2016, pp.1-2.中,它以柯达的故事作为开篇。在美国商业史上,没有哪家公司比柯达公司保持成功的历史更长。这家公司由胶卷的发明者乔治·伊斯特曼(George Eastman)于1880年创办,1888年,它推出了自己的第一款相机,其广告词是:“你按下快门,我们做剩下的事情。”在此后一个世纪的时间里,柯达主导着美国和世界许多地方的照相机和胶卷市场。它使任何没有经过专业训练的人都可以成为摄影师。在1988年,柯达仍然处在巅峰状态,在全世界有将近15万名员工。它的年收入在1996年达到历史最高点,将近160亿美元,而它的纯利润在1999年达到25亿美元。
然而,今天的许多年轻人恐怕已经没有听说过柯达。柯达公司仍然存在,市场上仍然可以买到柯达数码相机和柯达智能手机。但它很晚才进入数码产品市场,打败它的正是数码相机。柯达的故事最有警示性的部分不是它的兴衰史,每个企业都有这样的历史。有趣的是,柯达正是数码相机诞生的地方。早在1975年,柯达的年轻工程师史蒂文·萨森(Steven Sasson)就发明了数码相机,并且在当年12月与该公司的首席技术官吉姆·舒克勒(Jim Schueckler)一起在柯达的实验室里成功测试了这款数码相机。但柯达的主要盈利模式不是靠出售相机,而是靠出售作为耗材的胶卷。柯达管理层担心数码相机的市场化会损害自己所主导的胶卷市场,因此压制了这项技术的产品化。如今,萨森制作的第一部数码相机静静地躺在美国历史博物馆里,奥巴马总统在2009年授予萨森国家技术创新奖章,但柯达却早已风光不再。
这份报告用柯达的故事来警示法律职业者和法律教育机构:法律市场正在发生根本性的变革,故步自封或墨守成规会使现有的既得利益者遭受柯达那样的命运,无论其现有地位是多么牢固。这些变化的主要驱动力量是技术革新以及由此带来的生产方式和商业模式的变化,这些变化使客户对法律服务产生了新的期待,提出了新的要求,比如降低成本、提高效率、分解任务等。
实际上,一些有远见的法律人和法律职业机构早已行动起来。比如,全世界最大的律师事务所大成—德同在2016年创建了自己的人工智能实验室Nextlaw Labs,44网址参见www.nextlawlabs.com。与IBM公司的认知技术平台沃森(Watson)合作开发法律人工智能产品ROSS,这款产品目前已在数十家国际律师事务所测试使用。此外,包括达维律师事务所(Davis,Polk & Wardwell)在内的许多大型律师事务所已经设置了一种新的职位:首席知识官(Chief Knowledge Officer, CKO)或首席技术官,带领一个团队专门从事本所的数据库建设和人工智能产品投资、开发和调配。这表明这种新的法律职业——法律知识工程师——正在兴起。从我国的情况来看,许多资深法律职业人士(包括辞职的法官和检察官)都选择投身于法律大数据和人工智能行业,而不是像以前那样首选从事传统律师职业。
达维律师事务所首席知识官迈克尔·米尔斯(Michael Mills)指出,人工智能目前已被应用于法律职业中的五个重要工作领域:法律研究、电子取证、结果预测、自助式合规审查以及合同分析。这五项工作目前占法律职业者总工作时间的50%以上。这里举三个例子。
第一个是电子取证(E-discovery),它是指广义取证,而不是狭义的诉讼过程中的取证,包括交易环节——现在大量的律师从事非诉业务,非诉业务当中也要保存大量的事实,以帮助完成报税、合规审查、上市准备、商业谈判、交易等工作。即使不是专门的互联网企业,也会搜集和产生大量的数据。2012年,美国计算机科学公司预测到2020年年度数据生成量会增加4300%。海量数据的处理既是一种宝贵的资源,也是一种负担,只有借助人工智能才能把这种负担变成资源。有许多公司专门开发电子取证人工智能产品,比如Brainspace公司的最新产品Discovery 5增加了中文等多种东方语言阅读功能,从而大大提高了跨国法律业务中的取证能力。随着自然语言处理(NLP)技术的发展,这个领域的产品可以覆盖的语言会越来越多。
第二个是诉讼管理。美国Casetext公司开发的案件分析研究助理(CARA)可以帮助律师和企业法律顾问完成从判例、法规分析到陪审员选择直到法庭辩论文书生成的一系列任务。也就是说,最终出来的结果可能直接是一个法律文书,人类律师或者公司法人代表拿到这样的文书就可以直接出庭诉讼或者完成一项交易。这样的产品在美国越来越多。
此外,更加著名的是IBM Watson。Watson是IBM公司的认知技术平台,它与Nextlaw Labs合作开发的ROSS系统已经可以代替律师从事法律研究。法律研究(Legal Research)并不是指学术研究,而是指所有律师都必须做的法条、司法解释和判例搜寻和研读工作。无论是从事诉讼业务还是非讼业务都需要花费大量时间研究法条和判例,从而形成诉讼策略或交易策略。法律研究是传统律师业务中最耗费工时的工作。ROSS系统据说有潜力替代目前美国律师70%的法律研究工作,而且准确率高达90%以上,远远高于顶尖法学院毕业生从事同类工作的准确率。当然目前主要由律所合伙人从事的人际沟通工作和法官的判断工作无法被机器取代。但“无法”很可能不是技术上不可能,而是人类基于责任承担和判断权归属等考量而不会把司法判断交给机器人去完成。其实如果把这种判断交给人工智能系统,在技术上也是可以实现的。ROSS系统不仅可以做法律研究,还可以把研究结果生成简报或备忘录,出庭律师或从事非诉业务的律师只要拿到这些以前完全靠人工写成的文件就可以去干剩下少量的据说更有创造性的工作了。虽然听起来很高大上,但这是法律人最担心的事情,显而易见,人工智能可能会取代很多法律人的工作。 美国法学院毕业生通过律师执业资格考试后一般都会从初级律师(associates)做起,经过7—10年不等的时间才能成为合伙人。这个阶段的主要工作就是法律研究。以前这种工作需要大量的律师花费大量的时间去完成,但随着越来越多的美国律所购入人工智能系统,它们对从事案头工作和法律研究工作的律师的需求会越来越小。根据美国律师协会的数据,从2005年到2015年,申请法学院的人数在美国减少了40%。
第三个是合同起草和合同审核。合同是企业法律顾问面对的主要工作之一,现代商务世界的复杂使这项工作十分耗费时间和精力。美国LawGeex公司专门开发了有深度学习能力的人工智能,它通过对海量真实合同的学习掌握了生成高度精细复杂并适合具体情境的合同的能力,它起草的合同不仅远远好于照搬合同范本的结果,甚至好于许多有经验的公司法律顾问的作品。
上述几个领域的法律工作都不需要法律人在封闭的概念和规则框架内作出决定性的判断,而是需要面对复杂世界给出可选方案的经验。贝叶斯算法、类推算法和神经网络算法等从体现人类经验的大数据中学习、提炼和优化法律方案的经验主义或概率论算法在这些领域大有用武之地。当我们谈到法律职业的时候,容易陷入将其视为一个统一的“共同体”的误区,而实际上律师与法官、检察官和法学家的工作场景、目标函数和效用函数都大不相同。诉讼只是律师工作中的很少一部分,大部分律师所从事的都是交易环节的法律服务工作以及法庭外的纠纷解决工作。因此,从确定的法律概念和规则出发根据严格的形式逻辑来得出确定法律结论的思维方式(体现的是符号主义的决定论算法)并不适用于大部分律师。律师工作面对的开放的商业场景和生活场景,他们不需要也没有权力做出权威性的法律决断,而只需要提出给定规则前提下的优化法律方案,因此,基于大数据的智能算法在律师工作中的应用前景比在司法工作中的应用前景更为广阔。
逻辑学家哥德尔(Kurt Gödel)指出,一个系统不可能同时是内部逻辑一致的和完整的。法教义学和社科法学之间的争论也可以被视为追求系统内部融贯性与追求系统与外部环境/社会环境契合性的两种努力方向之间的竞争。符号主义的算法设计与法教义学的思维方式有着最明显的表面相似性,两者都试图在封闭的自我指涉内实现融贯性与确定性。法律规则就是一个符号系统,它将规则和事实用文字/符号加以表述,并以一定的方法对符号进行处理,将事实区分为相关与无关,并进一步将相关事实进行合法/非法的编码处理。早在机器学习出现之前,符号主义的编程方法就被用来开发法律专家系统,由法律专家提供法律概念、分类和推理方面的知识,由程序员将这些知识编写成计算机代码,供人们搜索法律知识,寻找法律问题的答案。45参见Richard Susskind, Expert systems in law: A jurisprudential inquiry, Oxford University Press, 1987。早期的法律人工智能产品主要是在成文法和判例数据库的基础上根据术语使用频率等显著指标制作索引方便查询的系统。46Bruce G. Buchanan; Thomas E. Headrick, “Some Speculation about Artificial Intelligence and Legal Reasoning”, Stanford Law Review ,Vol.23 (1970),p.40.有学者提醒我们注意不要夸大“人工智能”在法律领域的应用现状,直到今天,“尽管信息技术在法律工作中的应用已经发生了很大变化,这些变化主要来自于通常的信息技术应用,比如数据处理、数据储存、检索和管理,再加上信息丰富、流动迅速和全球化的互联网通讯和联网能力”。47Abdul Paliwala, “Rediscovering Artificial Intelligence and Law: An Inadequate Jurisprudence?”, International Re-view of Law, Computers & Technology, Vol.30(3) (2016), pp.107-114, 108.也就是说,目前在司法领域领域应用的人工智能产品大多只是封闭的“专家系统”,而不是有自主学习能力的“人工智能”。
符号主义的核心理念就是“所有和智力相关的工作都可以归结为对符号的操纵”。48[美]佩德罗·多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,黄芳萍译,中信出版集团2017年版,第113页。既然所有的知识都可以用符号表示,而符号可以脱离它的基质,就可以让计算机学习各种符号,采用逆向演绎(归纳)的方法来总结规则,然后再把规则正向适用于各种用符号表示的事实情境的可能性用决策树表示出来。但符号主义的算法以对原始数据的符号化处理为前提,是一个封闭系统,并不能节省多少人力。实际上,多数法律人(包括法理学家)都没有受过将法律推理过程用符号逻辑表述出来的训练,更习惯于用含糊的、道德化的或有歧义的语词来表述法律概念和法律论证,而且将这视为法律有人性、有温度的体现。在符号主义的框架里面,我们无法教机器学会我们自己不会的东西。49参见 Richard Susskind, “Expert Systems in Law: A Jurisprudential Approach to Artificial Intelligence and Legal Reasoning” ,Modern Law Review ,Vol.49 (1986),p.168。
但符号主义的算法可以帮助概念法学和分析法学的追随者们实现“耶林之梦”。耶林(Jhering)曾经做过一个梦,梦境中自己进入了专为造诣精深的法学家准备的天堂,在那里他看到了完美的、不沾人间烟火气的概念体系,每个人概念都分殊出若干子概念,如此层层递进,涵盖着所有可以想象的法律关系。50Rudolf Von JHERING, Scherz und Ernst in der Jurisprudenz, 11th ed., Leipzig, Breitkopf u. Härtel 1912 1912, 245.马克斯·韦伯(Max Weber)也把这种基于《学说汇纂》(潘德克顿)理论体系而发展出的自恰法律系统视为形式理性法的理想状态,其中,(1)每一项具体的法律决定都是某一抽象的法律命题向某一具体“事实情境”的“适用”;(2)在每一具体案件中,都必定有可能通过法律逻辑的方法从抽象的法律命题导出裁决;(3)法律必须实际上是一个由法律命题构成的“没有漏洞”(gapless)的体系,或者,至少必须被认为是这样一个没有空隙的体系;(4)所有不能用法律术语合理地“分析”的东西也就是法律上无关的;以及(5)人类的每一项社会行动都必须总是被型构为或是一种对法律命题的“适用”或“执行”、或是对它们的“违反”,因为法律体系的“没有漏洞”性(gaplessness)必定导致对所有社会行为的没有漏洞的“法律排序”(legal ordering)。51Max Weber,Economy and Society: An Outline of Interpretive Sociology, Guenther Roth & Claus Wittich ed., Univer-sity of California Press, 1978 (second printing). V.II, p.657-658.借助符号主义的算法,这样一个封闭的决定论系统可以变得越来越概念精细、逻辑融贯。在印刷术时代孤军奋战的布莱克斯通将法律问题分成110个类型,而万律(Westlaw)在互联网技术的帮助下雇用了数以百计的“抄写员”,将法律问题分成了数以万计的类型,编写成了Westlaw Digests。进一步的细分在人工智能时代变得越来越容易。
类比推理是另一种得出法律判断的重要推理方式。有法学家写道:“如果说比喻是语言的点睛之笔,类比就是法学语言中的头脑风暴(brainstorm)。”52Scott Brewer, “Exemplary Reasoning: Semantics, Pragmatics. and the Rational Force of Legal Argument by Analo-gy” ,Harvard Law Review ,Vol.109 (1996) ,p.923.在上面提到的《学说汇纂》中的问答中,法学家将“放开某物令其对他人造成伤害”类比“主动拿出武器伤害他人”,从而将同样的规则适用于这两种不同的事实情境。普通法的遵循先例(stare decisis)原则的核心就是类比推理,要求找到正在审理的案件与先例之间的事实相似性,从而确定是否适用先例中的规则。法律推理和医学推理都可以被看成一种为了解决实际问题而展开的决疑术推理,这种推理实现并不给定大前提,而是从小前提(对问题事实的观察和描述)中寻找蛛丝马迹,然后关联到类型化的知识图谱之中,从而给出一个并不保证绝对正确却有助于解决问题的方案。决疑术体现着“通过从一套核心的典型案例分类体系中获取知识来解决实际问题,借助范式和类推来组织论证”的思维方式。53A.R. Jonsen, S. Toulmin, The Abuse of Casuistry: A History of Moral Reasoning, Berkeley, CA: University of Cali-fornia Press, 1988, p.42.而类比推理正是智能算法的核心理念之一,类推主义是《终极算法》一书所总结出的五大算法流派之一。54[美]佩德罗·多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,黄芳萍译,中信出版集团2017年版,第七章。在给定案例数据库的基础上,算法很容易找出类似的事实情境并将其关联于相应的规则。“相似案件相似判决”是借助算法比较容易实现的目标。
符号主义和类推主义的算法都可以得出确定的决策,可以变成自主决策系统。但我们可以把这种机器决策作为参照,在此基础上由人类决策者作出可执行的决策。只要没有把机器的自主决策设定为自动执行,就不会取消人类决策者的判断权和相应的责任。
萨维尼(Savigny)指出:法律固然是一种“形式”(Gestalt),“但法律存在于人民(Volk)的意识之中的那种形式不是抽象规则的形式,而是一种活的直观洞见(Anschauung),这种洞见揭示出存在于生活的有机整体中的法律构造,因此,当我们需要知道以逻辑形式表达的抽象规则的时候,我们便需要通过一个人工的过程把它从那种整体洞见中抽离出来,然后加以表述”。55Savigny, System des Heutigen Römischen Rechts, band.1, 1840, De Gruyter, Reprint 2012, s.16.这个“人工的过程”如今也可以用人工智能来实现。
进化是生物物种在应对纷繁复杂且不断变化的外部环境时通过自然选择并借助基因传递而优化自身结构的过程。生物进化是一种学习,不过是在漫长的时间和无数世代的生存考验中实现的学习。计算机可以模拟生物进化,在较短的时间内实现生物在漫长时间里的“学习”。
解决人类问题的难点在于我们不能拿人来做试验,或者说,虽然拿人做试验的事情在人类社会屡见不鲜,但人类不会认为这样做是正当的。但历史是一个已完成试验的资料库,其中有些试验是人类付出了数以千万计的生命作为惨痛代价的,除了发思古之幽情或恨古之怨忿外,我们应当能够从历史中学到些什么,方不枉昔人之牺牲。马克·吐温(Mark Twain)说过一句十分机智的话:“历史不会重复,它只押韵。”正是因为历史不仅事件繁多,而且因果关系复杂,类似事件放在不同的外部环境中会产生迥然相异的结果,所以简单的线性思维以及同因必然同果的决定论思维不仅无法给我们正确的引导,反而会让我们误入歧途。此外,往事已矣,留给我们的只是具体的人的记录,这些记录本身就是不完整的,越是同时代人的记录,越体现着记录者的恩怨情仇乃至政治图谋,因此会出现完全不同的事件描述和因果叙事。我们缺乏在人类事务领域理性地处理复杂性问题的能力,这主要不是因为人文学者缺乏科学训练,而是因为人类事务本身无法被化约为几个变量或几个参数。但人工智能的出现使我们看到了新的希望,至少数字化时代之后的人类经验不再依靠少数几个同时代人的记录,而体现在海量的大数据中。整全数据分析将取代抽样分析,强大的计算能力能够处理无限量的变量。
同时,人类往往面对多个目标之间的冲突,实现一个目标的优化方案往往会损害乃至阻碍另一个目标的实现。以环境保护为例,单纯的环保主义者往往忽视了经济因素,未能充分理解经济发展必然需要对自然资源的耗费性利用,而试图在环境和经济之间达致某种平衡的人可能又忽视了环境成本或经济发展利益的不公平分配问题。可持续发展需要综合考虑环境(Environment)、经济(Economy)和公平(Equality)这三个目标(3E)。面对这种多目标决策所蕴含的复杂性,人类决策者往往因为计算能力有限或认知偏差而无法找出最优解。演进算法善于处理复杂性问题,如今已有将其用于在复杂情境中生成并测试规则设计的尝试。56J. B. Ruhl, “Sustainable Development: A Five-Dimensional Algorithm for Environmental Law”, Stanford Environ-mental Law Journal ,Vol.18 (1999) ,p.31.
2016年12月,一件涉及亚马逊的人工智能家务助手Echo的新闻引起了广泛关注。在侦查一起谋杀案的过程中,阿肯色州本顿维尔(Bentonville)警方要求调取犯罪嫌疑人詹姆斯·贝茨(James Andrew Bates)家里的Echo在案发当晚录下的声音,这些音频资料储存在亚马逊的云端服务器里。亚马逊以涉及用户隐私为由拒绝提供音频资料,但提供了贝茨的账户信息和购买记录。警方声称根据获得信息已经从Echo装置里提取了当晚的信息,但拒绝透露这些信息的内容。此外,贝茨家里还有其他的智能电子设备,比如智能水表,该水表记录着案发时段(凌晨1-3点)贝茨家里一共用了140加仑的水,可以佐证他可能用水冲洗掉了犯罪痕迹。这个事件是我们身处的“物联网+人工智能”时代的典型事件,我们周围的各种智能产品可能随时“偷听”或“偷看”着我们的一举一动,它们记录下来的信息不仅存储在设备本身当中,而且还上传到了“云端”。仅仅删除设备中的信息并不能抹掉全部的痕迹。这些信息可以帮助警方破案,帮助司法部门掌握事实真相,但也可能被滥用。即使这些信息是被执法和司法部门用来维持法律秩序,这种使用也会与个人的隐私权发生冲突。安全、秩序与隐私、个人权利之间的永恒冲突在技术碾压隐私的大背景中显得无比尖锐,也迫使我们思考法治在人工智能时代的未来走向。
首先,主流的法治理论认为法治与法制的主要区别在于:后者是工具主义的,法律被当成统治的工具,但无法约束统治者本身;前者是权利本位的,法律不仅约束公民,更约束公权力。在这种法治框架下,政府成为法律(尤其是公法)的监控对象。但大数据分析技术和人工智能正在改变社会的治理结构和秩序生成机制,谁掌握了数据和分析数据的技术,谁就能影响和控制人的行为。大到总统选举,小到日常购物,智能化的数据分析和行为诱导机制在其中发挥着越来越大的作用,而背后的操纵者往往不再是政府。新技术的发明者、投资者和鼓吹者们往往会夸大技术带来的“解放”效应,宣称人工智能和区块链等技术将使一切中心和中介变得没有必要,从而瓦解人类社会的金字塔结构,使有序的人际关系变得越来越呈网状分布,每个人都是中心,每个人也都不可能控制整个网络。但实际结果却是,金字塔依然存在,基底依然是芸芸众生,但塔尖却分裂成了政府、资本力量和技术力量。三种力量有时会合并起来,有时又会相互对峙,但它们之间的关系并不受基座的影响。藐视政治权威的技术达人(黑客)并不会解放全人类,而只会破坏既定的法律秩序。与政府讨价还价的商业力量也不会“制衡”公权力,而只是追逐利润。上文中提到的“剑桥分析”公司助力特朗普赢得美国总统大选的例子表明,大数据掌控者已经不只是通过数据分析来进行预测,还有能力将某些预测变成自我实现的寓言。同时,法律所建构起来的公与私、政治权力与商业力量之间的区隔已经变得弱不禁风。
今天的互联网和智能产品企业就像是一个世纪前的铁路公司和电报电话公司,它们“创造和统治着我们的交流空间,并因此控制着我们的生活,这种控制程度远远超过其他任何私人群体”。57Alan Z. Rozenshtein, “Surveillance Intermediaries”, Stanford Law Review ,Vol.70 (2018), p.188.它们被称为“监控中介”(surveillance intermediaries),挑战着国家对安全和秩序事务的垄断,但并没有带来更多的安全和秩序。苹果公司曾经因拒绝政府要求披露用户信息而获得自由主义者们的普遍赞誉。2015年12月2日,美国加州圣贝纳迪诺发生了美国本土自“9·11”之后最严重的恐怖袭击,宣誓效忠“伊斯兰国”的赛义德·法鲁克(Syed Rizwan Farook)和塔什芬·马利克(Tashfeen Malik)在开枪射杀14人、射伤20多人后被警察击毙。联邦调查局查获了法鲁克的苹果手机,为了获得犯罪调查和反恐所需要的信息,在获得法院授权的情况下向苹果公司发出了解锁该手机的要求。但苹果公司拒绝合作,公司总裁蒂姆·库克(Tim Cook)还在公司网站上发布了一封公开信,谴责联邦调查局的要求“破坏了我们的政府旨在保护的那种权利和自由”。58Tim Cook, “A Message to Our Customers”, APPLE (Feb. 16, 2016), https://www.apple.com/customer-letter/, accesscd on March 20,2018.对苹果公司而言,这是一次成功的公众形象宣传。对于美国的国家安全和公众的生命安全而言,这不见得是件好事。
基本公共服务(包括国防和治安)领域的公、私权力关系是未来法治需要解决的首要问题。以政府为主要规制和防范对象的现有公法体系需要考虑技术革新和权力结构变化所带来的新问题,一方面将透明、公开、程序合法、说明理由等对公权力行使者的要求延伸到实际上行使着“准公权力”的私人(包括企业和个人),使算法等技术化的监控和决策手段不再是无法被问责的“黑箱”,另一方面延伸和调整传统的公法概念体系(包括“公共服务”)和规制手段,以应对现时代公私合作、公私共治的普遍现象。
其次,在技术日益智能化的时候,法律的日益技术化会使它很容易被技术所取代,而如果两者都趋向于只讲手段不问目的的工具理性,则人类将被引向不可知的未来,这个未来很可能是万劫不复的深渊。工具理性取代价值理性的趋势在现代化的早期便已经暴露无遗了,现代政治思想的奠基者霍布斯系统打造了人类无中生有地创造和管理世界的理论,法律和工程技术都是这种“创世”工作的工具。奥克肖特(Michael Oakeshott)敏锐地指出了“意志与人造物”在霍布斯思想中的核心地位,他发现霍布斯“通常不会提及理性,这一将人与上帝联系的人类心智的神性光亮;他提及的是推理(reasoning)”。59Michael Oakeshott, Hobbes on Civil Association, Indianapolis, IN.: Liberty Fund, 1975, p.27.霍布斯十分明确地写道:“旧道德哲学家所说的那种极终的目的和最高的善根本不存在。欲望终止的人,和感觉与映像停顿的人同样无法生活下去。幸福就是欲望从一个目标到另一个目标不断地发展,达到前一个目标不过是为后一个目标铺平道路。所以如此的原因在于,人类欲望的目的不是在一顷间享受一次就完了,而是要永远确保达到未来欲望的道路。”60[英]霍布斯:《利维坦》,黎思复、黎廷弼译,商务印书馆1985年版,第72页。从某种意义上,人类的欲望种类从未改变,只是满足欲望的技术手段越来越先进。没有方向和目标地追求欲望的满足在以人工智能作为技术手段的时代比任何时候都更加危险。
卢曼敏锐地指出:“人工智能研究关心的是如何操纵‘符号’,而不是如何形成意义。”61Niklas Luhmann, Theory of Society, Vol. I, translated by Rhodes Barrett, Stanford University Press, 2012, p.315.技术是在给定目的的前提下追求最优解决方案的活动,技术本身不是目的,也无法自动形成自己的目的。作为一种技术,人工智能也是服务于特定的人类目的的,我们应当追问:我们到底想用人工智能来干什么?
当然,认为人类总是很清楚自己的目的是人文学者一厢情愿的幻想。在许多时候,人并不清楚自己想干什么。霍姆斯曾经指出:“……我心目中一直认为一切都要靠科学,因为最终只有科学能够在其已经发展到的水平限度内确定我们的不同社会目标的相对价值,正如我曾经暗示的那样,正是因为我们对这些目标的权重往往只有盲目和无意识的估算,才导致我们坚持并扩大某一原则的适用范围,而让其他[或许同样重要甚至更加重要的]原则逐渐零落成泥。”62Oliver Wendell Holmes, “Law in Science and Science in Law” , Harvard Law Review,Vol.12 (1898-1899),p. 462.包括人工智能在内的科学技术可以打开我们的视野,帮我们看到人类可以走多远,并澄清我们可以选择的目的的疆界,但最终需要人类自己来做出选择。法律无法确定人类社会发展的终极目的,但必须体现一些基础性的底线价值(如人的尊严和平等)以及程序性的要求(如决策的公开性、透明性、公正性)。体现人类价值的法律框架不可能限定技术可以到达的目标,但却可以引导它的发展方向。
最后,人工智能所体现的技术理性有明显的化约主义倾向,我们可以借助它来提高效率,取代一部分无需创造性和价值判断的工作,但不能由它来做出事关人类福祉的最终决策。 法律所调整的是人与人之间的关系,因此法律不必去直接规制技术,而应当规制使用技术的人。从更深的层面上讲,法律应当去规制被技术改变后的社会中的人,从而使技术对人类社会的影响能够朝着善和正义的方向去发展。人不应当允许自己的自我认识被技术所左右;他应当向反抗任何导致主体性丧失的支配关系一样去反抗对技术的依赖;如果他想要拯救自己的人性和自主性,他就应该把自己从技术和支配所导致的异化中拯救出来。
法律和技术都是人造物,越“先进”的法律和技术越是经过无数层人为设计之递进后远离自然的人造物,自然的人的因素很容易在层层递进中消失, 如果我们最终用算法化的法律来制定和实施算法的法律,人最终就会成为可有可无的存在。人必须是算法的立法者和控制者,法律的算法与算法的法律不应成为一个闭环,它们中间必须有人作为起点和终点。要将社会生活的复杂事实带入一定的法秩序,规范塑造者需要在相关事实和基于规范文本的秩序标准之间保持“目光之往返流转”。能够做到这一点的只有训练有素的法律人。