阿列克西主体权衡公式:自动驾驶道德算法的框架构建

2022-12-08 01:38陈禹衡
天府新论 2022年4期
关键词:权衡使用者行人

陈禹衡

伴随人工智能技术的高速发展,自动驾驶汽车作为人工智能技术的具体应用成果而大放异彩。蓬勃的人工智能生产力在促进自动驾驶汽车产业进一步扩张的同时,也激发了公众对自动驾驶汽车处理道德争议难题的担忧。传统的道德争议难题包括电车难题(Trolley Problem)(1)“电车难题”最早由英国哲学家菲利帕·福特(Philippa Foot)于1967年提出,是指电车的铁轨上站着五个人,此时一辆失控的电车朝他们驶来,若在原轨道上继续行驶,电车将使这五个人丧失生命。电车司机可以选择使电车从狭窄轨道转向另一条轨道,那么这五个人就可以幸免于难,但是另一条铁轨上也有一个人。此时,司机面临两难选择:一是不改道继续行驶,使得五人丧生;二是主动操作转向另一条轨道,使原本安全的另一人丧生。无论电车司机开向哪一条轨道,都会有人遇害。但是,如何取舍,则会导致电车司机陷入道德困境。当电车变为自动驾驶汽车时,则需要由人工智能系统借助算法做出判断。Foot P.,“The Problem of Abortion and the Doctrine of the Double Effect,”Oxford Review,Vol.11,No.5,1967.、隧道难题(Tunnel Problem)(2)“隧道难题”是指当乘客坐在一辆行驶在单行道上的自动驾驶汽车上时,汽车行驶到隧道入口,忽然一个孩子跑到车道中间,堵住了隧道的入口。此时,自动驾驶车辆只有两个选择:继续行驶撞向孩子,或者转向隧道某一侧的墙壁,从而导致车上的乘客丧生。Jason M.,“An Ethics Evaluation Tool for Automating Ethical Decision-Making in Robots and Self-Driving Cars,”Applied Artificial Intelligence,Vol.30,No.8,2016.等,这些问题在传统社会本就难以解决,遑论人工智能技术的介入增加了问题的处理难度。在人工智能时代,由于人工智能汽车部分乃至全部剥夺了使用者的驾驶决策权,导致使用者大概率只能任由自动驾驶汽车自身对交通肇事中的道德争议难题做出选择,所以更容易诱发社会争议。有学者据此提出,需要在自动驾驶汽车的人工智能系统中植入道德算法,通过道德算法来指引自动驾驶汽车做出合理的选择,以计算概率的方式来破解诱发风险的概率问题(3)白惠仁:《自动驾驶汽车的“道德算法”困境》,《科学学研究》2019年第1期。。这种全理性架构的处理模式具有一定的可行性,但也要面对道德算法的选择争议。

一、问题的提出:道德算法的选择争议

自动驾驶汽车的技术核心是由算法决定运行模式,通过对公路交通中可能发生交通事故的规模和概率进行理性计算,从而控制车辆以应对驾驶风险。在自动驾驶汽车行驶过程中,面对传统社会中的道德争议难题,需要由算法在行人和使用者之间做出选择。已有的算法模型主要是基于功利主义和利己主义两种运行逻辑,其中功利主义的算法模型更为公众所接受。当使用者坐在自动驾驶汽车上时,其驾驶的能动性就被完全转移到人工智能系统上。(4)Coeckelbergh M.,“Responsibility and the Moral Phenomenology of Using Self-Driving Cars,”Applied Artificial Intelligence,Vol.30,No.8,2016.心理测试结论显示,在道德争议难题中,公众对自动驾驶的人工智能和传统驾驶的人脑操作采用了不同的道德评价标准。相较于传统社会中人类的操作标准,公众更希望自动驾驶汽车能做出功利主义取向行为,对道德算法的功利主义行为评价也更高(5)褚华东、李园园、叶君惠等:《个人—非个人道德困境下人对智能机器道德判断研究》,《应用心理学》2019年第3期。,所以衍生出了以罗尔斯算法为代表的一系列功利主义算法模型。值得注意的是,虽然公众表现出了对功利主义自动驾驶汽车的“偏爱”,但是当涉及自身利益(也就是自身作为使用者)时,其对于道德算法的功利主义偏好就会产生反转,倾向于让他人购买功利主义算法的汽车,而自己购买优先保护车内乘客(自我)的汽车。(6)赵雷、李园园、叶君惠等:《人对智能机器行为的道德判断:现状与展望》,《应用心理学》2019年第4期。所以,功利主义的选择并不一定代表绝大多数使用者真正的内心所想。(7)李伟、华梦莲:《论自动驾驶汽车伦理难题与道德原则自我选择》,《科学学研究》2020年第4期。

对于算法面对道德争议难题时的选择,实际上无论是利己主义模型还是功利主义模型,都需要从计算衡量的角度进行分析,与其拘泥于算法理论基础的框架,不如从算法自身特性入手对争议难题加以解决。对于算法模型而言,无论采用何种理论基础,最终都会回归到算法概率计算的运行逻辑上,借助算法的强大算力给出合适方案。以当下比较成熟的罗尔斯算法模型为例,在面对道德争议难题时,罗尔斯算法采用了“无知之幕”理论,将公路交通认定为原初状态(8)约翰·罗尔斯:《正义论》,何怀宏等译,中国社会科学出版社,2019年,第136页。,力求实现主体收益的最大化,避免纯粹利己主义算法模型降低社会总体的效率。其计算原理是,利用事故主体(使用者、行人等)与可选操作(转弯、直行等)之间的效用函数(Utility Function)构成一个笛卡尔积,先在笛卡尔积的映射数据集中权衡出事故主体存活概率的最低收益集,经过循环穷举,筛选出将最低收益最大化的操作。如若多种操作收益相同,则使用随机数决定最终操作,从而保障使用者与行人的生存率整体最大,构建两者共生的合作式博弈法,降低使用者对自动驾驶算法安全性的担忧。(9)陈禹衡:《算法优化语境下自动驾驶汽车交通肇事的困境纾解》,《苏州大学学报(法学版)》2021年第3期。

鉴于此,自动驾驶汽车道德算法在面对道德争议难题时,应采用更为公平公正的算法,将自动驾驶技术对应到既有的权利义务调整模式中。(10)骆意中:《法理学如何应对自动驾驶的根本性挑战?》,《华东政法大学学报》2020年第6期。阿列克西权衡法则和权衡公式能够较为准确地给出自动驾驶汽车面对道德争议难题时的选择偏向,在此基础上通过利己主义或者功利主义的道德算法做出选择,因而更容易为公众所接受。或许有人认为通过阿列克西权衡公式得出的算法权衡选项遵循了功利主义算法的“老路”,但实际上并非如此。因为采用阿列克西权衡公式作为道德算法的解决框架,是将其置于道德算法的前置环节,后续仍然会采用道德算法模型做出判断。而不同的理论基础会影响阿列克西权衡公式中的参数选取,不同的参数指标会得出不同的结论,所以阿列克西权衡公式更多的是提供解决道德争议难题的框架路径,并不是直接采用功利主义的道德算法体系。具体的主体权衡公式的构建,需要解决两个问题:一是对阿列克西权衡法则的适用基础进行厘定,基于扎实的理论架构为具体实践提供指引;二是对阿列克西主体权衡公式的具体框架进行创设,结合人工智能的时代背景对原有的阿列克西权衡公式加以改进,并且确证其中具体参数的衡量标准,从而以人类社会为中心对人工智能的算法衡量进行解读。

二、阿列克西权衡法则理论适用基础

将阿列克西权衡公式作为自动驾驶汽车道德争议难题的解决框架(11)劳伦斯·莱斯格:《代码2.0:网络空间中的法律》,李旭、沈伟伟译,清华大学出版社,2009年,第89页。,首先需要明确阿列克西权衡公式进行权衡的理论基础,即理解并解释阿列克西权衡法则(Robert Alexy Abwägungsgesetz)。阿列克西权衡法则基于“在某一特定条件下,不能实现或侵害一种权益的程度越大,则实现另一种权益的重要性必须越高”的理论进行展开。(12)罗伯特·阿列克西:《论宪法权利的构造》,《法学家》2009年第5期。在参考不同道德算法模型理论的前提下,阿列克西权衡法则在选择行人和使用者的权益之间加以权衡,并为后续道德算法选择提供分析依据。

(一)对帕累托最优的追求

阿列克西权衡法则秉持“权益衡量的方法是权衡”的宗旨(13)罗伯特·阿列克西:《论权衡与涵摄——从结构进行比较》,刘叶深译,《法哲学与法社会学论丛》2006年第2期。,在不同的主体类型之间进行权衡的最终目的,是通过对不同要素的分析,衡量出对目标主体类型权益的最优配置。参考经济学上追求的“帕累托最优” (Pareto-Optimality)(14)“帕累托最优”是指经济学上的一种理想的资源分配状态,当分配主体和可分配资源整体固定时,在分配状态的切换过程中,在没有使任何主体的境况变坏的前提下,使得至少一个主体的境况变得更好即可。而当“帕累托最优”达成后,则在该状态下没有一个人能够在不损害其他人利益的前提下,使自身利益得到改进,即人们没有共同改进各自利益机会的状态,资源的分配已经达到最大优化。参见李绍荣:《西方经济学最优解概念新思考——纳什均衡、帕累托最优与一般均衡三大最优解透视》,《经济学动态》2000年第4期。,阿列克西权衡法则所追求的目的也是所谓的“最优化理念” (Idea of Optimization)。权益的配置当以社会福祉最大化为鹄的,这一点和自动驾驶汽车所秉持的理念具有内在的一致性。自动驾驶汽车技术的进步和革新,本质上是为了提高自动驾驶汽车的行驶安全性,所以需要规避风险并保障安全。其必须坚持“最小伤害原则”,即一方面要尽可能使自己所受的伤害最小,另一方面也应通过一定措施减少对他者的伤害,实现整体效益的最优。(15)高兆明、高昊:《信息安全风险防范与算法法则的价值原则——自动驾驶汽车研发的两个实践哲学问题》,《哲学动态》2017年第9期。“帕累托最优”在这里可以解释为两个层面:第一个层面是追求被自动驾驶汽车所保护的主体所受的损害最小。无论是行人还是使用者,一旦被保护,其受损的利益都应当降至最小,这也是适用阿列克西权衡法则的目的。第二个层面是尽可能保障被牺牲主体的权利。自动驾驶汽车处理道德争议难题的优势在于,其脱离了纳什均衡所可能导致的因过分追求一方利益而导致整体利益降低的困局(16)钱弘道:《法律的经济分析》,清华大学出版社,2006年,第231页。,将尽可能地保障被牺牲者的利益,这也是公众能够接受自动驾驶汽车的原因所在,即提供一个更为均衡且更加科学的措施以解决交通肇事难题。公众在不涉及自身时会追求对多数人生命的保护,而在涉及自身时则倾向于对自身的保护(17)Bonnefon J. F., Shariff A., and Rahwan I.,“The Social Dilemma of Autonomous Vehicles,”Science,Vol.352,No.6293,2016.,在这种悖论环境下,只有推崇“帕累托最优”,才能推动自动驾驶汽车为公众所接受的进程。

部分学者所推崇的“卡尔多-希克斯效率” (Kaldor-Hicks Efficiency)理念,认为即便采取某项措施也会导致一些人受益而另一些人受害,但只要总体的社会利益(或边际利益)高于总体的社会成本(或边际成本),那么就是有效率的。(18)许可:《数据爬取的正当性及其边界》,《中国法学》2021年第2期。本文则认为,这并不适用于自动驾驶的算法衡量。因为“卡尔多-希克斯效率”实际上建立在假定受益者“有可能”补偿受害者的基础上,但是在面对道德争议难题时,很难想象两者间会相互补偿。尤其是对于行人而言,其难以接受因为自动驾驶汽车自身的原因导致交通事故后,在选择牺牲使用者时应当由行人进行赔偿,而更倾向于认为是自动驾驶汽车的问题导致使用者陷入困境,因而使用者应当自负其责。在这种语境下,适用“卡尔多-希克斯效率”理念显然难以为一般公众所接受。在实际适用中, “卡尔多-希克斯效率”理念中只要“假想的再分配”存在即可的适用逻辑也存在欠缺。 例如以下这种情况:当自动驾驶汽车牺牲使用者而保护行人时,采用“卡尔多-希克斯效率”则使用者应该受到补偿,补偿后总体的社会利益达到了最大化;当自动驾驶汽车牺牲了行人而保护了使用者,那么事后通过补偿行人,总体社会利益也会达到最大化。也就是说,自动驾驶汽车无论做出何种选择,只要经过事后重新分配就都实现了所谓的“改善”,保护何种主体就没有定论。如此一来,自动驾驶汽车会因为无所适从进而产生选择冲突。

总之,追求“帕累托最优”能够为自动驾驶汽车在适用阿列克西权衡公式进行具体运算时提供准确的价值指引。道德算法可以借助其强大的算力,在短时间内针对复杂的路况得出运算结果,而这一运算结果也能够为道德算法的最终选择提供参照。围绕着“帕累托最优”的阿列克西权衡法则,才是道德算法良好运行的基础,使得自动驾驶汽车能够通过数据训练而构建起决策逻辑。(19)冯珏:《自动驾驶汽车致损的民事侵权责任》,《中国法学》2018年第6期。

(二)确定条件式优先关系

运用权衡法则的最终目的是通过论证得出最优化的选择,也就是条件式优先关系(A conditional relation of precedence)。(20)罗伯特·阿列克西:《法 理性 商谈:法哲学研究》,朱光、雷磊译,中国法制出版社,2011年,第295页。对于自动驾驶汽车而言,确定条件式优先关系能够帮助其更加精准地确定需要优先保护的主体,并且依照既定程序解决算法面对的道德争议难题(21)王琳:《论法律原则的性质及其适用——权衡说之批判与诠释说之辩护》,《法制与社会发展》2017年第2期。,和算法的程序运行逻辑保持一致。权衡法则要求一个权利或原则不被满足或被侵犯的程度越大,则与之冲突的另一个权利或原则的重要性程度应该随之增大。(22)罗伯特·阿列克西:《法:作为理性的制度化》,雷磊编译,中国法制出版社,2012年,第150页。这个权衡法则使每一个衡量过程分为三个步骤:第一步是确定第一个原则不满足或被侵犯的程度,第二步是确定满足与之竞争的原则的重要性程度,第三步是对两者进行比较并做出选择。在衡量过程中,应该坚持权衡法则的三项子原则,即适当性原则(principle of appropriateness)、必要性原则(principle of necessity)和狭义上的比例原则(principle of proportionality in a narrow sense)(23)徐继强:《衡量的法理——各种利益衡量论述评》,《法律方法》2009年第2期。,并通过其得出条件式优先关系加以适用。

首先,通过衡量法则得出条件式优先关系,需要坚持适当性原则。适当性原则要求当自动驾驶汽车面对是保护行人还是保护使用者的选择出现冲突时,如若某一措施M(如将自动驾驶汽车撞向隧道)试图以侵害使用者权益的方式来保护行人,而实际上适用M并不能实现对行人的保护目的,则不必适用M措施。除此以外,如果有可能在不损害行人的前提下放弃M措施,那么为了使行人和使用者的利益最大化,则应该放弃M措施。(24)雷磊:《基本权利、原则与原则权衡——读阿列克西〈基本权利论〉》,《法律方法》2011年第1期。坚持适当性原则,对于道德算法的决策而言,能够在决策的基础阶段对反应措施进行判断,避免过激的反应措施在处理道德争议难题时“过度”保护一方而忽视另一方的权利。在行人和使用者的权利保护区分上,应该尽可能避免对一方的过度伤害,力图实现帕累托最优的结果。

其次,为了实现帕累托最优的结果,需要坚持必要性原则,对道德算法所可能采用的各种措施进行比较分析。以道德算法处理隧道难题为例,在面对撞向隧道中的其他车辆以制动的措施M1和撞向隧道牺牲使用者的措施M2的选择时,虽然M1和M2这两个措施都可以实现对行人的保护,但是M1需要撞向隧道内的其他车辆,而M2仅需要牺牲自动驾驶汽车内的使用者,在同样实现了对行人保护的前提下,就没必要采用M1的措施。在自动驾驶汽车的运行过程中,算法在进行权衡时,对于同一目标可能有多种实现路径,而采用何种实现路径,则应该采取必要性原则进行判断,将整体损失降至最低,实现社会整体利益的增量最大。(25)孙保学:《自动驾驶汽车事故的道德算法由谁来决定》,《伦理学研究》2018年第2期。

最后,为了避免反复计算和比较不同主体的保护措施导致算法的算力被无端消耗,需要在不同措施之间划定分界线。具体而言,就是采用狭义上的比例原则,作为权衡法则适用中“对某一原则的侵害越强,另一个原则的重要性程度就应当越高”的结果底线。底线的选择需要比较不同主体之间受保护程度和被损害程度的差异。比如当一个措施M对使用者的受保护程度造成损害时,其损害的程度越高,则相应的行人的受保护程度也应该越高;相反,如果措施M对使用者造成了一定的损害,却并没有带来对行人的有效保护,比例分配就被打破,M措施就是无效措施而不应该被采用。采用狭义上的比例原则能够有效地解决权衡中的分配不均衡现象,避免单一措施的使用范围超过界线,实现条件式最优的最终衡量结果。

总之,对于自动驾驶汽车而言,“遵守这些规则尽管不能保证一切结论有百分之百的确实性,但仍然可以把这些结论称为理性的结论”(26)罗伯特·阿列克西:《法律论证理论 作为法律证立理论的理性论辩理论》,舒国滢译,商务印书馆,2019年,第223页。。确定条件优先式关系,能够为算法提供合理的决策,并且以此为基础构建自动驾驶汽车面对道德争议难题时的解决框架。权衡法则具体的子原则会以参数的形式在阿列克西主体权衡公式中进一步体现,最终实现算法决策的整体最佳结果。(27)彭诚信:《从法律原则到个案规范——阿列克西原则理论的民法应用》,《法学研究》2014年第4期。

三、道德算法中主体权衡公式的构建

自动驾驶技术的发展改变了人们对公共交通事故关注的重心。传统交通肇事的核心问题是法律层面的责任分配与承担,而自动驾驶汽车的决策来源是预先设置好的算法程序,并通过其处理逻辑来解决道德争议难题。(28)崔俊杰:《自动驾驶汽车准入制度:正当性、要求及策略》,《行政法学研究》2019年第2期。因此,自动驾驶汽车交通肇事的核心问题是在道德层面对不同主体的生命安全权衡分配,需要基于道德算法的衡量解决这一问题。(29)Tasioulas J.,“First Steps Towards an Ethics of Robots and Artificial Intelligence,”Journal of Practical Ethics,Vol.7,No.1,2019.在具体的衡量选择上,为了使权衡法则的使用理性化、定量化,可以改造阿列克西权重公式(Robert Alexy Weight Formula)进行衡量。阿列克西权重公式是阿列克西权衡法则的具象化体现,使权衡法则更具操作性。(30)吕润生:《个案情形下的法律规避如何判定?——基于阿列克西法律原则理论的研究》,《法理——法哲学、法学方法论与人工智能》2018年第1期。将阿列克西权衡法则的理念用于自动驾驶汽车算法模型解决道德争议难题,能够使结果相对更具有客观性。(31)许可:《数据爬取的正当性及其边界》,《中国法学》2021年第2期。

(一)公式框架构建

在自动驾驶汽车算法适用阿列克西法则对权重公式进行改造时,一方面,应该坚持基础的权衡法则理念,对其运行机理进行剖析并融入算法系统中;另一方面,需要结合人工智能的技术背景对公式加以解释,突出权衡公式的人工智能因素,增强道德算法的计算和决策能力。(32)陈景辉:《算法的法律性质:言论、商业秘密还是正当程序?》,《比较法研究》2018年第2期。

初始的阿列克西权重公式的基本原理如下:

Wi,j=Ii·Wi·Ri/Ij·Wj·Rj(33)Alexy R.,“Formal Principles: Some Replies to Critics,”International Journal of Constitutional Law,Vol.12,No.3,2014.

在阿列克西权重公式中,Wi,j是主体i的对应权益Pi与主体j的对应权益Pj的具体分量之比,在相同的条件C下,如果Wi,j大于1, 则表明Pi优先于Pj,Pi作为权益更值得保护;如果Wi,j小于1,则表明 Pj比Pi更值得保护;如果Wi,j等于1,则两者间的权重相互抵消。在具体参数上,Ii是指实现权益Pj会对权益Pi造成的损害程度(Interference),Ij亦然。Wi和Wj分别是指与具体条件C无关的Pi及Pj自身所具有的抽象重要程度(Weight)。Ri是指在具体条件C下,采取措施实现权益Pi或者未实现另一种权益Pj在规范上及经验上的确定性程度(Reliability),也被称为认知确定性。出于技术性考量的因素,阿列克西用轻度(l)、中度(m)、重度(s)三个刻度来分别描述I、W、R的程度,为了得出Wi,j的具体数值,则必须对 l、m、s 进行数学赋值,在“边际替代率递减规律”(Law of Diminishing Marginal Rate of Substitution)的作用下,当算法偏向于保护一种权益时,其在边际上损害另一种权益的正当性就会逐渐下降,一般在规范或者经验层面对确定性的差异排列是从“确定”“可成立”“非明显错误”一路下降,所以对l、m、s的赋值分别是2-2、2-1、20。(34)罗伯特·阿列克西:《法:作为理性的制度化》,雷磊编译,中国法制出版社,2012年,第148-167页。通过阿列克西权重公式,能够有效地对各种权益进行衡量,帮助“司法裁判根据相关利益在相关情况下的‘分量’来‘权衡’处于竞争之中的权利或法益,从而获得决定”(35)卡尔·拉伦茨:《法学方法论》,黄家镇译,商务印书馆,2020年,第509页。。

当自动驾驶汽车面对道德争议难题的选择时,其算法模型在衡量使用者和行人的保护权益价值时,需要基于自动驾驶汽车制动水平、公众对自动驾驶汽车的期待、自动驾驶汽车的行车安全等实际情况,进行现实的价值衡量,并改造阿列克西权重公式进行适用。在具体参数中:u是指使用者,p是指行人,具体条件A(Artificial vehicles)是指人工智能汽车的使用背景、技术指标等数据。Wu, p是使用者的优先保护权益Pu相对于行人的优先保护权益Pp的具体分量,也就是道德算法模型在最终权衡时的决定性指标。Iu是指因为保障行人p的权益Pp所可能对使用者u的权益Pu造成的损害程度。这里I作为衡量指标,主要受自动驾驶汽车的制动能力、安全系数等机械数据的影响。自动驾驶汽车的安全装置越完善,那么对使用者u的保障程度则越高,在出现交通事故时,保护行人p对使用者u的影响越小。而具体的参数选取,则需要生产者在自动驾驶汽车出厂时进行赋值。Wu是指与具体条件A无关的Pu自身在整个交通肇事中所具有的权益的抽象重要程度,这里权益的抽象重要程度不能因为具体的个体u或者p的个人特征而改变,即使u是著名的科学家,也只能视为一般的成年人进行赋值。因为需要参考抽象的重要程度,所以需要将个体分为儿童、老人、成年人等类别分开赋值,对儿童和老人应该提高保障权重(36)钱圆媛:《“道德机器”的道德偏差与无人驾驶技术的伦理设计》,《东北大学学报(社会科学版)》2021年第3期。,并且进行不同主体的赋值累加,得出u和p的重要程度Wu和Wp,最终放入公式中进行比较计算。认知确定性Ru是指在具体条件A下,采取措施实现权益Pu或者未实现另一种权益Pp在规范上及经验上的确定性程度,这种确定性程度R和自动驾驶的算法运行逻辑有关,在充分参考了A条件下自动驾驶汽车的技术衡量指标之后,选用不同的算法模型在最终保障u和p的确定性程度上存在差异。比如选择利己主义道德算法模型,对于保护u的确定性程度就会显著上升,最终体现为衡量公式上的差异。

整合过后的自动驾驶汽车中不同主体权益保护的权衡公式如下:

Wu,p=Iu·Wu·Ru/Ip·Wp·Rp

道德算法中的权衡公式将不同主体对应的权利保障影响要素都涵括在内,同时避免了不同要素间的相互影响。(37)吕润生:《个案情形下的法律规避如何判定?——基于阿列克西法律原则理论的研究》,《法理——法哲学、法学方法论与人工智能》2018年第1期。当Wu, p小于1时,则意味着使用者u的权利保护权重低于行人p,此时道德算法应该优先保护行人p而非车内的使用者u,这里行人p的权益Pp更值得自动驾驶汽车保护,所以必要时可以牺牲使用者u,道德算法做出这样的选择并没超出预期。而当Wu, p大于1时,则意味着使用者u的权利保护权重高于行人p,此时对于自动驾驶汽车而言,应该优先保护自动驾驶汽车中的使用者,为此可以牺牲行人的利益。当Wu, p等于1时,则意味着使用者u和行人p的权利保护权重相同,此时自动驾驶汽车的道德算法可以采用概率运算的方法,随机决定保护的对象是使用者u还是行人p,从而将以代码为基础的论证和决策的概率计算模型引入道德算法系统。(38)余盛峰:《全球信息化秩序下的法律革命》,《环球法律评论》2013年第5期。

对于阿列克西主体权衡公式的解读,实际上可以通过变换公式的样态,发现其所蕴含的衡量指标趋向,通过三阶度审查密度对这一权衡公式进行抽象解读,解读后如下:

Wu, p=Iu/Ip·Wu/Wp·Ru/Rp

抽象解读后的阿列克西主体衡量公式可以理解为“实体损害程度的权衡”ד权益抽象重要程度的权衡”ד认知确定性的权衡”(39)Alexy R.,“On the Structure of Legal Principles,”Ratio Juris,Vol.13,No.3,2000.,这种衡量模式凸显了实体损害程度I、权益抽象重要程度W和认知确定性的重要性R,将三者作为衡量指标。综合来看,将这三者作为衡量指标,实际上对于自动驾驶汽车算法衡量不同主体权利保护的优先度时具有现实价值,能够与自动驾驶的技术路径和事实处理产生联系,其中实体损害程度和技术路径挂钩,而权益抽象重要程度以及认知确定性和事实处理挂钩,从而帮助算法决定优先保护的主体。(40)朱振:《生命的衡量——自动驾驶汽车如何破解“电车难题”》,《华东政法大学学报》2020年第6期。

(二)具体计算参数的解读选取

在阿列克西权衡公式中,除了使用者u和行人p作为对象指标外,A是技术背景指标,实体损害程度I、权益抽象重要程度W和认知确定性R则分别是具体的计算参数指标。其中A作为技术背景指标,可以在汽车生产环节由厂商进行有限的修订和影响,否则生产者就会因为在处理公共交通道德争议中存在的瑕疵而承担过重的责任,因而倾向远离自动驾驶产业,最终扼杀产业发展的活力。(41)Hevelke A. and Nida-Rümelin J.,“Responsibility for Crashes of Autonomous Vehicles: An Ethical Analysis,”Science and Engineering Ethics,Vol.21,No.3,2015.因为自动驾驶汽车必须在选择保护主体时进行权衡,所以只有结合技术背景A对算法权衡公式中具体的计算参数指标进行解释和选取,才能在避免生产厂商权力过大的同时保障道德算法的有序运转,从而为后续的算法决策提供准确的衡量参数。其中,生产厂商最终选择的理论基础模式也会影响参数的选取。

1. 实体损害程度参数的解读选取

实体损害程度的参数选取,应该结合自动驾驶汽车的技术指标进行解读。随着技术进步,自动驾驶汽车实际上已经分为从Level0到Level5多种类型,不同类型的自动驾驶汽车对应的技术手段存在较大差别,整体态势上呈现从弱人工智能汽车向强人工智能汽车进化的趋势。(42)陈禹衡:《人工智能汽车交通肇事的刑法应对——以Uber交通肇事案为研究视角》,《法治社会》2020年第3期。技术手段差异既包括人工智能汽车算法系统上的差异,也包括算法和自动驾驶汽车硬件衔接上的差异。而这些差异的存在,将在客观上影响实体损害程度参数的选取。

实体损害程度参数主要由以下三个方面构成:一是自动驾驶汽车的技术运行指标。自动驾驶汽车的类型层级不同,其对应的技术运行指标也有差异。比如日本的《自动驾驶系统的道路实证测试指南》,就规定了自动驾驶汽车控制系统、传感器以及算法系统等安全指标,用以保障自动驾驶汽车的整体安全。(43)张韬略:《自动驾驶汽车道路测试安全制度分析:中日立法的比较》,《科技与法律》2019年第4期。实际上,自动驾驶汽车的实体损害程度和其安全程序密切关联,生产厂商将自动驾驶预期功能安全(SOTIF)接受准则以量化的方式置入安全程序算法中,并建立对应安全程序的安全度量指标体系。(44)李波、尚世亮、郭梦鸽等:《自动驾驶预期功能安全(SOTIF)接受准则的建立》,《汽车技术》2020年第12期。二是自动驾驶汽车算法对使用者的保障程度。这一点和算法程序所采用的理论基础有关。当采用利己主义作为理论支撑时,对于使用者u的实体损害程度Wu的影响较小,因为在利己主义算法下自动驾驶汽车的行为决定总是试图最大化自身的利益,而不顾对行人所造成的损害(45)韩旭至:《自动驾驶事故的侵权责任构造——兼论自动驾驶的三层保险结构》,《上海大学学报(社会科学版)》2019年第2期。。体现在实体损害程度层面,虽然诸如恶意伤害的强度和持续性难以被精确计算(46)Stahl B. C.,“Information, Ethics, and Computers: The Problem of Autonomous Moral Agents,”Mind and Machines,Vol.14,No.1,2004.,但是依旧可以根据技术指标得出相对准确的参量。三是自动驾驶汽车算法对行人的保护程度。这一点主要依托算法程序和汽车硬件的衔接,主要包括制动、刹车、转弯等硬件程序。道德算法通过纯粹一致性(mere consistency)、共识实践推理(consensus practical reasoning)和连贯性(coherency)的“绝对命令”来指引汽车的行驶。(47)Powers T. M.,“Prospects for a Kantian Machine,”IEEE Intelligent Systems,Vol.21,No.4,2006.以罗尔斯算法模型为例,其遵循“最大化最小值”来衡量具体的操作程序(48)Leben D.,“A Rawlsian Algorithm for Autonomous Vehicles,”Ethics & Information Technology,Vol.19,No.2,2017.,这里的最大化最小值就是要促使整体的社会效益损害最低,其中就包含了行人p的实体损害程度Wp,需要结合对Wu数据的计算进行反向推导。

2.权益抽象重要程度参数的解读和选取

权益抽象重要程度参数的解读和选取,直接关系到自动驾驶汽车在决定“牺牲谁”时,在不同类型的主体间如何进行取舍,这种在主体间的权衡与取舍,和算法的整体价值取向密切关联。(49)Wintgens L. J.,The Law in Philosophical Perspectives: My Philosophy of Law,Boston:Kluwer Academic Publishers,1999,pp.178-179.实际上,对于道德争议难题的处理,如果道德算法以单一的“生存概率”为维度,不同主体的生存概率只能被平等地分配。如果考虑不同主体的生存价值,并将“质量调整寿命年”纳入对行为的数据表征,那么生存的社会价值也需要涵括在内。(50)余露:《自动驾驶汽车的罗尔斯式算法——“最大化最小值”原则能否作为“电车难题”的道德决策原则》,《哲学动态》2019年第10期。鉴于此,对于不同主体类型的权益抽象重要程度,不能仅局限于生存概率的角度加以思考,而是要将主体的生存价值和社会价值作为主要参数,避免赋值时的随意性、过度抽象和主观性。(51)刘权:《均衡性原则的具体化》,《法学家》2017年第2期。

就使用者和行人的权益抽象重要程度而言,衡量的指标在于生存价值和社会价值。在生存价值层面,使用者和行人的比较重点在具体的生存可能性系数。比如在同一场交通事故中,坐在自动驾驶汽车内的使用者可能因为汽车自带的防护功能而具有更高的生存可能性,行人则因为暴露在路上且没有任何防护,可能的生存系数较低。值得注意的是,算法系统在训练学习的过程中,可能因为算法的不断机器学习而衍生出算法偏见,对于保护主体的生存价值产生误判(52)陈禹衡、陈洪兵:《反思与完善:算法行政背景下健康码的适用风险探析》,《电子政务》2020年第8期。,如倾向于保护车内的行驶者等,因此需要在机器学习层面对算法偏见进行消除,校正自动驾驶汽车在生存价值上的判断。在社会价值层面,对于使用者和行人的区分不能依据其社会地位的差异,而是应该以社会道德的判断作为社会价值的衡量标准,从而将不同类型的主体纳入考量范围,并从中找出最小的损害。(53)Bert I. H.,“Law’s Halo and the Moral Machine,”Columbia Law Review,Vol.119,No.7,2019.不能依据主体的社会地位作为差异判断的标准,一方面,为了实现社会公平,不能因为一方具有较高的社会地位就试图“牺牲他人”,算法应该是公平公正的;另一方面,从技术上来说,不能寄托于算法系统在短时间内对不同主体的社会地位做出判断,这涉及对公民个人隐私权的侵犯,在短时间内也并不具有实际操作性。将社会道德判断作为权益抽象的重要程度标准,是将不同的主体分为小孩、成年人、老年人等为公众所熟知的道德概念(54)李伟、华梦莲:《论自动驾驶汽车伦理难题与道德原则自我选择》,《科学学研究》2020年第4期。,通过这一概念分类进行判断和分析,不仅能够遵循社会的公序良俗,而且能避免对不同主体的判断产生争议。这符合哈特在自然法上的自我保存理论,即大部分人在大部分时间都希望继续生存下去,那么对于生存主体的选择,则需要遵循一般的社会道德规律。(55)Hart H. L. A.,The Concept of Law,New York:Oxford University Press,2012,p.191.这种对社会道德规律的尊重,实际上是一种自我预设的道德选择,用于对不同主体进行社会价值判断,进而为自动驾驶汽车提供伦理决策。(56)余露:《自动驾驶汽车的事故算法及其限度》,《自然辩证法通讯》2019年第1期。

3.认知确定性参数的解读选取

阿列克西主体权衡公式中的认知确定性参数,是为了避免自动驾驶汽车算法在进行参数分析时出现价值分析的空洞化。(57)戴昕、张永健:《比例原则还是成本收益分析:法学方法的批判性重构》,《中外法学》2018年第6期。随着自动驾驶技术的进步,社会公众对于自动驾驶汽车的要求远高于传统的人类驾驶员,并且希望其能够实现传统社会未能完全遵照的碰撞伦理,而这需要生产者在制造自动驾驶汽车时按照技术标准进行预先设置。(58)王乐兵:《自动驾驶汽车的缺陷及其产品责任》,《清华法学》2020年第2期。认知确定性本身需要在具体条件A下,判断采取措施“实现一种权益或者未实现另一种权益”在规范上及经验上的确定性程度,所以认知确定性的参数解读,需要先从宏观的人工智能技术角度进行分析,再从微观的规范层面和经验层面进行分析。

在宏观视域,对人工智能技术背景的分析需要结合算法的运行机理进行判断。当下自动驾驶汽车的算法机理实际上是程序代码的运行,而这种机器学习本身就是依托代码进行程序推导和运算(59)李德毅、杜鹢:《不确定性人工智能》,国防工业出版社,2014年,第287页。,而代码才是人机共生情景下既规制“人”又规制“机”的公因式,“代码就是法律”。(60)崔俊杰:《自动驾驶汽车准入制度:正当性、要求及策略》,《行政法学研究》2019年第2期。鉴于此,当人工智能技术不断进步,认知的确定性会随之增加,Level5层级的自动驾驶汽车在认知确定性层面的参数显然要高于Level3层级的汽车。在自动驾驶汽车运行时,公路交通决策的能动性则被完全转移到机器上(61)Coeckelbergh M.,“Responsibility and the Moral Phenomenology of Using Self-Driving Cars,”Applied Artificial Intelligence,Vol.30,No.8,2016.,由算法做出决策,而对于道德决策结果的认知确定性判断,则需要摒除一定的“自主性”误导,所以具有一定的技术难度。(62)Etzioni A. Etzioni O.,“Incorporating Ethics into Artificial Intelligence,”Journal of Ethics,Vol.21,No.4,2017.

在微观视域,对规范层面和经验层面的参数分析需要围绕算法技术展开。在规范层面,认知确定性参数需要结合已有的规范性文件进行分析。我国已有的规范性文件包括2017年发布的《国务院关于印发新一代人工智能发展规划的通知》(国发〔2017〕35号)、2020年发布的《交通运输部关于促进道路交通自动驾驶技术发展和应用的指导意见》(交科技发〔2020〕124号)、2020年发布的《智能汽车创新发展战略》(发改产业〔2020〕202号)等。这些规范性文件从制度层面为主体权衡公式的确定性参数提供判断基准,比如提出构建“智能交通,研究建立营运车辆自动驾驶与车路协同的技术体系”,这就为认知确定性的判断提供了趋向性的指引。在经验层面,需要通过对机器学习的分析,从算法的机器学习过程入手讨论其确定性参数的选取。自动驾驶汽车算法的机器学习路径容易形成固有的问题处理回路,这种固有回路很多时候并非机器天然学习形成,而是由人类驾驶员的选择演变而来,并且通常只能习惯性遵从或默认。(63)汪全胜、宋琳璘:《无人驾驶汽车与我国道路交通安全法律制度的完善》,《中国人民公安大学学报(社会科学版)》2020年第3期。人类驾驶员潜移默化地影响自动驾驶汽车,并导致后者依据处理回路的惯性在面对道德争议难题时进行选择(64)袁彬、徐永伟:《“人机共驾”模式下交通肇事罪的适用困境及突围》,《广西大学学报(哲学社会科学版)》2019年第5期。,那么算法的处理惯性就应该以量化数据的方式作为衡量指标供权衡公式参考,并且以全面且公平的视角克服算法偏见(65)Barocas S. and Selbst A. D.,“Big Data’s Disparate Impact,”California Law Review,Vol.104,No.3,2016.,从而帮助主体权衡公式在经验层面的确定性参数分析。

四、结语:道德算法应适应时代发展

自动驾驶技术的“大脑”是算法,而算法在处理复杂的道路交通安全事故时,可能会陷入道德争议难题的处理困境。在这一背景下,优化自动驾驶道德算法,并基于已有的算法处理模式提供权衡框架就具有重要性和紧迫性。综合来看,通过阿列克西权衡法则,结合自动驾驶技术发展的实际状况,能够得出契合自动驾驶汽车发展实际的阿列克西主体权衡公式,从而为自动驾驶技术的发展注入新的动力。道德算法只有紧跟时代的步伐,才能在技术发展日新月异的当下保持可适性。质言之,与其拘泥于不同的道德算法理论基础对算法处理道德争议难题的影响,不如直接以主体权衡公式为道德算法提供合理的参照标准,以自动驾驶汽车算法技术的不断优化来解决现有的争议和困难(66)吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。,从而不断完善自动驾驶汽车技术。

猜你喜欢
权衡使用者行人
权衡“轻”“重” 吃透密度
如何权衡阿司匹林预防心血管病的获益与风险
毒舌出没,行人避让
最高的权衡境界
路不为寻找者而设
新型拼插休闲椅,让人与人的距离更近
我是行人
曝光闯红灯行人值得借鉴
抓拍神器
表白