,
(1.华南师范大学 公共管理学院,广东 广州 510006; 2.会城华侨中学,广东 江门 529100)
随着人工智能和物联网等技术的迅速发展,自动驾驶汽车(即无人驾驶汽车)应用而生。自动驾驶汽车历经多年研究,在技术层面已趋于成熟,正在陆续地进入公路测试和制定相应的法律或法规的阶段。可以预期,在不久的将来,自动驾驶汽车将进入商业生产和实际使用,它们在市场上所占的比例将会越来越大,甚至一统天下。不过,就目前而言,自动驾驶汽车正式进入商用阶段还面临一些困难,其中有技术上的,也有立法和伦理上的;相比之下,后者更为严重和紧迫。
美国是最早在政策和立法上对自动驾驶持开放态度的国家。2011年10月,谷歌公司把内华达州和加州的莫哈韦沙漠作为试验场对自动驾驶汽车进行测试。次年,美国内华达立法机关允许自动驾驶车辆上路,这是美国首个关于自动驾驶的法律。目前美国已经有20多个州通过了自动驾驶的相关立法。2017年9月,美国众议院提出了一部自动驾驶法案,随后参议院提出另一部自动驾驶法案。这两部法案略有不同,预计2018年将合为一部法案而获美国国会两院正式通过。这是从国家角度统一立法,以取代每一个州各自为阵的局面。
在关于自动驾驶的立法方面,与美国相比,德国可谓后来居上。2017年6月,德国联邦议院颁布了“道路交通法第八修正案”。该修正案允许自动驾驶汽车上路,明确了自动驾驶技术的合法性,区分了不同责任主体的权利和义务,还规定了自动驾驶必须满足的若干条件。紧接着,德国公布了全球第一部针对自动驾驶的伦理指南,为相关法律法规的制定和完善提供了一定的伦理基础和道德依据。
除了美国和德国以外,欧洲、澳洲和亚洲的其他许多国家也都大力支持自动驾驶的研发和测试,其中包括中国。2017年12月18日,《北京市自动驾驶车辆道路测试与管理细则》出台,正式开启国内有关自动驾驶的法律建设,以同自动驾驶技术发展的步伐相协调。国内关于自动驾驶技术的研发始于2014年,作为中国搜索引擎、互联网巨头的百度公司与德国宝马汽车公司率先合作研制自动驾驶汽车,并在北京和上海的高速公路上进行测试。2017年7月5日,百度创始人李彦宏乘坐百度研发的自动驾驶汽车,在北京五环路上行驶约15公里。不过,具有讽刺意味的是,由于此次自动驾驶上路没有事先报备,被交警罚款和扣分。这一事件反映了我国现行交通法规对于自动驾驶技术研发的不适应性,也许正是北京有关立法迅速出台的诱因之一。
自动驾驶汽车主要依靠车内的以计算机系统为主的智能驾驶仪来实现无人驾驶。具体地说,自动驾驶汽车通过车载传感器感知路面环境,并通过由此所获得的道路、车辆位置和障碍物等信息,控制车辆的转向和速度,自动规划行车路线,从而使汽车安全到达目的地。自动驾驶汽车的行驶过程是人工智能、视觉计算、雷达、监控装置、全球定位系统和车联网的协同合作的结果。
与人工驾驶汽车相比,自动驾驶汽车的长处主要有以下四点。第一,自动驾驶系统的精确性和灵敏性要高得多,因而可以避免一些因为人类驾驶员的判断失误而造成的交通事故,并且可以杜绝酒后驾驶、恶意驾驶等违法行为的出现,从而大幅度地减少人身伤亡事故,提高道路交通的安全性。第二,自动驾驶可以提升交通效率。虽然一辆自动驾驶汽车并不能体现效率优势,但是,众多自动驾驶汽车则可以体现效率优势。因为自动驾驶汽车作为群体接受统一的中心调度,借助于大数据驱动的智能交通规划,将大大增强公路交通的有序化,减少车辆阻塞的现象。第三,车辆使用人(后备驾驶人)无需紧张地注视着道路状况和行车环境,在行车过程中可以做自己想做的事情,从而拥有更多的自由支配的时间。第四,依靠自动驾驶汽车,行动不便的老年人和残疾人等弱势群体也可自由出行,有助于弱势群体的社会福祉的提高。
凡事都是有利有弊的。与人工驾驶汽车相比,自动驾驶汽车的短处主要有以下三点。其一,正如一切电脑系统和网络系统,自动驾驶系统难免出现故障。一旦出现故障,其严重性往往超过人工驾驶,因为自动驾驶系统(包括车联网)的故障往往会同时影响众多车辆,甚至使众多车辆同时失控。其二,人工驾驶系统和自动驾驶系统之间必须能够切换,而这种切换具有潜在的危险性。因为人类驾驶员在转换角色的过程中,需要一定的时间来适应;如果来不及适应或适应不充分,反而比单纯的人工驾驶更容易造成事故。第三,面临伦理困境。例如,在造成事故的时候,如何认定事故责任人,是坐在车里的人类驾驶员还是自动驾驶系统的设计者或制造商?在不同人的生命之间进行取舍的二难困境中,决定权交给自动驾驶系统还是交给人类驾驶员?
既然自动驾驶技术有利也有弊,那么,自动驾驶汽车是否应被投入使用,取决于对它的利弊权衡;如果利大于弊,那就应当投入使用,反之应当禁止。从以上分析可以看到,自动驾驶技术的优点是很突出的,特别是其安全性程度一般会比人工驾驶高得多。世界卫生组织统计和有关研究显示,全球每年有124万人死于交通事故,其中仅美国就有3.3万人左右。如果美国公路上90%的汽车变成自动驾驶汽车,车祸数量将从600万起降至130万起,死亡人数从3.3万人降至1.13万人。这意味着,在世界范围内自动驾驶技术的实施,每年可以挽救数十万甚至上百万条生命。此外,自动驾驶技术可以把人类驾驶员从紧张疲劳的驾驶工作中解放出来,把老年人和残疾人从出行困境中解放出来,提高人们的生活质量。
至于自动驾驶技术的不利因素,我们看到,以上分析中的第一点几乎完全属于技术问题,其随着科技水平的发展而得到很大程度的解决。具体一点说,随着自动驾驶系统的准确性、灵敏性和稳定性程度以及防止黑客入侵能力的提高,自动驾驶系统的安全性和可靠性程度也将不断提高,从而使事故发生率降至最低水平。与之不同,上述第三点则完全属于伦理问题,如自动驾驶系统可以作为事故责任主体吗?如何在不同人的生命之间进行取舍?而第二点则涉及人工驾驶和自动驾驶之间的切换问题,技术问题和伦理问题兼而有之。
以下我们着重讨论自动驾驶的伦理和立法问题,特别要讨论伦理二难困境。
领世界之先的德国自动驾驶伦理指南是与同样领世界之先的德国《道路交通法》第八修正案相配合的。*参阅《德国出台关于自动驾驶的20大伦理准则》[EB/OL].百家号(2017-08-30)https://baijiahao.baidu.com/s?id=1577145176345282909 &wfr=spider&for=pc.该伦理指南就其首创性而言是意义重大的,但是,其条款则是比较粗糙或原则性的,有待今后修改、补充和完善。
该伦理指南共有20个条款,其中有些是对所有交通工具都适用的,如:与其他利益相比,要把人的生命放在首位(第7条);增强道路安全优先于便利出行等其他好处(第1条)。另一些条款虽然也是普遍适用的,但对自动驾驶技术有其特殊意义,如:在数字化交通基础设施的背景下,自动驾驶汽车受到高度监控,但要对个人信息或个人隐私给以适当的保护(第13条)。只有部分条款是专门针对自动驾驶汽车的,这也是我们所要着重讨论的,具体如下。
第10条:在自动及网联化驾驶系统中,原先由人类驾驶员承担的责任,转移到了制造商、技术系统运营商,以及基础设施、政策及法律的决策机构之上。
第16条:为了明确责任的承担主体,应确保能够通过记录和存储数据来分辨自动化驾驶系统和人类驾驶员,究竟是何者在控制车辆,以及人类驾驶员是否有能力及时接管自动化系统。
第10条明确了责任主体不一定是人类驾驶员,也可能是自动驾驶系统的制造商、运营商等,具体是谁,视情况而定。第16条给出区分责任主体的两个条件:一是通过车内仪器的记录能够辨认不同的驾驶主体,二是给出承担责任的标准,即当人类驾驶员操纵汽车的时候,责任主体是人类驾驶员;当自动驾驶系统操纵汽车的时候,责任主体是自动驾驶系统,确切地说,是自动驾驶系统的设计者或制造商。
第17条:自动驾驶的软件及技术的设计,必须在实际应用中消除突然将车辆控制交予人类驾驶员的情况。为了实现高效、可靠、安全的人机切换,并避免人类驾驶员的负担过重,系统必须适应人的交流习惯,而不是反过来要求人去适应机器。
第19条:在紧急情况下,车辆必须自主(即没有人工帮助下)进入安全状态。
第17条和第19条这两个条款要求在人工驾驶和自动驾驶之间进行切换必须是以人为本的,即让自动系统适应人而不是相反。在紧急情况下,自动系统不应把驾驶权交给人类驾驶员,而是自主地进入安全状态(如停车);否则事故责任主体是自动系统(设计者或制造商)而不是人类司机,即使自动系统发出切换的警告或提示。笔者以为,这两个条款是恰当的,它们对自动系统的设计者和制造商提出更高的要求。
以上条款虽有一些争议,但不太严重,引起很大争议的是关于伦理二难困境的条款。
第8条:在两难境地中作出何种决定(如在不同人的生命之间进行取舍),取决于具体情况(包括不可预知的行为)。因此,这些决定无法被明确的标准化,也不可能被写成在伦理上无异议的程序。系统的设计必须建立在对事故预防之上,但在面对复杂或直观的事故后果评判时,系统不能通过标准化的形式,替代或优先于一位拥有伦理意识、负责任的驾驶员所作出的决定。尽管人类驾驶员可能在紧急情况下做出非法的行为(如选择撞死一个人,从而拯救另外一个或几个人的生命),但他不一定是有罪的。
第9条:在发生不可避免的事故时,严格禁止将人群属性作为评判标准(如年龄、性别、身体及精神状况等)。禁止对受害者进行区别对待,其代表性案例之一,就是笼统地在程序中规定以人数作为衡量人身损害的标准。对于交通事故产生过程中的参与者,不应以牺牲局外人的利益为代价。
在笔者看来,第8条和第9条之间是有矛盾的。在多个人的生命之间作取舍的二难困境中,第8条主张把处置权交给“拥有伦理意识、负责任的人类驾驶员,尽管他也可能犯错误。”其理由是,对于这种二难困境的处理是不可能被标准化,即不可能被写成“伦理上无异议的程序”。然而,第9条却给出一个在不同生命中进行取舍的标准,即:不应以牺牲局外人的利益来挽救事故当事人的生命。这意味着,至少这一处理二难困境的原则可以作为自动驾驶系统的伦理准则,应当成为程序设计的依据。这样,第9条便与第8条相冲突了。
在笔者看来,第9条关于保护局外人或无辜者利益的准则是正确的,应当在自动驾驶系统的程序设计中考虑进去,即作为程序设计的一项伦理准则;相应地,对此加以禁止的第8条必须修改甚至废除。此外,第8条关于人类驾驶员具有伦理意识和负责任的假定也是武断的,事实上,伦理意识淡漠和不负责任的人类驾驶员是为数不少的。另需指出,第9条否认以牺牲人数或人群属性为权衡标准的说法过于简单化了,因而是不妥的,也需要加以修正。
其实,第8条和第9条所涉及的在不同生命之间进行取舍的二难困境,与伦理学界争议很大的一个著名案例即“电车难题”(Trolley Problem)是直接相关的。为此,我们有必要对“电车难题”给以深入的分析和评判。
美国哈佛大学桑德尔(Michael J. Sandel)教授在其公开课“公正——该如何做是好?”中以略为不同的方式提到“电车难题”,*参考桑德尔:哈佛大学公开课:公正——该如何做是好?[EB/OL],网易公开课,http://v.163.com/special/justice/使之得到学界更为广泛的关注和讨论。“电车难题”也可叫做“火车难题”,其伦理涵义是完全一致的,具体如下。
在一列火车行驶的前方有五个人站在预定的轨道上,在这五个人之前有一个岔道,现假定火车司机可以让火车改行到岔道上;但是,司机发现岔道上也有一个人。现在的问题是:如果你是火车司机,你是让火车按照原定轨道行驶而压死那五个人,还是让火车改换轨道而压死另一个人?
对此,笔者的回答是:在一般情况下,站在预定轨道上的人是违规的而不是无辜的局外人,因此不应该使火车改道而压死另一个无辜的局外人(也许那个人是修路工)。这一回答符合“德国自动驾驶伦理指南”的第9条。
也许有人会追问,不应以无辜的局外人的生命为代价来挽救事故当事人,其根据或理由又是什么?为了回答这一问题,我们不妨讨论桑德尔提到的另一个案例,即:
一位医生面临五名患者,他们每一个都亟需器官移植,否则必死。他们依次需要更换心脏、肺脏、肾脏、肝脏和胰腺。但该医生没有找到器官捐献者,只得眼睁睁看着这五名患者死去。突然他看到隔壁房间有一位健康的小伙子正在睡觉,他可以悄悄地走过去把他麻醉,然后取出他的五个器官。虽然这位小伙子必死无疑,但医生可以挽救五个患者。现在的问题是,医生的这种做法在伦理上是正确的吗?
答案显然是否定的,因为如果允许医生用健康的局外人的生命来挽救患者,那么,任何一个走进医院的人都面临被医生肢解的可能性,因而每一个人的安全都受到威胁。马斯洛的心理学理论告诉我们,安全感是幸福感的重要内容,因此这种做法有损于多数人的幸福,因而是不道德的。
我们回到电车难题,正如不应该为救五个病人而杀死一个健康人,我们也不应该为救五个违规的人而杀死一个无辜的人,否则,所有人的人生安全将受到威胁,因而违反最大幸福原则(Greatest Happiness Principle)。
最大幸福原则——增进最多数人的最大幸福——是功利主义道德学派的基本原则,也是评判伦理是非的根本标准。这一原则受到一些批评,其中之一是它把涉及利害的人数作为主要依据。这一批评也是德国自动驾驶伦理指南第9条所坚持的,即反对“在程序中规定以人数作为衡量人身损害的标准”。
然而,在笔者看来,对最大幸福原则的这种批评是对功利主义的误解,因为功利主义所说的“最大幸福”不只考虑幸福的人数,而且考虑幸福的质量。功利主义的代表人物之一密尔(John S. Mill, 1806-1873,也译作“穆勒”)就从质量上把幸福区分为“心灵快乐”和“肉体快乐”,前者的质量高于后者。正是由于考虑人类利益的质量,所以最大幸福原则不允许用无辜者的生命来挽救事故当事人,即使用一人来挽救五人也不行,因为无辜者的生命质量比有辜者的要高些。如果进一步追问,为什么无辜者的生命质量比有辜者的要高些,那是因为无辜者比起有辜者来能够代表多数人的利益。[1]
请注意,只是在这一最深的层面上,人数才成为评判是非的依据;其合理性是明显的,即:既然在生命权上人人平等,所以多数无辜者的生命价值在总体上高于少数人的;反之,如果主张多数无辜者的生命价值不比少数人的更高,那就意味着,各个人的生命价值是不平等的。由此可见,关于最大幸福原则只重人数而不重人权、只看数量而不看质量的批评是不得要领和有失公允的。
最大幸福原则应该成为自动驾驶伦理准则的基本依据之一,进而成为自动系统处理二难困境的依据。具体地说,在无辜者和有辜者的生命之间进行取舍的时候,应该挽救无辜者而牺牲有辜者;在无辜者的生命之间进行取舍的时候,挽救多数人而牺牲少数人。这并不意味着少数人或有辜者的生命不重要,而仅仅是“两害相权取其轻”,这就是最大幸福原则。
在道德哲学中,与功利主义相对立的是道义论,道义论的代表人物之一是康德。康德之所以反对最大幸福原则,是因为该原则把经验内容即幸福纳入其中,势必使人的自由意志受到感觉经验的牵制或左右,因而不成其为自由意志。自由意志是康德的道德理论以致整个哲学的核心观念,他宣称:自由概念“构成了纯粹的、甚至思辨理性体系的整个建筑的拱顶石。”[2]1-2那么,康德所说的自由意志是什么?回答是:自律的自由,而非为所欲为。
康德关于道德律令的一种表述被称为“意志自律原则”。它说:“自律的人应该摆脱一切对象,使对象不能左右意志。……例如,我应该努力提高他人的幸福,并不是从他人幸福的实现中得到什么好处,不论是通过直接爱好,还是间接理性得来的满足,而仅仅是因为,一个排斥他人幸福的准则,在同一意愿中,就不能作为普遍规律来看待。”[3]95
在这里,康德指出,自律是自觉地使自己的意志服从“普遍规律”,而不被经验对象或幸福感受所支配或左右;否则不是自律,而是他律。这个自律所依据的从而能够体现自由意志的普遍规律被康德称为“纯粹实践理性的基本法则”,也被称为“普遍律原则”(Principle of Universality),其内容是:“这样行动:你意志的准则始终都能同时用作普遍立法的原则。”[2]31换言之,每当你行动的时候,你要扪心自问,你所遵循的准则是否也希望所有人来遵守?若回答是,那么你的这一行动符合普遍律,反之不符合。
我们看到,康德的自由意志或普遍律是没有经验内容的,因此是纯形式的,这正是他的道义论与功利主义及其最大幸福原则的区别所在。康德解释道:“一切质料的实践规则都把意志的决定根据置于低级的欲求能力之中,倘使没有足以决定意志的单纯形式的意志法则,那么任何高级的欲求能力都可能会得不到承认了。”[2]21
康德所说的“高级的欲求能力”其实就是完全彻底的“大公无私”,一个人哪怕有一点点私心杂念,即追求个人经验质料方面的快乐或幸福,那就是把自己的意志“置于低级的欲求能力之中”。所以,道德原则只能是“单纯形式”的,不含丝毫的经验杂质。需要指出,由于康德对道德法则给以“单纯形式”的要求,这使他所讨论的实践理性严重脱离人们的生活实践,故被称为“纯形式的伦理学”。与之不同,功利主义伦理学则是密切联系生活实践的,这一点清楚地体现于最大幸福原则之中。
在笔者看来,如果把康德的普遍律原则作为最大幸福原则的“范导原则”,而不是将它们对立起来,那将是合情合理的,也将导致道义论和功利论的统一。然而,康德却旗帜鲜明地反对包括功利主义在内的一切“目的论”或“后果论”。对此笔者不得不说,康德的道德哲学即实践理性几乎是一种“乌托邦”,如不加以修正,将不可避免地沦为空谈。
康德道义论的空洞性也在一定程度上反映在德国自动驾驶伦理指南上面。前面已经指出,面对在不同生命之间进行取舍的二难困境,该伦理指南第8条禁止自动驾驶系统有所作为,而把处置权交给人类驾驶员,其理由是不应让自动系统“替代或优先于一位拥有伦理意识、负责任的驾驶员所作出的决定”;其潜台词是:不应让自动系统代替人的自由意志。那么,面对二难局面,人类驾驶员应当怎样作选择?该条款除了说“不能标准化”“不能无异议编程序”之外,没有给出任何有实质意义的建议,因而是一种康德式的纯形式的空谈,实际上成为一种向人类推卸责任的借口或遁词。
由于德国自动驾驶伦理指南在二难困境上采取一种推卸责任的做法,这便大大降低了自动驾驶汽车的使用价值。人们之所以使用自动驾驶汽车,一方面是为了省劲,另一方面是为了安全。然而,该伦理指南却把处理紧急情况的责任部分地推给人类驾驶员,那么人类驾驶员坐在里面需要时刻警惕紧急情况的发生,既不轻松,也不安全。既然如此,人们有何必要使用自动驾驶汽车呢?
更有甚者,前两年美国加州为自动驾驶制定新法规的时候,有人建议人类驾驶员必须坐在驾驶座上,一旦自动系统发出警告或提示,人类驾驶员必须立刻接手。其深层理由是,具有自由意志的人类应当始终是责任主体,因而应当承担处置紧急情况的责任;最终是人为人负责,而不是车为人负责。此建议立刻遭到反对,因为这样的自动驾驶比起人工驾驶更加不安全。谷歌公司的早期测试显示,人类驾驶员一旦知道汽车大部分时候可以自动驾驶,他们将开始打瞌睡,或完全不再注意道路状况;因此让他随时准备接手自动系统,既不可行,也不可靠。
在笔者看来,这种近乎愚蠢的建议之所以被提出来,是基于对自由意志的错误理解。人的自由意志不是康德那种纯形式的,而是有经验内容的,此经验内容就是自由意志在具体环境中所指向的具体目标。对于自动驾驶的具体环境,人的自由意志指向安全和轻松的行驶;换言之,为了获得安全且轻松的行驶,一个人选择了自动驾驶汽车,而放弃了人工驾驶汽车,这就是人的自由意志的体现。当然,如果有人觉得人工驾驶更符合他的自由意志,那他就做另一种选择。
保留人们在自动驾驶和人工驾驶之间的选择权,这应当成为自动驾驶伦理准则中的一个条款,此条款体现了对人类自由意志的尊重。依据这一原则,自动驾驶汽车必须具备人-机切换的功能。但是,为了体现对人类自由意志的尊重,不必要求人类驾驶员随时准备接管自动驾驶系统,以此来掌握自己的命运;因为这一要求违反了人们关于安全和轻松驾驶的更为基本的要求,在总体上违反了人们的自由意志。在这一点上,德国自动驾驶伦理指南的部分条款是恰当的,它们要求在人机切换上要以人为本,并且在紧急情况下,自动驾驶系统能够自行处理,使车辆处于某种安全状态(如停车),而不必等待人类驾驶员来接手。不过,由于在伦理二难困境上的不当规定,该伦理指南最终又把事故责任转嫁到人类驾驶员身上。
由此可见,对于人类自由意志的过分强调反而违背了人的自由意志。康德关于自由意志的纯形式的“绝对命令”反而使自由意志显得苍白空洞,倒不如功利主义的具有经验内容的自由意志来得生动有效。功利主义也强调自由意志,并且也把自由意志看作自律的自由,事实上密尔本人正是西方自由主义的旗手之一。
不过,在功利主义那里,自由意志据以自律的普遍规律不是康德式的绝对命令,而是最大幸福原则。由于人们的幸福是相对于经验环境而言的,因此最大幸福的内容也是因时因地因人而变化的。人们可以根据自己对幸福的理解在自动驾驶和人工驾驶之间进行选择,但是,一旦选择了自动驾驶,那么在行驶过程中就让自己完全服从自动驾驶系统的操作,而不必也不应与自动驾驶争夺主导权;否则就是事与愿违,南辕北辙。当然,人们放弃驾驶自主权的先决条件是自动驾驶技术已经相当完善和可靠,足以让人们给以信赖。
自动驾驶在伦理学上的二难困境最终可以归咎于道德哲学两大派别——功利论和道义论——的彼此对立。但在笔者看来,二者不必对立,而是完全可以统一起来。具体地说,对于道德理论和道德实践,功利论主要是建构性的,其最大幸福原则是建构原则;道义论主要是范导性的,康德关于自由意志的绝对命令是范导原则;二者并行不悖,相辅相成。不过,这个题目很大也很深,在此点到为止,另当别论。
俗话说:“千里之堤,溃于蚁穴”。目前自动驾驶汽车行业在科技研发上已成尉然大观,但却有可能被阻挡于立法或伦理准则方面的某些漏洞或缺陷之外。因此,尽快建立健全有关的法律法规及其伦理学基础,成为自动驾驶汽车能够进入商用阶段的关键所在。
参考文献:
[1] 陈晓平.如何分辨善与恶?——兼评桑德尔教授的“正义论”公开课[J].晋阳学刊,2015(6):78-85.
[2]康德.实践理性批判[M].韩水法,译.北京:商务印书馆,1999.
[3]康德.道德形而上学原理[M].苗力田,译.上海:上海人民出版社,1986.