能将伦理准则嵌入人工智能机器吗?

2018-05-31 09:15苏令银
理论探索 2018年3期

苏令银

〔摘要〕 人工智能技术的发展带来了一系列伦理问题,其中能否将人类价值观和规范嵌入人工智能系统,从而赋予人工智能机器以人性的光辉,成为当前人工智能机器面临的突出伦理问题。人工智能机器在做出伦理决策时,面临自上而下和自下而上的将伦理准则嵌入人工智能机器的方法论困境。从目前来看,人们不需要也不可能把伦理准则嵌入人工智能机器。为应对人工智能机器的伦理挑战,我们可以采取法律规制、技术监管、伦理建模和程序正义等综合策略。

〔关键词〕 人工智能机器,伦理准则,无人驾驶汽车,伦理选择方法

〔中图分类号〕B829 〔文献标识码〕A 〔文章编号〕1004-4175(2018)03-0038-08

无人驾驶汽车又称自动驾驶汽车、电脑驾驶汽车或轮式移动机器人,是一种通过电脑系统实现无人驾驶的智能汽车。无人驾驶汽车技术的研发已经有数十年的历史,21世纪初呈现出接近实用化的趋势。谷歌无人驾驶汽车于2012年5月获得美国首个无人驾驶车辆许可证。无人驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让电脑可以在没有任何人类主动操作下自动安全地操作机动车辆。同样国内的一些互联网公司也积极跟进, 2014年百度已经启动无人驾驶汽车计划,2016年5月16日百度宣布与安徽省芜湖市联手打造首个全无人车运营区域,这也是国内第一个无人车运营区域。根据现有已经发布的各种声明,那些配备了人工智能且已经行驶了几百万英里的无人驾驶汽车能够让这些车自主地作决策。这些决策具有伦理和社会意义,尤其是无人驾驶汽车可能会造成严重伤害时。本文以无人驾驶汽车为例来初步探讨人工智能机器所产生的伦理问题。

一、人工智能机器带来的伦理问题

面对无人驾驶汽车的飞速发展,对它的争论一直就没有停过。支持者认为车辆无人驾驶技术的优点是使出行更安全(因为去除了人为失误因素),缓解交通压力,并减少环境污染。一些喜欢驾车的人认为,驾驶会让人感到轻松惬意,无人驾驶技术还得解决许多问题。无人驾驶技术永远是将保护车辆和车内人员作为第一要务。而一个驾驶员则可能宁愿牺牲自己的车来保护他人。这些问题涉及到无人驾驶的伦理选择、伦理风险等问题。在现实社会中,无人驾驶汽车和其他配备人工智能机器的广泛应用带来了一系列伦理问题。

是否应该赋予机器伦理地位一直困扰着人工智能的伦理研究。机器人是纯粹的机器,还是具有应有的伦理地位?它们是被看作“物”,还是应该被加入到之前被排除在外的诸如奴隶、外国人和动物等之列?伦理主体只属于人类?或者机器能被视为伦理主体吗?有“机器伦理”吗?智能机器只能被看作工具吗?它们的伦理地位是实实在在的吗?以往的观点往往伴随着一种常识,至少当人们被问到机器人是否具有伦理地位,大多数倾向于消极甚至否定的回答。然而,与机器人(有时是计算机)互动的人们同时经常以另外的方式提出建议。他们把机器人不是看作“物”或“纯粹的机器”,而是比这些“更多”。

人工智能机器伦理地位争论的核心和出发点是关于伦理主体两个根本不同理念之间的对立,反过来似乎也产生了对人工伦理主体概念完全不同的预期。这就是各自不同的所謂标准观点 〔1 〕和实用主义观点 〔2 〕。在某种程度上这两个不同的变体可能有理由去争论这些真正的冲突。然而,争论的出发点是这两种伦理主体观点的一般概念首先是冲突的,而且这也为作出人工智能机器伦理地位不同的结论留下了空间。

人工智能机器伦理地位的标准观点认为,人类伦理主体需要满足特定的条件,如理性、自由意志或自治、非凡的意识。而实用主义的观点认为,对人工智能机器而言只需要存在某些行为和反应就可以。有人可能会说,实用主义的观点只需要模拟或展现行为的全部或部分标准,而标准的观点实际上需要全部标准。

黛博拉·约翰逊(Johnson, D.)就是机器伦理标准观点的主要支持者之一。她认为,人工智能机器E要成为伦理主体必须具备下列条件:(1)E能够以自己的身体引起物理事件;(2)E有一个内在的规定I,它组成了自己的欲望、信仰和其他有意图的规定,这些规定共同组成了E以某种方式(理性和意识)行动的原因;(3)规定I是导致第一个条件的直接原因;(4)条件(1)中的物理事件对伦理存在重要性的影响。当计算机系统运转时,它们的行为对表达世界其他方面产生影响,这些表达效果有害或有益。〔3 〕 这些条件中(1)也可能是(2)保证E是一个主体。一般来说,(2)和(3)往往被我们赋予人类伦理主体的存在。条件(4)则确保一个特定情况的行为是伦理上相关的,这是一个主体成为伦理主体的关键。然而,没有关于人工智能机器伦理地位这方面的进一步争论。约翰逊通过描述主体是如何把行为和存在区分来总结这个定位:“一切行为(人类和非人类;自愿和非自愿)都可以用其原因来解释,但只有行动能被解释为一系列内部心理状态,我们才能解释为什么一个主体的行动总是关乎他们的信仰、欲望和其他有意图的规定。” 〔3 〕 约翰逊反对人工智能机器具有伦理地位的主要理由直接取决于条件(2)和(3)的观点。人工智能机器不能成为伦理主体,因为它们缺乏可能导致它们行为发生的内在心理规定。尽管它们可能从外部角度提醒人类行为表现出“行动”的感觉,但这些行为由于缺乏这些内在的心理规定而无法具有伦理品质。

人工智能机器伦理地位实用主义观点的代表人物是弗洛里迪(Floridi)和桑德斯(Sanders)。他们想要重新考虑像意识这样的标准,并主张一个“非意图的伦理” 〔4 〕。他们的出发点是当我们根据所谓的典型实例推断一般的标准时,我们所选择的抽象程度取决于我们所选择的抽象层次。适用于标准观点的抽象级别是非常低的,保持接近成年人标准,不以人类为中心对伦理主体可能会实现,同时观察与伦理主体基本结构特点相关的一致性和相似性。弗罗里迪和桑德斯提出人工智能机器伦理地位的抽象层次。在这个层次中,人工智能机器E的伦理标准:(1)交互性,E与环境互动;(2)独立性,E有能力改变自身和它的相互作用,而不受外部条件的直接影响;(3)适应性,E可能会基于(1)的结果而改变在(2)中的实现方式 〔4 〕。虽然条件(1)与标准观点大致对应,但条件(2)看似与标准观点中内部精神状态的需要有很大差异。条件(3)也是不同的,两者都较弱,因为不要求E的相互作用直接由条件(2)引起,通过添加条件(1)和(2)的联合响应,从而使得条件变得更强。弗洛里迪和桑德斯认为,“随着伦理主体概念的修正,人工智能机器的伦理地位概念规避了约翰逊所说的争论” 〔4 〕。

然而,正如前面提到的,人工智能机器伦理地位争论的前景要比这两种对立的伦理主体哲学概念的应用更为复杂。琳达·约翰逊(Johansson, L.)提出人工智能机器具有伦理地位的标准,其中包括与标准观点所要求的状态相似的精神状态,但同时也建议应该从实用主义的角度来理解这些标准。琳达·约翰逊理解的人工智能机器需要具备辨别伦理相关信息的能力(如动机、后果等),基于这些信息作出伦理判断,并根据这些判断发起行动。虽然约翰逊承认这些条件需要意识,但是她主张一个不可知论者的身心问题,因此提出了一个“虚拟”方法:凡表现出来的功能,通常存在相關性能力的展示。因此,虽然人工智能机器的伦理地位不是严格(概念上或本体论上)由这些功能决定,但它们在实践中(从认识论上来说)是由它们的存在所标示。面对一台表现得像伦理主体的机器,我们应该得出结论:它是人工伦理主体,这就是我们能得到的所有理由。

还有一种观点认为,人工智能机器的伦理地位可能会被摧毁。除了基于标准观点的论据之外,琳达·约翰逊还认为,由人工智能机器设计的特征会侵蚀一个智能的伦理体,即使它可能具有意图性的特征或表现出内在精神状态的迹象。“无论将来的行为如何独立自治和交互式计算机系统,它们都是人类行为(直接或间接)、人类社会制度和人类决策的产物……计算机系统和其他人工物都有意向,意向嵌入他们设计师的有意识行为。人工物的意向性与它们的功能密切相关。” 〔3 〕

弗朗西丝·S.格劳森斯基(Frances S. Grodzinsky)和同事运用类似的观点,认为没有任何机器可以基于标准观点和实用主义观点声称这种独立性的程度。无论故意状态或实用主义的对应物,可能归因于机器,这些条件都不能与人类创造者完全分离开来。“如果有一个抽象层次的低等人工智能机器的伦理地位,可以将主体行为明确归因于它的设计者,这样的主体则不是一个伦理主体。因此,主体本质上变成了它的设计者的延伸。显然,该主体有可能远离最初设计,并与设计人员走得很远。在这种情况下,设计、实现和部署软件程序之后的某个时候,可能没有一个抽象级别,原始设计者和实现者最初意图是可以被识别的。这种情况似乎满足了弗洛里迪和桑德斯所说的伦理主体的条件。然而,正如我们在上面所说的那样,这种情况并不能削弱设计者的责任,在这种情况下人工智能机器的伦理地位受到了它的设计者的限制。” 〔5 〕

如果这个论点有效,那么它实际上似乎对任何为人工智能机器提供空间的主张都同样有力,不管它与标准或实用主义观点有什么联系。这个论点的核心似乎并不是仅仅存在于这个或那个特性(例如意图或独立性),而是关于这个特殊主体特征的属性。因此,即使我们接受这样的概念机器是有意图的状态,或者功能取代了这些意图状态,这些机器将属于它的设计者(或用户)而不是机器。同时,也不确定琳达·约翰逊的认知转折在多大程度上也适用于此。她声称,只要人工智能机器相关特征的属性与典型案例相同,我们就应该以务实方式假定人工智能机器伦理地位的存在。

被视为典型自主性机器的无人驾驶汽车是一种学习机器。它们依据程序收集处理信息并得出结论,并在没有人的干预和指导的情况下相应地改变它们自己的行为方式。因此,这样一辆汽车可能被设置了一个程序,其中包含不超过速度限制的指令。只知道其他汽车不能超过这些速度限制,从而得出结论它也应该不超过速度限制。比如,导致乘客死亡的特斯拉汽车在行驶过程中就是超速9英里。考虑到这些车辆可能造成伤害,研究者认为无人驾驶汽车需要作出“错误的”和“正确的”选择。换句话说,计算机应该被制造成或成为“明确的伦理推理者”。正如苏珊·李·安德森和迈克尔·安德森(Susan Leigh Anderson and Michael Anderson)所指出的,“在理想的情况下,我们希望能够信任自主机器自行作出正确的伦理决策,这就要求我们为机器创建一个伦理准则框架。” 〔6 〕1许多人工智能研究人员似乎认为,如果这些机器能够自行作出成千上万的信息驱动和认知决策——何时减速,何时停止,何时避让,等等——它们也应该能够作出伦理选择。这种假设对那些认为事实问题和伦理问题之间没有本质区别的人来说是特别合理的。因为他们认为这两者都可以视为受到理性驱动的心理过程。正像约翰·斯图亚特·密尔曾指出的,“我们的伦理能力是我们的理性的一个分支” 〔7 〕330。总之,能够自行作出决策的无人驾驶汽车以及其他配备了人工智能的机器似乎都需要伦理指导。

二、人工智能机器伦理选择的方法论困境

无人驾驶汽车和其他类似的人工智能机器作出伦理选择时,需要遵循人类伦理偏好。但人工智能机器伦理选择的两种主要方法(自上而下与自上而下)使得无人驾驶汽车中的“电车难题”面临新的困境。机器伦理倡导者主张可以通过伦理准则嵌入使人工智能机器成为伦理能动者。为此,他们致力于探讨将伦理准则嵌入人工智能机器之中,使其通过成长性的学习培育出伦理判断能力的可能性。自上而下和自下而上将伦理准则嵌入人工智能机器被 认为是使无人驾驶汽车或其他人工智能机器自行作出伦理选择的主要途径。但是这两种途径存在缺陷。

(一)自上而下将伦理准则嵌入人工智能机器的缺陷。自上而下方法,即在人工智能机器中预设一套可操作的伦理准则,如自动驾驶汽车应将撞车对他人造成的伤害降到最低。在自上而下方法中,伦理准则是被编程到汽车的指导系统中。这些伦理准则可能是阿西莫夫的“机器人三定律”、《摩西十诫》及其他宗教戒律或者一般的伦理准则。比如康德的绝对命令、功利主义或结果论的某种形式。主要不是一个程序员指示汽车在特定条件下以最正确的方式行驶,汽车能够根据植入其人工智能程序的伦理准则作出伦理选择。

自上而下方法的批评者(以及一些支持者)认识到,坚持任何特定的伦理准则所固有的困难。因为在某种程度上它们其中任何一个意图都会导致在伦理上不可接受的行动和结果。在无人驾驶汽车方面,人们对“电车难题”的应用给予了极大关注。就像许多学者那样,媒体经常把它们作为一种讨论手头问题的框架。两个常见的例子:(1)本杰明·康斯坦特(Benjamin Constant)指出,绝对命令将迫使某人告诉杀人犯他的猎物位置,因为在任何情况下都禁止说谎 〔8 〕1774-1799。(2)如果遵循结果论就会得出结论认为作为一种减少造成不可避免损失的方法,一辆汽车最好选择撞向相邻车道内两辆车中比较便宜的那辆汽车,这显然引起人们的担忧 〔9 〕58-65。

事实上,这些(和其他)伦理准则已经发展出试图解决这些“缺陷”的变形体。尽管如此,在一些伦理学说中仍有一些重要的辩论,突出在特定哲学体系中所面临的困境,这些哲学体系是为具有人工智能机器提供伦理指导的系统。例如,对于 “效用”是否可以量化以及如何被量化,存在众所周知的重大分歧,边沁和穆勒就对是否有不同水平的效用(快乐的“高”和“低”)存在分歧。结果论者继续面临这些挑战。例如,估计长期后果和决定应该为谁考虑后果等。电车难题的大部分思想实验认为,每一个生命都是生命,因此杀死五个人显然比杀死一个人更糟糕。然而,人们并没有像对待幼儿园里的孩子那样,对身患绝症的老年公民给予同样的伦理价值,也没有将特蕾莎修女视为罪犯。

没有必要在这里反复讨论各种伦理学说之间的重大分歧。这就足以表明,考虑到这些差异无论是使用一种或结合这些伦理准则,人们都很难设计出一种能够自行作出伦理选择的机器。像“电车难题”并非一无是处,像其他心理实验一样它们可以作为一个具有挑衅性的对话起动器。它们可以被用来作为一种有效的教学工具。例如用于说明结果论和义务论的区别。然而,它们对人工智能机器的选择模式来说尤其会适得其反。“电车难题”是非常做作的,它们通常只留下两个选择,而且这两个选项和其他条件都不能被修改。例如选择的框架要么是杀死一个孩子,要么造成毁灭性灾难。为了进一步简化这个场景,它假设杀死两个人“显然”比杀死一个人更糟糕,这无视大多数人对不同人的生命的不同看法。比如将一个95岁的晚期癌症患者与25岁的退伍老兵或者孩子相比较。詹姆斯·奥康纳补充道:“电车理论的错误之处在于它被含蓄地设计但却带有明显的教条主义,它规定救援者不是处在一个位置,或者没有这种倾向,或者真的需要帮助。只有通过选择一个或另一个斯巴达式的选择范围,所有的选择都在伦理上令人厌恶,电车哲学家已经预先设定好了介入场景方案。由此可见,电车方法是以一种高度贫困的人性观为前提的。” 〔10 〕芭芭拉·弗里德(Barbara Fried)指出,“电车学的‘知识垄断鼓励一些哲学家把更多的注意力放在‘边缘性的古怪案例上,而不是现实生活中发生意外伤害风险的大多数案例。” 〔11 〕 法学界一个重要的格言:“艰难的案件会导致更糟糕的法律”,由于特别极端情况而引起注意的案件往往是由某些法律或规则而导致的,而这些法律或规则只适用于贫乏规则。因此,“定时炸弹”的情景被用来证明功利主义的伦理规范是对酷刑的辩护 〔12 〕211-228。

但是有人可能会问,“如果人类可以做到这一点,为什么智能机器不能呢?”作为回应,人们首先注意到人类能够应付细微差别和处理模糊的决策,但计算机程序员发现这样的决策特别费力。此外,当一个人认为可以基于这个或那个哲学基础而作出伦理选择时,实际上人类首先从抚养他们的人那里获得他们自己的伦理价值观,然后,当他们接触到来自新的群体、文化和亚文化的各种投入并逐步发展他们自己的个人伦理组合时,修改他们自己的这些价值观。此外,这些价值受到特殊的社会原则影响,这些社会原则并不局限于任何一个伦理准则。简而言之,自上而下的方法是非常难以置信的。

(二)自下而上将伦理准则嵌入人工智能机器的缺陷。自下而上方法,让人工智能机器运用反向强化学习等机器学习技术研究人类相关现实和模拟场景中的行为,使其树立与人类相似的价值观并付诸行动,如让自动驾驶汽车研究人类的驾驶行为。在机器伦理学的第二种方法即自下而上的方法中,机器将学习如何通过观察人类在实际情况下的行为,而不是被教授任何形式的规则或具有任何特定的伦理准则来作出伦理选择。这种方法已经被应用于无人驾驶汽车学习的非伦理方面。例如,卡内基梅隆大学研究人员发明早期自动驾驶汽车,能够经过2-3分钟人类驾驶员的培训之后在高速公路上行驶。其普遍化能力允许在四车道的道路上行驶,尽管它只是在一条或两车道的道路上被训练的 〔13 〕。机器学习也被一些研究人员用来改善和提高汽车的行人检测能力 〔14 〕。此外,来自英伟达公司的一个团队最近展示一辆无人驾驶汽车,它使用“端到端”的机器学习,即在观察了72小时的人类驾驶数据之后,它就可以自主驾驶。〔13 〕然而,将这些视为机器学习伦理行为的先例,就假定学习红绿灯的不同反应没有显著的差异,并学习理解、欣赏伦理命令,以便必须要特别注意不要撞到与汽车在同一车道行驶的骑自行车的人,更不要说不去干扰或故意伤害骑车的人 〔15 〕88-114。然而,汽車被要求处理的各种伦理问题是非常罕见的。比如,在不可避免的碰撞事故中谁能杀死或伤害谁这些问题。根据2013年美国交通部的数据,每行驶1亿英里只导致了77人受伤和1.09人死亡 〔16 〕。而且,每一个这样的挑战情况都与下一个不同:有时是一只小猫导致事故,有时是一辆校车导致的事故,等等。无人驾驶汽车必须以这种方式经历几个生命周期跟随一个人去学习伦理。

可见,这是统计学上机器学习程序的一个广泛问题,以及更广泛的统计推断。当从某一概率分布中抽取样本时就会出现异常事件,这一结果是很难预测的,有一些反应是正常的。首先,根据定义这些是“异常值”,其罕见出现的频率是有边界的。第二,人类司机面临同样的问题,通常以不可预测的方式作出反应,有时会导致所谓的“人为错误”。第三,先进的机器学习系统从以往的经验作出概括,并通常涵盖前所未有的情况。对机器学习来说,这仍然是一个具有挑战性的研究课题,但它并不是这个领域唯一的研究课题。大多数时候人工智能机器可以与法律手段保持一致。在其他情况下,它们可以被要求遵守它们用户的伦理偏好。当然,这两种伦理的指导方式将揭示无人驾驶汽车百万英里下的情况(每一个都是独特的和往往难以预测的)下,总是会有一些无法预见的事件和程序会发生。例如,当一个金属气球正好飞到无人驾驶汽车的前面时,把它搞混了。在这些情况下,最好的选择是随机地决定哪一方会受到伤害(包括无过错保险)。如果这些情况是重复的,法律的指导原则或伦理机器人将需要被人类更新。

因此,人们建议无人驾驶汽车可以通过某种作为一种集体思维或利用群体智能的聚合系统,并从数百万人的伦理决策中学习。然而,人们应该注意,这可能会导致汽车习得一些不伦理的偏好。如果他们知道许多人所做的,智能汽车可能会加速、尾随并参与到路怒中。还必须注意到,当面对类似“电车难题”带来的选择时,人们可能会作出自动反应,而不是在伦理讨论和决策上。也就是说,观察人们不会教给这些机器是什么伦理,而是什么是普遍的。这个问题是由简·弗朗西斯(Jean-Francois)、博纳丰(Bonnefon)、阿奇姆·谢里夫(Azim Shariff)和伊亚德·拉万(Iyad Rahwan)等所做的实验支持。他们测试了参与者对无人驾驶汽车是否应该作出实用的伦理选择的态度,即使这意味着为了拯救更多的行人而牺牲乘客的生命。他们发现大多数受访者希望无人驾驶汽车在没有参与的情况下作出实用的选择。对他们自己来说,他们希望汽车能以他人为代价而优先考虑自己的幸福。正如哲学家帕特里克·林(Patrick Lin)所说,“没有人想要一辆汽车关心更大的善,他们想要一辆车关心他们自己。” 〔17 〕对于谷歌、特斯拉或任何其他汽车制造商来说,这几乎不可能成为符合伦理标准的汽车,它们最不听从大众的意见。

简言之,自上而下和自下而上方法都面临非常严重的困难。此进路在技术上存在极大困难,理论上也受到不少质疑。这些困难更多的不是技术上的,而是与伦理哲学的内在结构有关。尤其是相比于人工智能机器能否一开始就成为伦理主体的问题,这些困难显得苍白无力。实际上,不论是自上而下地在自动驾驶汽车等人工智能系统中嵌入伦理代码,还是自下而上地让其从环境中学习伦理规范,在近期都很难实现。正如信息哲学家弗洛里迪(L.Floridi)所指出的,“为机器制定一套伦理无异于白日梦,更为负责任的策略是在智能机器内部嵌入一定的安全措施,同时在机器自动操作时,人可以作为‘共同决策人发挥监管作用。” 〔18 〕28-29但是,假若真能将合乎伦理的伦理准则嵌入机器人和人工智能系统之中,是否意味着也可以轻而易举地将非伦理准则和反伦理准则嵌入其中呢?

这样看来,似乎人们不需要也不可能把伦理嵌入人工智能机器,机器也不能像孩子那样习得伦理准则,这样它们就能自己作出伦理选择。在很多情况下,社会可以对人工智能机器所作的事情设置法律限制。或许未来,用户可以为它们提供伦理指导,雇佣伦理机器人来使得配备了人工智能的机器保持正常运转,但目前这一愿望很可能还遥遥无期。

三、应对人工智能机器伦理挑战的策略选择

人工智能机器伦理选择的现实困境表明,人们不需要也不可能把伦理嵌入人工智能机器。但对人工智能机器的伦理选择实施监管仍是必不可少的。为此,社会可以对人工智能机器带来的伦理挑战和“技术性风险”采取法律规制、技术监管、伦理建模、程序正义等综合策略选择。

(一)人工智能选择的法律规制。法律规制是社会风险治理的重要手段,也是伦理和社会价值在人类世界中实现的主要方式。许多伦理和社会价值观都体现在法律 (以及它们在法规中的表达)中,即它们是集体制定和实施的。例如,为了提高安全性,汽车必须在停车标志上停放。那些不接受这些价值观的人将被禁止行驶、处罚(如签发罚单)或被监禁(如醉驾者)。实现社会和伦理价值的法律强制是至关重要的。因为通过由立法机关制定的法律来执行的许多价值,由法院解释并由国家执行,原则上不受个人的审议和选择。它们需要集体审议和决定。社会不让每个人决定他或她是否认为它在伦理上合适的不是速度也不是要刹车,而是靠左边行驶 (通常),避免闯红灯、窗外扔垃圾、不戴安全带、离开事故现场、醉酒驾驶或在法定年龄以下开车。因此,智能机器能够做出伦理选择的观点只考虑了它们的主人或者用户应该做什么,并没有考虑到汽车应该做什么。

把所有这些选择作为本质上是合乎伦理的,但是无视人类行为和决策的许多方面不受个人审议和决定,机器伦理的支持者看到对于配备了人工智能的机器而言,更大领域的伦理决策比实际存在的要多。就像所有其他汽车一样,无人驾驶汽车必须遵守法律,如果他们认为速度、污染等问题是合乎伦理的,就没有必要去考虑。确实,这些法律可能会考虑到这些车的特殊性。不过,像所有其他车辆一样,无人驾驶汽车需要遵守集体同意的法律,否则就会被从马路上拖走。它们的所有者、程序员和制造商需要对所造成的任何伤害承担责任 〔19 〕。

對人工智能机器的伦理指导应该利用一个新的人工智能程序,它将“读取”其拥有者的伦理偏好,然后指导这些机器留意它们,它们被称为“伦理机器人”。伦理机器人是一个人工智能程序,它能够分析成千上万条的信息(不仅是在互联网上公开的信息,而且包含从本地计算机存储和其他存储设备收集的信息),这些信息是关于特定行为的个体为了确定个人伦理偏好。然而,伦理机器人的方法并不要求机器学会接受任何一种伦理,或任何伦理能动者具有的属性。伦理机器人仅仅是“读取”用户的伦理偏好并指示机器注意它们。也许有人会问:假如这些偏好有害呢?如果汽车从个人那里学会如何行进,它们可能学会“坏”的行为。因此,伦理机器人最终也需要在法律规定的范围内解决问题。

因此,将伦理嵌入机器或教授伦理给机器是非常繁重的工作。人工智能机器所作的许多伦理选择都是被迫作出,不需要也不应该由它们作出。因为这些选择是由社会、立法机构和法院作出。剩下的许多或许可以由“伦理机器人”来选择,这让汽车的“行为”与车主的伦理偏好保持一致。当然,法律和伦理机器人都不能完全克服某些决策困境,比如一些极端异常的情况。

考虑到人类对现有技术和制度认知的局限性,立法者和政策制定者当前提出对人工智能的管制必然需要经过提出、试错和总结经验才可能完善。现阶段我国开展对人工智能的法律规制可以先从发现和确认全世界应当共同遵守的原则开始。2017年签署的阿西洛马人工智能原则就为设计一套保障与人类价值观一致的AI安全发展指南作出了有益的尝试。

(二)人工智能機器选择的技术监管。技术监督是人工智能机器伦理选择风险治理的重要手段。风险社会理论指引下的技术监管有以下特点:风险规避的主要路径是事先预防而不是事后补救;风险规避的基础范式是从技术研发到应用过程的责任制度;风险规避的重要措施是奉行技术民主原则。解铃还须系铃人。人工智能机器的伦理选择风险本质上是由技术本身造成的。因此,要有效应对人工智能机器的伦理决策风险问题,实施技术上的监管不失为一种行之有效的方法。比如,为了防止无人驾驶汽车作出不伦理的行为选择,可以借助大家比较认同的伦理准则设计智能算法和“伦理的机器人”对人工智能机器或系统施加“技术性”监管,也就是以人工智能技术系统来监管人工智能技术系统。这种技术监管机制可以借助两种途径来实施:一是外部监管。随着智能机器学习能力的不断增强,人工智能机器的伦理选择可能会偏离初始设置,因此监管机构需要定期审查其智能机器的伦理算法是否还能通过伦理水平测试,是否有必要进行伦理算法的升级。二是内部监管。即从算法上设置一种二阶程序实时地监控人工智能系统或机器的运行,也就是用人工智能系统监管人工智能机器的伦理选择。

(三)人工智能机器选择的伦理建模。在人工智能机器选择的过程中,尝试开发一些计算软件能够在伦理需要的情况下提供指导。实际上已经有这样软件开发的尝试。第一个例子是一个实用的软件工具叫杰里米 〔20 〕368。这个程序通过使用简单的产品结果的效用强度、持续时间和概率(其中的每一项都由用户来估算)来测量任何行动的效用结果。在无人驾驶汽车的环境中,效用可以被定义为安全或者损害成本的反面,它是基于强度、持续时间和概率的基础上来自于伦理模型的估计。这个模型主要缺陷是它单独使用功利主义伦理学理论,这种理论忽视了情景、美德和个体伤害的限制。

麦克拉伦(McLaren)开发了两个工具来帮助伦理决策,第一个工具是“讲真话者”,这是一个能够分析两个案例主题并决定是否告诉真相的程序 〔21〕。程序标识案例之间的异同,列出在每一种情况下赞成或反对说真话的理由。这是诡辩推理的例子,一个通过比较相似情况下的问题而不是使用从另一组被试中习得的规则达到结论。案例研究使用符号而不是输入自然语言处理更容易被机器可读。类似的程序来自麦克拉伦的SIROCCO 〔21 〕,使用诡辩从国家专业工程师学会中与工程伦理问题相关的伦理规范来识别原则,像“讲真话者”和“SIROCCO”避免伦理判断,而是提出可以帮助用户做出决策的与伦理相关的信息。

无人驾驶汽车甚至更复杂的例子将会继续出现碰撞事故。为了减少损失,车辆必须持续不断地评估对其自身和其他的风险。甚至简单的演习将要求车辆确定本身及其他可以接受的风险。这些风险的计算、验收和分摊是伦理选择,人类司机将无法监督这些选择。车辆有时必须通过明确预先设置的程序指令、机器学习的方法或者两者的某种结合自主地作出伦理选择。伦理建模已经取得了一些进展,但仍留有大量的工作要去做。

(四)人工智能机器选择的程序正义。确立人工智能机器选择的正义程序也非常必要。人类社会中的制度规范、法律准则和司法决策受程序正义的约束。基于智能算法基础上的人工智能机器选择理应受到程序正义的约束。正如希特轮(Danielle Keats Citron)在其论文《技术正当程序》中所指出的:鉴于智能算法日益决定着各种决策的结果,人们需要建构技术公平规范体系,通过程序设计来保障公平的实现,并借助于技术程序的正当性来强化人工智能机器决策系统的透明性、可审查性和解释性。为了避免伦理算法歧视,2016年12月美国颁布的白宫人工智能报告将“理解并解决人工智能的伦理、法律和社会影响”列入国家人工智能发展战略。英国下议院科学技术委员会呼吁成立一个专门的人工智能委员会,对人工智能当前以及未来发展中的社会、伦理和法律影响进行研究。

近年来,国际人工智能界日趋重视人工智能中的伦理规范与法律规制问题,并推动相关技术标准及社会规范的研讨和制定。如我国出台的《新一代人工智能发展规划》,专门提出人工智能伦理与法律的“三步走”规划,IEEE全球人工智能与伦理倡议、阿西洛马人工智能23条伦理原则。但是,将人类伦理准则或法律规范嵌入到人工智能机器中,仍是当今世界面临的前沿性科学难题,这需要技术、伦理、法律等控制手段配合使用、高度融合和跨学科领域合作。从目前来看,机器不能像孩子那样习得伦理准则,人们不需要也不可能把伦理嵌入人工智能机器。社会可以对人工智能机器决策带来的伦理挑战和“技术性风险”采取法律规制、技术控制、伦理建模和监管机制。

应该承认,相当数量的决策都涉及伦理和法律两方面的要素。例如,法律规定在许多情况下车辆必须给行人让路。要求汽车在许多情况下要避让行人是由法律规定的。尽管如此,那些对他人有强烈尊重的人更有可能采取额外的预防措施,甚至比那些对这个价值的承诺更弱的人更不愿意靠近行人。因此,汽车需要在由伦理机器人来指导,以确定它们是否接近法律规定的界限,或者给予它更大的余地。除了遵守伦理和社会价值观之外,其他许多因素(比如通过对现实和情感的解释)都会影响无人驾驶汽车的伦理选择。将人类驱动的汽车和无人驾驶汽车进行比较很可能会发现,许多人对无人驾驶汽车的评价要比人驾驶汽车高得多。随着相关技术的进一步发展,这种情况尤其可能会发生。这一发现具有重大的伦理意义,因为在可预见的未来,人们预期无人驾驶汽车将比人类驾驶的汽车安全得多。

参考文献:

〔1〕Eshleman, A. Moral Responsibility. In E. N. Zalta (Ed.). The Stanford Encyclopedia of Philosophy〔EB/OL〕.http://plato.stanford.edu/archives/sum2014/entries/moral-responsibility/.

〔2〕Levin, J. Functionalism. In E. N. Zalta (Ed.)〔J〕. The Stanford Encyclopedia of Philosophy,2013(12).

〔3〕Johnson, D. Computer systems: Moral entities but not moral agents〔J〕. Ethics and Information Technology, 2006(4).

〔4〕Floridi, L., Sanders, J. W. On the morality of artificial agents〔J〕. Minds and Machines, 2004(3).

〔5〕Grodzinsky, F. S., Miller, K. W.,Wolf, M. J. The ethics of designing artificial agents〔J〕. Ethics and Information Technology,2008(3).

〔6〕Michael Anderson, Susan Leigh Anderson (eds). Machine ethics〔M〕. Cambridge: Cambridge University Press,2011.

〔7〕John Stuart Mill.On liberty and other essays〔M〕. Oxford: Oxford University Press,2008.

〔8〕Constant, Benjamin. Des re actions politiques〔M〕. Oeuvres comple`tes ,1797.

〔9〕Noah Goodall. Ethical decision making during automated vehicle crashes〔M〕. Transportation research record: journal of the transportation research board,2014.

〔10〕OConnor, James. The trolley method of moral philosophy〔J〕. Essays in Philosophy, 2012(13).

〔11〕Fried, Barbara H. What does matter? The case for killing the trolley problem (or letting it die) 〔J〕. The Philosophical Quarterly ,2012(62).

〔12〕Lucas Jr., George R. Engineering, ethics and industry: the moral challenges of lethal autonomy In Killing by remote control: the ethics of an unmanned military〔M〕.New York: Oxford University Press,2013.

〔13〕Bojarski, Mariusz, Davide Del Testa, Daniel Dworakowski, Bernhard Firner, Beat Flepp, Prasoon Goyal, Lawrence D. Jackel et al. End to end learning for self-driving cars〔EB/OL〕. https://arxiv.org/ abs/1604.07316.

〔14〕Harris, Mark. New pedestrian detector from Google could make self-driving cars cheaper〔EB/OL〕.http://spectrum.ieee.org/cars-that-think/transportation/self-driving/new-pedestrian-detector-from-google-could-make-selfdriving-cars-cheaper.

〔15〕McDermott, Drew. What matters to a machine. In Machine ethics, ed. Michael Anderson, and Susan Leigh Anderson〔M〕 .Cambridge: Cambridge University Press,2011.

〔16〕National Highway Traffic Safety Administration. Traffic safety facts 2013: A compilation of motor vehicle crash data from the fatality analysis reporting system and the general estimates system. US Department of Transportation〔EB/OL〕. https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812139.

〔17〕Metz, Cade. Self-driving cars will teach themselves to save lives—but also take them. WIRED〔EB/OL〕. http://www.wired.com/2016/06/self-driving-cars-will-power-kill-wont-conscience/.

〔18〕朗伯·魯亚科斯,瑞尼·凡·伊斯特.人机共生:当爱情、生活和战争都自动化了,人类该如何相处〔M〕.北京:中国人民大学出版社,2017.

〔19〕Etzioni, Amitai, Oren Etzioni. AI assisted ethics〔J〕. Ethics and Information Technology ,2016(1).

〔20〕M. Anderson, S. L. Anderson, C. Armen.Towards Machine Ethics: Implementing Two Action-Based Ethical Theories〔C〕// in Proceedings of the AAAI 2005 Fall Symposium on Machine Ethics, Arlington,VA,2005.

〔21〕B. M. McLaren.Computational Models of Ethical Reasoning: Challenges, Initial Steps, and Future Directions〔J〕. IEEE Intelligent Systems, 2006(21).

责任编辑 苏玉娟