新兴技术与实验伦理学的双向互动

2022-11-22 18:58白惠仁
伦理学研究 2022年1期
关键词:伦理学伦理决策

白惠仁

除了逻辑与规范性论证,传统规范伦理学在考虑人类道德直觉和道德推理问题时还常常使用思想实验的方法。近几十年来,经验科学开始介入到道德领域的研究中,罗尔斯在《正义论》中对“差别原则”的论证使用经济学和心理学方法便是这种“实验伦理学”(experimental ethics)运动的先驱。20世纪90 年代以来,伦理学研究日益汇聚来自众多经验科学的资源,从演化根源、环境影响、认知机制、脑神经关联等方面对人类道德现象展开考察。近年来,面对新兴技术引发道德难题的情境化、多元化、大众化等特征,规范伦理学表现出某种无力感,基于新技术路径的实验伦理学开始显露其优势。但当前关于新兴技术的道德困境的实验伦理学研究却显现出一种奇特的局面:运用基于新兴技术A的实验伦理学来解决新兴技术B 所产生的伦理问题,而往往新兴技术A 自身还处于某些固有的伦理争议当中。本文希望以自动驾驶道德决策难题的实验伦理学研究为例,解释当下新兴技术与实验伦理学的双向互动关系。

一、新兴技术对伦理学的挑战

人工智能对人类社会道德秩序的搅动是根本性的、多向性的,需要对这类新兴技术做出有预见性的实践考察,因而催生了人工智能伦理研究。在智能医疗、自动驾驶、自主武器系统等具体应用情境中,人工智能系统开始面对越来越多的道德决策。由此,学界开始关注人工智能系统是否能够做出道德决策及决策机制的问题。然而,由于道德文化多元主义、道德决策情境的复杂性、人工智能系统道德归责的困难以及公众对人工智能道德决策的社会心理障碍这四个方面的原因,我们无法将某种既定的道德原则嵌入道德算法中以做出道德决策。因此,传统的规范伦理学框架难以应对人工智能引发的道德挑战。本文将通过自动驾驶汽车道德决策的伦理学研究表明这一立场。

与其他人工智能技术的具体应用场景类似,自动驾驶的伦理问题也包含了数据所有权、隐私保护、事故责任等方面,但近几年来的伦理学研究大量集中到了所谓的“优化碰撞算法”的角度,即以一种近乎特设性的方式将自动驾驶汽车的道德决策问题与伦理学中经典的“电车难题”思想实验结合起来。如果不考虑其背后的媒体炒作等社会因素,这种伦理学研究背后有两个基本想法:第一,我们需要在自动驾驶汽车完全商用化之前预先考虑如何对自动驾驶汽车进行编程,以便使其成为大众所能接受的汽车;第二,关于“电车难题”的伦理研究有助于准确了解汽车需要达成或展现什么样的伦理价值,最终这些价值将通过道路交通规则和法律的形式来实现。

大部分道德哲学家们都基于这种假设或在这种假设的启发下来考虑自动驾驶汽车的伦理问题。维拉(Ivo Coca-Vila)在讨论自动驾驶汽车的程序设定面临的功利主义原则和自我保护原则的矛盾时,认为功利主义原则在当前交通刑事法律原则中不能得到辩护,而是应该基于一种义务论的理解,即依据所有主体在事故中的法律地位,以自主性(autonomy)和一致性(solidarity)作为道德辩护的核心[1](59-82)。德国交通部的《自动化及网联汽车伦理报告》也具有明确的义务论倾向:“对个人的保护优先于其他所有的功利性考量。”[2]另一些规范伦理学者则基于功利主义的“可计算性”优势,认为自动驾驶的道德决策应基于减少伤亡的原则,当然这也符合了研发自动驾驶汽车以减少道路交通伤亡的价值目标。博纳丰(Jean-François Bonnefon)等提出在商业行为中自动驾驶汽车用户会倾向于某种功利主义算法[3](1573-1576)。在义务论与功利主义之外,一部分研究仍然以不可避免的交通事故作为理论预设,他们试图在功利主义和义务论的现有讨论框架之外引入正义的维度[4](107-115);另一部分研究考虑到了自动驾驶汽车在非危险情况下的行为问题,引入了罗尔斯的分配正义理论,其中一些研究关注的是自动驾驶汽车对道路交通整体运行或社会弱势群体的影响[5](1131-1149),另一些研究则将罗尔斯的正义原则直接运用于作为个体行动者的自动驾驶汽车[6](227-249),然而我们知道罗尔斯的正义原则是针对社会基本制度(major social institutions)提出的。

规范伦理学研究从功利主义、义务论和正义的维度考察了优化碰撞算法的问题,这在当前对自动驾驶汽车的伦理问题研究中最为突出,而对这一问题的讨论都是建立在“电车难题”思想实验这个前提之上的。也有部分研究者明确提出自动驾驶汽车与“电车难题”有显著差异,不应当作为自动驾驶伦理问题的研究重点,他们提供的理由包括:(1)“电车难题”所构造的事例在现实世界中是不可能发生的[7](413-427);(2)“电车难题”与自动驾驶面对的是实质上不同的道德情境[8](1275-1289);(3)“电车难题”的基本预设是“自上而下”的道德决策设计,这与自动驾驶汽车难以相容[9](12507);(4)自动驾驶汽车“道德算法”的设计本质上并非道德决策,而是政治协商与一致同意[10](669-684)。

当前对自动驾驶汽车伦理问题的研究有一个基本预设,即当自动驾驶汽车面临不可避免的交通事故时,其道德决策、道德责任等问题应当如何处理。为了凸显自动驾驶汽车可能面临的道德困境,这些不可避免的交通事故情境往往被描述为可能致人伤亡的极端状况。然而,伦理考量应当贯穿自动驾驶汽车的整个运行过程,而不是仅局限于某些危险情况。因为自动驾驶汽车像任何其他交通参与者一样,将在一个共享的公共空间中运行,其每一个驾驶行为决定都会影响其他人的操作可能性,这关系到所有道路交通参与者的“利益”(utility)(如安全、自由、舒适度等)。因此,自动驾驶汽车的引入将搅动整个道路交通体系的伦理秩序。

因此,在整个人类道路交通体系中引入自动驾驶汽车需要考虑社会各方的整体利益,特别是考虑那些没有直接利益相关的人(如行人、传统汽车用户等)。然而优化碰撞算法和“电车难题”的场景将思想实验置于抽象和无偏见的讨论之下,所以,还需要综合考虑行人和其他第三方的利益,这大致相当于征求那些在最初的“电车难题”中被绑在铁轨上的人的意见,以确定道德上正当的行动方案应该是什么。下面我们将以混合交通中的人机差异为例来说明这一问题。自动驾驶汽车的设计方式是以最安全、省油和省时的方式到达目的地,这一优化目标对其驾驶风格产生了深远影响,使它们与大多数人类驾驶员有明显差异。例如,为了达到省油和避免拥堵的目的,自动驾驶汽车不会大力加速,并且会轻轻刹车;自动驾驶汽车会停留在骑车人后面更长时间才会超车;自动驾驶汽车会在需要的时候让路,避免超速,总是在注有停车标志处停下来,等等。人类的行为也基于原则和规则,然而与机器驾驶不同,人类表现出的多是自满而非优化驾驶行为,其驾驶能力只需刚好能达到他们的驾驶目标。这表现为在安全、燃油效率和车流量方面都不是最优的驾驶行为,如超速、保持过短的跟随距离等。人类驾驶员在驾驶过程中是通过对其他人类驾驶车辆在各种情况下积累的诸多预判经验形成驾驶习惯,而这些预判通常不太适合自动驾驶汽车。例如,一辆自动驾驶汽车可能会一直跟随在后面,而人类驾驶员的预判是它即将超车。上述的不兼容增加了自动驾驶汽车与传统汽车混合运行时交通事故发生的可能性,从而违背了人类社会引入自动驾驶汽车的价值基础——安全原则。

因此,自动驾驶等新兴技术的引入对现实社会规范的改变是全方位的,我们很难沿用义务论、功利主义或某种正义原则给予其普遍化的应对方式。以上反对当前自动驾驶汽车伦理学研究的观点表达了规范伦理学在面对人工智能等新兴技术对人类道德秩序的搅动时的无力感。面对自动驾驶汽车的现实复杂性和利益牵涉的广泛性,一种可能的方案是将“电车难题”的思想实验民主化,不仅以乘车人作为道德主体,还需要从行人和其他第三方的角度将“电车难题”应用于自动驾驶汽车以收集道德观点,与其让自动驾驶汽车的制造商和用户将他们的道德偏好强加于他人,还不如让整个社会都参与到道德辩论中。

二、实验伦理学的应对策略及其困难

上一节通过对自动驾驶优化碰撞算法问题的伦理学研究的考察,试图表明新兴技术的应用对人类社会规范和道德规范的改变是深刻而广泛的,基于专家直觉的规范伦理学无法应对新兴技术所导致的伦理议题的普遍化,自动驾驶汽车的道德算法和道德责任牵涉到的是所有利益相关者乃至全体公众的道德直觉和道德判断,可以说新技术对人类社会道德秩序的挑战导致了伦理学议题的平民化,这就需要诉诸关注大众直觉的实验伦理学而非基于专家直觉的规范伦理学。因而,在自动驾驶的道德决策讨论中出现了基于实验伦理学的研究方案。

实验伦理学作为一种方法论是以实验哲学(experimental philosophy)的一个分支的形式出现的,实验伦理学是对道德直觉、道德判断和道德行为的实证研究,像其他形式的实验哲学一样,它涉及使用实验方法收集数据,并使用这些数据来证实或修正伦理学理论。与实验哲学相区别的是,实验伦理学的研究还涉及我们道德判断背后的认知结构、产生道德判断的发展过程、道德判断的神经科学基础等。而实验伦理学与道德心理学的区别在于:实验伦理学侧重于关注对人类道德心理状态的合理化(rationalize)解释;道德心理学侧重于关注对人类道德心理状态的因果解释。近几十年来,经验科学开始介入到道德领域的研究中也为实验伦理学提供了方法论的基础,尤其是功能性核磁共振成像(fMRI)技术的流行给认知科学研究介入道德哲学提供了新方法,格林(Joshua D.Greene)使用功能性核磁共振技术考察道德判断的内在机制为现代实验伦理学做出了示范[11](2105-2108)。具体到自动驾驶汽车的道德决策研究中,鉴于以上所述的现实情境的复杂性和基于专家直觉的不充分性等问题,很多研究者也开始使用实验伦理学的方式提取和模拟大众道德直觉和道德判断。

美国麻省理工学院媒体实验室在Nature发表了他们关于自动驾驶汽车道德决策原则的研究论文,从2016 年开始他们通过“道德机器”(Moral Machine)的网站收集了4000 万条来自233 个国家和地区的公众对自动驾驶汽车可能面临的道德困境的决策倾向。研究结果显示绝大多数人都具有三个基本倾向:保护人而不是动物、保护更多的人、保护更年轻的人。他们还基于道德文化多元主义的视角进一步将不同地区公众的道德倾向概括为:与南方和西方比,东方并不是优先保护年轻人、地位较高者、健康者;与东方和西方比,南方并没有对优先保护人类有明显的偏好[12](59)。这意味着对“道德算法”的设定还必须考虑道德文化多元主义的影响,由此就增加了未来对自动驾驶汽车的伦理原则和相关监管政策的规制难度。相比基于规范伦理学的道德推理研究,这种基于大数据的巨量样本研究方法确实有效提取了公众道德直觉,但其“实验方式”仍然是某种“问卷调查”式的,难以处理道德判断的情境化问题,此外也有研究表明:多数人不喜欢人工智能在自动驾驶、法律、医疗和军事方面做出与道德相关的决策[13](21-34)。

面对上述自动驾驶汽车的道德决策困难,另外一种可能的实验伦理学研究方法是模拟人类在相同情境下的道德决策机制,这也符合科学界“让人工智能更趋近于人”的主流研究思路。德国奥斯纳布吕克大学认知科学研究所的Leon R.Sütfeld 等在Frontiers in Behavioral Neuroscience上就自动驾驶汽车模拟人类决策发表了相关研究。该研究利用沉浸式虚拟现实技术对人类驾驶中的道德决策进行模拟,这项研究表明,在不可避免的交通碰撞事故发生时,对于人类、动物或无生命物体的生命价值,人类是有伦理判断的,而这些判断能够通过算法建立模型。到目前为止,人们普遍认为人类的道德决策往往是根据事发时的情境来确定的,因此它不能用算法进行模拟或描述。但Leon R.Sütfeld发现,实验参与者会依据对人类、动物或无生命物体生命价值的判断来进行反应,根据人类这种生命价值观,可以建立人类行为的模型,然后通过算法植入机器中[14](122)。这就为自动驾驶汽车的“道德算法”模拟人类道德决策做出了新的探索。

这种模拟人类在相同情境下的道德决策确实解决了问卷调查无法提取人类真实道德判断的问题。但新的麻烦是,自动驾驶汽车的“电车难题”式的道德决策都是即时性道德决策(in-the-moment decision-making),其容易受到“道德失声”(moral dumbfounding)和情绪因素的影响。第一,对于一些道德情境人们无法立即就自己的判断给予合理的解释,影响道德决策的原因是来自一种无意识的、快速的、自动化的直觉,这形成了“道德失声”[15](814-834);第二,在道德决策中情绪因素会直接影响道德决策,基本的情绪来自知觉、想象和回忆,一些道德情感依赖于情境,例如厌恶、惊恐和愤怒等,而道德情感又与价值观、社会规范和社会现实有关,受到社会偏好等影响[16](456-465)。由此,“道德失声”和情绪会导致:在不同时间,同一个人在相同道德决策情境下,会做出完全不同的道德决策,这种即时性道德决策的不稳定性导致虚拟现实模拟的方式也无法回应事后追责的麻烦。

在“道德失声”和情绪因素的影响之外,格林最近的认知科学研究也对即时性的道德决策提供了新的证据,其建立在某种自然主义的伦理学基础上,以实验的方式探究人类做出道德决策的生理机制。第一,格林将“双重加工理论”(dual process theory)概括为自动设定(automatic setting)和手动模式(manual mode),即时性道德决策触发的是自动设定,而他的学生穆森(Jay Musen)在实验研究中提出即时性道德决策仅仅对个人力量(personal force)和空间接近(spatial proximity)高度敏感[17](85),然而自动驾驶汽车可能面临的大量决策情境并不限于此;第二,格林提出,当我们面对非熟知的道德难题(unfamiliar moral problems)时,我们应当更少地依赖自动设定(自动情感反应),更多地依靠手动模式(可控的道德推理),除非有某种认知奇迹(cognitive miracle)[18](695-726),基于这种“无认知奇迹原则”(The No Cognitive Miracles Principle),自动驾驶汽车所面对的道德决策情境是“非熟知的道德难题”①对于如何界定“非熟知的道德难题”,格林提出的基本框架是:第一,文化发展与新技术导致的道德问题(如气候变化、全球恐怖主义、全球贫困、生命伦理等);第二,由于直觉冲突导致的不同社群在道德实践中的意见不一致。,在这种情况下应当以“可控的道德推理”做出决策,而非直觉性的道德判断,这就与模拟人类即时性道德决策相矛盾。

三、新兴技术与伦理学的协同演化

上一节中,我们考察了实验伦理学应对自动驾驶的道德决策难题的方式,即基于大数据、虚拟现实等新技术方法来解决另一个新兴技术所产生的伦理问题,相比于传统的“问卷调查”式的实验伦理学,这种方式可以被称为新技术路径的实验伦理学。然而,麻烦在于,新技术自身还携带着未能解决的伦理难题,例如虚拟现实的固有悖论:对虚拟的现实感本身是一种认知错觉,没有这种错觉不可能感知到虚拟现实并形成沉浸感,但这种对虚拟现实的感知和沉浸反过来会影响人对真实世界的现实感,甚至使其发生改变[19](103)。此外,更深层的问题是沉浸式虚拟现实是否会创造出一种新的道德实在,例如当前虚拟现实技术的升级版——元宇宙,导致主体在虚拟世界中的体验与现实世界中的体验趋同,那么是否大部分元宇宙的社会规范就是人类现实世界社会规范的等价转移呢?进一步,又如果元宇宙是无限多样化的可能世界,那么在不同的元宇宙当中是否存在完全不同的社会规范或者道德规范呢?

相比基于思想实验的规范伦理学和基于“问卷调查”的实验伦理学,新技术路径的实验伦理学确实扩大了实验伦理学的研究视野和精确性,如运用于大范围社会伦理实验[20](23989-23995),但也由于使用的新技术方法所负载的伦理问题而陷入困境。那么,对诸如自动驾驶等新兴技术的实验伦理学研究的意义何在呢?“电车难题”与自动驾驶进行类比的语境设定虽确有某种特设性的蕴含,但也有其道德实践意义。自动驾驶汽车的优化碰撞算法类似我们对儿童的道德教育,我们也认为或希望他们永远不会碰到电车难题的情况,但我们仍然在教他们一种道德规范,如果他们碰巧处于这类极端情况下,他们就可以使用道德规范做出反应。这种理念的要点是:道德是通过逐步学习和平衡抽象规则、利益以及具体情境而起作用的。因此,我们的直觉并不独立于更深层次的机制和道德目的,相反,它们建立在这些过程之上,使道德能够实现其目的。我们教孩子们预测和处理道德选择,正如程序员教自动驾驶汽车预测电车难题一样。这是新技术路径的实验伦理学研究需要预设一种特定道德情境的原因。

进一步,如果我们想在人工智能当中实现一种接近人类道德或人类能接受的道德形式,我们的直觉仍然很重要,因此,新兴技术的深刻社会影响要求从专家直觉转向大众直觉,从而导致了“问卷调查”式的实验伦理学研究。但是,“人类能接受的道德”不应被视为被所有人或大多数人能接受的“应做和不应做”的清单,这可能导致将强制性的清单施加于多元化的大众。因此,大数据、虚拟现实等新技术手段被引入实验伦理学的研究,基于当前对自动驾驶汽车伦理问题研究中最重要的“道德机器”实验和“沉浸式虚拟现实”实验的研究,本文试图表明,“电车难题”的道德实验研究的目的不是仅仅找出公众的道德直觉,或者计算大多数道德直觉中所处的位置,以解决我们应该在电车难题中做什么道德决策的规范性问题。相反,它是用来揭示我们的道德体系是如何运作的,“电车难题”和更普遍的实验伦理学研究的目的是找出公众道德推理的机制,实验方法只是其中的一个环节,它丰富了抽象的哲学推理并推动其在真实世界中变成现实。实验伦理学在此处的意义在于:实验研究(广义上还包括关于道德困境和其他情景的实验知识)与分析性和规范性推理结合在一起,最后在现实生活中被测试,从而有助于考察道德推理是如何被接受的。

自动驾驶汽车道德决策研究的困难表明了传统规范伦理学框架在面对新兴技术对道德秩序形成挑战时的无力,对此,引入新兴技术实验工具的实验伦理学研究起到了一定的补充作用。单向度要求自动驾驶汽车的道德决策更像人类的思路并不能满足人工智能系统做出更好道德决策的要求,在人工智能伦理研究中,我们需要接受机器决策的某些优势,如可预设、即时性、基于大数据等。大范围问卷调查是实验伦理学的直觉民主化体现,新技术的伦理问题需要在人机交互的语境中讨论和解决。“电车难题”和更普遍的实验伦理学研究的另一个作用在于探索提出一种适应人机交互的新的道德规范。当前对自动驾驶汽车道德问题的研究思路集中于如何使机器的道德行为更符合人类的道德规范,然而,在混合交通中广泛存在的人机协作和人机交互行为将产生更多的道德难题,需要不同于现有人类伦理体系的道德规范加以应对。

如本文第一节中所述,人机驾驶方式的差异以及二者在交通行为决策中无法形成一致的预判,将增加自动驾驶汽车与传统汽车混合运行时交通事故发生的可能性,这违背了人类社会引入自动驾驶汽车的价值基础。在当前技术条件下,要实现某种人机协调的解决方式,除了人工智能学界主流的使机器行为更趋近于人的思路之外,还可以考虑改变人类驾驶员的驾驶行为方式,使其接近于机器,即某种人类道德规范的智能化。就道德智能化现象而言可大致分为两类,一类是延续“道德物化”的理念,将人工智能作为道德技术物的存在方式间接作用于人类行为,从而达到对人类道德意识的纠正以及对道德实践行为的规范作用;另一类是基于道德增强技术,对人类道德认知进行深度介入,以实现对人脑层面的道德能力的扩展。在人机交互的应用语境中,既有机器模拟人类道德也包含人类道德的智能化,这种人机协同演化过程中可能形成的新道德规范的合法性需要通过是否构成某种社会整体的道德进步来判断。

伦理学传统中对道德进步(moral progress)的评判有以下四种主要标准:认知标准(epistemic cri⁃teria),即道德规范能够更成功地描述道德实在;形式标准(formal criteria),即道德规范的适用范围和权威性的扩展便意味着道德进步;实质标准(substantive criteria),即存在一个对道德规范进行评价的具有普遍有效性的基础;功能标准(functional criteria),即对道德进步的判断来自道德规范是否能满足当下社会中道德的功能,而这一功能来自社会经验[21](3-15)。若将道德视为一种人工物,那么在道德规范体系中能否更好地履行其功能便可成为衡量道德进步的标准。就此而言,以道德功能的效用性作为评判道德进步的标准可以为道德智能化提供合法性辩护,同时能够与道德生活实践中的多样性协调一致。实际上,道德智能化的倾向不仅强化了人类道德判断的稳定性,而且由于道德智能化对道德行为生成原理采取多元路径设计,改善了人类因道德认知局限而容易陷入道德观念误区的状况。

新兴技术的快速迭代对人类当前的道德规范不断提出新的挑战,实验伦理学研究的意义在于:进一步揭示人类直觉性道德判断的特点,寻找公众道德推理的机制,从而与机器决策形成协调机制;同时,新兴技术的实验伦理学研究实际上为我们重新审视人类自身的道德规范是否适应社会发展提供了重要的契机,特别是各种新技术路径的实验方法的运用,极大推动了伦理问题讨论的民主化,扩展了人类道德规范的多样性。因此,新兴技术推动了伦理学概念体系和研究框架的变革,未来二者之间的可能关系是:新兴技术需要依靠伦理学更好地符合人类道德规范体系;伦理学则需要借助新兴技术扩展研究方法和进路。当然,从伦理学自身的理论传统出发,我们仍然要严肃对待以下问题:新技术路径的实验伦理学是否突破了伦理自然主义的范畴?实验伦理学的设计是否只能来源于规范伦理学传统中的思想实验?[22](24)实验伦理学与道德心理学究竟应通过怎样的标准来划分?如果我们的道德直觉是可靠的,那么心理证据应该在道德原则的论证中发挥怎样的作用?[23](430)新技术是否正在将规范伦理学研究逐步推向大众化的方向?这都需要在新兴技术与伦理学框架的协同演化当中不断追问,需要在技术与道德的实践交互当中加以解释。

猜你喜欢
伦理学伦理决策
《心之死》的趣味与伦理焦虑
实践音乐教育哲学中的伦理学意蕴探析
《白噪音》中后现代声景的死亡伦理思考
决策大数据
决策大数据
决策大数据
伦理批评与文学伦理学
诸葛亮隆中决策
华语科幻电影中的“伦理性”想象
伦理学发展面临的挑战、困境和出路