走向道德人工智能(AI)
——赋予人工智能系统道德人格和构建可解释人工智能

2024-01-12 03:16吕雯瑜曹康康
学术探索 2023年12期
关键词:解释性伦理决策

吕雯瑜,曹康康

(1.南京师范大学 公共管理学院,江苏 南京 210023;2 安徽师范大学 马克思主义学院,安徽 芜湖 241002)

一、问题的缘起

随着AI(artificial intelligence)技术在诸多行业中的应用,其所带来的伦理问题促使全球的法律和政策进行了相应的改变。2018年,欧盟出台了《通用数据保护条例》(GDPR),目的是确保欧盟地区的数据隐私权得到保障。[1]英国颁布《英国AI发展的计划、能力与志向》,其中明确强调了数据伦理和保护数据隐私的重要性。[2]而在北美,加拿大出台的《泛加拿大AI战略》,确保AI的应用都是在遵循伦理原则的前提下进行。[3]这些国际政策和法规,都在尝试确保AI的发展不仅在技术上取得进步,更要在伦理和道德上与时俱进。

道德AI是指AI的算法、架构和接口都符合伦理准则,如确保透明度、维护公正、承担责任等。之所以要走向道德AI,其背后有三大驱动因素:一是对社会责任的回应,二是技术演进的逻辑延伸,三是道德规范的内在需求。首先,对社会责任的回应。随着AI技术的广泛应用,人们面临着一个被称为“责任差距”的新问题。这个问题是指当负面事件发生时,人们很难甚至无法将道德责任归属某一方。这个责任差距不仅限于技术层面,还涉及伦理和社会等诸多层面。为此,需要构建一个与人类价值观和能力相协调的技术系统,确保AI在人类的掌控中,并保障其行动是有目的和可以预见的。这意味着AI的标准不仅仅局限于技术性质,更应在伦理维度上得到认可,以达到人与机器的和谐共生。[4]其次,技术演进的逻辑延伸。从技术发展的内在规律来看,AI技术的发展目标是通过算法模拟并最终超越人类智能。[5]人类智能并非仅仅基于逻辑或数学推理,而是基于复杂的情感、判断和道德等综合能力。为了真正模拟并超越人类智能,AI不仅要在计算能力上进行优化,还要深入探索情感和道德的本质。[6]这表明,未来AI的研究应该更深入地探讨人类的伦理观念。最后,道德规范的内在需求。走向道德AI是对道德规范内在需求的回应,它揭示了社会共识和契约在技术进步中的核心地位。道德规范,作为社会共识和契约的产物,蕴含着人类理性自治的内核价值。在AI的发展过程中,不仅需要遵守法律和外在规范,更要将道德规范的内在精神连接到AI系统的设计和应用中,最终将其内化为AI系统的目标函数和限制条件。这种内化不仅仅是对道德规范发展的回应,也是对理性主体的尊重,它为构建更为公正、透明和可信赖的AI系统提供了道德基础。

二、走向道德AI的双重维度:道德人格与可解释性

走向道德AI包含两个方面:一是赋予SAI(systems of artificial intelligence)道德人格,二是构建XAI(explainable artificial intelligence)。赋予SAI道德人格和构建XAI是两个相对独立但互补的研究领域。这种互补关系可以共同推动AI朝着更加道德的方向发展。这一方法被称为“走向道德AI”。

(一)赋予SAI道德人格:认知、自主与共生

在许多特定领域,如诊断和预测,AI系统已经证明其比人类专家更加精确和客观。[7]这种高效的表现很大程度上归因于统计方法的准确性,这使得它们超越了单纯的人类判断。[8]因此,人们越来越倾向于信赖并接受AI的决策。然而,随着AI的能力增强,人们也需要兼顾AI的道德考量。正如美国认知领域专家罗莎琳德·皮卡德(R.W.Picard)所说:“一个机器越自由,则它就越需要道德标准”。[9]

在西方的科幻哲学中,一些思考家预言,随着人类对其智能的强化,人类将逐渐与机器结合,形成一种生物与非生物的混合体,被称为“赛博格”(Cyborg)。这种赛博格是生物与机器的融合,其道德行为也可能受到AI决策属性的影响。这意味着决策不再完全取决于人类的意志,AI的伦理属性也被纳入其中。进一步地,如果AI被赋予了足够的自主性和伦理判断能力,它可能会在特定的伦理框架内进行选择。若仅仅将机器行为解释为“遵从人的指令”,并把错误归咎于设计者,就会如乔姆斯基所言,人类可能会忽略AI所展现的道德缺失,如淡漠、逃避等行为。[10]当技术能够独立执行任务时,人类需要反思“以人为中心”的观念,并考虑赋予AI某种道德认知。这进一步强调了为何人类应该考虑扩大道德主体的定义范围。当代社会需要坚持将道德主体地位平等地向所有符合资格的实体开放,这不仅包括人类,还包括那些具有道德判断力的AI实体。这意味着,人类不应排除未来某些合格的AI实体被视为道德主体的可能性。[11]赋予SAI道德人格的初衷是期望AI能够成为一个具备道德责任和情感认知的道德主体。对此,多位学者提供了见解。法国认知心理学家德哈纳(Dehaene)坚信计算机未来将能够模拟大脑。[12]这不仅说明机器人有望具备人类意识和感情,而且预示着它们可能获得某种道德地位。意大利法学专家诺维利(Novelli)更进一步地强调AI已经具有自主决策的能力,不再只是机械地执行人类用户或设计师预先设定的任务。[13]这些观点与美国动物权利律师史蒂文·怀斯(Steven Wise)的论断相呼应。他指出,非人类动物有时会被赋予某种权利,原因在于它们具有与人类相似的推理和“实践自主权”属性。[14]既然某些AI也显示出了这些属性,甚至可能更为显著,为什么不考虑为其赋予相应的权利呢?美国机器伦理学专家冈克尔(Gunkel)进一步补充,机器人的形态和功能正日益逼近人类,它们所展现出的自主性和意识与人类有着惊人的相似性。[15]英国伦理学家阿什拉菲安(Ashrafian)也持同样观点,他认为AI和机器人领域的持续创新使得计算机展现出了与人类相似的意识、感知和理性。[16]帕特里克·哈伯德(Patrick· Hubbard)对赋予SAI人格特质提出了一些具体的标准:首先,这个实体应该有与环境互动并进行复杂思考和交流的能力;其次,它需要有自我意识,并能为自己制定并执行生活计划;最后,这个实体应该具备在社区中与他人共存的能力。这些标准在某种程度上定义了赋予SAI道德人格的最低要求,帮助人们明确AI获得人格特质的精确边界。AI专家卡普兰(J.Kaplan)也曾提到:“只要合成智能能够感知其环境中与道德有关的事物,并具备选择行为的能力,它就满足了作为一个道德实体的条件”。[17]

(二)构建XAI:理解、信任与透明

仅仅赋予SAI道德人格这一做法并不足以确保AI的行为总是与人类的道德观念一致。人们还需要AI对外具有可解释性。美国计算机科学家Doshi-Velez(多什-韦勒兹)强调了AI输出信息应以人类能理解的方式展现,无论是通过自然语言、逻辑规则还是其他形式。[18]构建XAI的核心不仅在于增强解释的能力,更在于如何提高用户的信任度和确保AI的决策过程更加透明。

AI的可解释性可以从三个方面来阐述,即为什么解释?向谁解释?怎么解释?(1)为什么解释?早期的研究表明,可解释AI可以被人们理解。然而,算法运作机制犹如一个黑箱,其内部运行原理对使用者而言是未知的。如果人们不了解机器的运算方式,就难以确保它们在实践中的成功性。如果不成功,将可能导致严重的后果。人们因为无法对其进行检查,就不能确保它们不会产生歧视。对于那些无法解释内部运作的算法,也将无法使人类产生对世界的解释。[19]因此,只有实现算法的可解释性,才能促使其具有合理性或非歧视性。(2)向谁解释?为了保证AI决策的透明性,要根据不同的目标人群来调整解释的焦点。AI决策涉及的受众群体包括:一是业务用户。AI 的决策过程对于业务用户至关重要,他们需要了解其原理来优化自己的商业策略。二是监管机构。监管机构需要验证 AI 的决策是否遵守相关法规和标准。三是公众。公众需要了解 AI 的决策对他们的影响。第四, AI 研究者和专家。AI 研究者和专家需要了解 AI 的内部工作原理,以评估 AI 的性能。(3)怎么解释?为了提高AI的解释能力,学者们已经探索了各种方法。一些人使用诸如规则、决策树和线性模型这样更直接的模型。另一些则选择用可视化工具展示AI的决策过程。还有研究者试图通过对AI学习内容的语义研究,来探寻其决策的根本动因。

(三)赋予SAI道德人格和构建XAI的关联及共同作用

赋予SAI道德人格特质和构建XAI相互依存,为实现道德AI提供双重保障。当探讨SAI的道德人格特质时,实际上是在探究机器的“伦理认知”。这种“伦理认知”能在处理数据和执行任务的过程中,集纳并遵循人类社会的道德标准。道德人格特质并非简单的算法指令,它涉及深层次的价值判断和权衡。对AI而言,它必须能够识别并解决各种伦理挑战,从而做出与人的道德价值观相符的选择。而为了确保这种决策符合人们的预期,需要对其内部逻辑进行审查,这就是XAI的角色。XAI的核心目的是为AI的决策提供一个逻辑清晰、可跟踪的解释路径。当AI做出某个决策或行动时,其可解释性能向人们阐明为何采取这种方式,并展示其是如何在伦理层面上进行权衡和思考的。这种可解释性是建立人类对AI信任的基石,而信任是任何伦理系统的基础。[20]

从“内在质量”和“外部监督”两个角度也能够理解赋予SAI道德人格和构建XAI的关系。从“内在质量”这一角度出发,赋予SAI道德人格意味着为其提供一套明确的伦理指南。这一目标无疑是走向智能系统伦理设计的前沿。过去的机器学习模型往往被编程为按照预定规则执行,其行为模式较为机械、固定。然而,随着技术的进步,人们期待AI不仅能够遵循既定的指令,而且能在复杂、多变的环境中展现出某种道德直觉或判断力。这样的期待来源于对人类道德心理的深入理解。人类的道德决策往往基于一系列复杂的认知和情感因素,如同理心、公正和权责观念。这些因素在特定的文化和社会背景中被塑造,并与每个人的经验和知识相互作用。因此,要使AI具备这样的能力,人类首先需要构建一个全面而深入的道德框架,将这些原则和价值观映射到算法中。但是,即使人们成功地为SAI赋予了道德人格,并且SAI能够按照我们所期望的方式进行决策,仍然存在一个重要问题:这些决策是否为用户所接受和理解? 这引导我们进入“外部监督”这一维度。从“外部监督”的角度出发,构建XAI的作用尤为关键。如果用户不明白机器的决策逻辑,即使这个决策符合道德标准,也可能对其失去信任。[21]在很多应用场景中,尤其是涉及人类生命安全和社会正义的领域,决策的透明性和可解释性变得尤为重要。同时,构建XAI还可以作为一个工具来检验和校正AI的决策。当机器的决策逻辑是明确和可解释的,人们就可以更容易地发现其潜在的偏见和错误。例如,当可解释AI工具揭示出一个决策是基于某些不应被考虑的特征(如种族、性别等)时,人们就能够明确知道该模型存在的偏见。进而,研究者可以通过技术手段,如正则化或重新训练,来纠正这种偏见。

总之,只有当SAI与XAI的理念紧密融合时,人们才能期待AI在复杂的情境中作出符合道德规范的决策。为了实现这一目标,AI的研究与实践必须走向双重方向:一是加深对AI伦理的理解,确保其做出的决策不仅在技术上领先,还要在道德上符合标准;二是需要保证AI的决策过程公开且透明,这意味着其决策逻辑和原理对使用者来说是可解释且可理解的。这样的结合将为构建一个人机和谐共生的未来打下坚实的基础,确保机器在道德和伦理方面能够与人类产生真实的共鸣与交流。

三、走向道德AI的困境:技术超前与伦理滞后

在技术与道德的交叉点上,人们常常面临一个困境:技术的飞速发展往往超越了人类伦理和道德的反思速度。AI作为当前技术革命的前沿,尤其凸显了这一点。当AI开始涉足决策、识别和自主行为时,人们必须审视:AI应该如何反映人类的伦理价值观?走向道德AI面临着哪些难题?

(一)超越技术之境:探索赋予SAI道德人格的挑战

在本质上,AI仍然是一种技术工具。将道德人格赋予SAI实际上是在技术层面上赋予其自主性。赋予SAI道德人格是一项极具挑战性的任务,需要解决多个问题,包括社会认可、伦理原则、应用范围和技术实施等问题。

第一,在社会认可方面,人们对于是否应赋予SAI道德人格存在不同的观点。首先,强人工智能观点主张,AI有可能达到或超越人类的意识水平,并应被赋予道德人格。弱人工智能观点则认为AI只是一个工具,缺乏真正的主观意识和道德责任。无论从现有技术还是从未来展望看,AI难以拥有像人类这样的道德主体所需要的实践理性和自由意志。[22]同时,AI主体的行为仍然受到外部编程的命令,使得确定道德责任仍然具有挑战性,特别是在不可预测的情境下。这种复杂性也降低了人们对AI的信任。[23]中立立场认为,尽管AI可以展现出一定的智能,但目前的技术水平还远未达到赋予其道德人格的程度。许多人认为,现在的智能体并没有真正完整的心智,因此不能负道德责任。即使它们拥有意识和道德感觉,但由于缺少体验痛苦和惩罚的能力,如何能够对其负责呢?[24]

第二,在伦理原则的应用方面,目前没有一个通用的伦理标准可以适用于所有的AI应用场景。由于文化、宗教和社会意识形态的多样性,构建一个涵盖所有国家、地区和民族的AI伦理原则颇为困难。当AI融入人类的伦理观念,它不可避免地会碰到价值冲突问题,它应该根据哪个国家、地区或民族的道德准则来设定?当不同的伦理价值观发生碰撞时,人类应如何权衡与选择?更核心的疑问是:这种做法是否恰当?谁有资格来做出这个决策?这实际上触及了权力的分配与行使。例如,以功利思想驱使的AI可能会为了大多数人的幸福而损害少数人的利益,而以德性伦理为指导的AI会更加关注品德和责任,而非仅仅是行为的后果。这种多元化的伦理理论导致在实际应用中难以形成统一的道德判断标准。同时,在伦理原则的探讨中,人们也经常遇到其内在的交织与重叠,导致理解和辨析上的挑战。例如,“可预测性原则”与“透明性原则”很容易被混淆,而“可问责性原则”与“负责任原则”虽在描述上近似,但各自的关注点却不同。一些伦理原则更多地针对组织层面,而另一些则更为聚焦于技术方面,这种层次上的不同进一步加大了区分难度,并可能导致误导。[25]总之,伦理准则的内涵理解亦因不同文化和地域背景而存在差异。这种差异性不仅影响了伦理界定的范围,而且也表现在技术标准的不统一、风险评估的方法和策略以及制度规范的执行力度上。

第三,在应用范围方面,AI的设计和使用目的将会对人类生活产生重大影响。如果AI被用于军事目的或其他可能引发伦理争议的领域,那么赋予其道德人格将面临更大的挑战。这是因为,当AI被赋予决策权时,其决策可能会导致人类伤亡或其他的严重后果。尽管AI技术的快速发展有可能从多个方面改变国家的战争方式,但AI革命带来的新形势的风险必须与军事功能中算法系统的广泛整合相协调。人类不能盲目地依赖AI,而是需要在其应用中进行严格的风险评估和管理。美国学者埃斯迈尔扎德(Esmaeilzadeh)的研究显示,技术、伦理(信任因素)和监管问题对使用AI应用程序的风险感知产生了显著影响。[26]这表明,人们仍需加强对AI的监督。瑞典伦理与生命伦理中心学者米歇尔·法里斯科(Michele Farisco)等人进一步提到,人类应该在考虑AI在某些特定人类活动中的角色时保持谨慎,因为尽管存在智能,但缺乏道德相关的特性。[27]人类不能简单地将AI视为一个工具,而是需要认识到它是一个复杂的系统。

第四,在技术实施方面,赋予SAI道德人格面临诸多的技术难题。首先,因为没有统一的道德理论框架,使得赋予SAI道德人格的标准变得困难。[28]伦理模型的多样性和复杂性导致在为AI制定道德标准时的困惑。有些伦理观点侧重于强调个人的权益和职责,而其他理论则更关注整体的福祉和效益。[29]因此,确定哪一种道德理论模型最适合AI是一个巨大的挑战。其次,AI的自主性与灵活性的界限并不明确,这容易导致与人类期望发生偏离。AI的自主性是指其能够独立地进行决策和行动,而灵活性则是指其能够适应不同的环境和任务。然而,过度的自主性可能会导致AI做出与人类价值观不符的决策,而灵活性过高则可能导致AI的行为难以预测。因此,如何平衡AI的自主性和灵活性,使其既能满足任务需求,又不偏离人类的期望,是一个亟待解决的问题。最后,尽管AI的决策需要解释与验证,但其内部的复杂性增加了实施难度。深度学习和神经网络等先进的AI技术往往具有高度的复杂性,这使得其决策过程难以解释。此外,由于AI的决策过程是基于大量的数据和算法的,因此验证其决策的正确性和合理性也是一大挑战。[30]

(二)构建XAI的挑战:模型复杂性、数据不确定性与解释权衡

构建XAI无疑在提高模型的透明度和可信度上具有不可估量的价值。然而,在实施过程中,常常面临多种挑战,如深度学习模型的复杂性、数据的不确定性、解释性与准确性之间的权衡等。这些困难涉及从模型结构到实践应用的各个层面。

首先,深度学习模型的复杂度成为一个主要的挑战。由于深度学习模型通常包含大量参数和层级,这种密集连接和深度堆叠的特性导致其决策路径变得抽象。[31]尽管深度学习在多个领域中展现了出色的表现,但模型的复杂化也让其工作原理越来越难以解读。这种复杂性的增加不仅来自模型的深度,还来自其宽度和参数的数量。一个典型的卷积神经网络(CNN)可能包含数百万甚至数十亿的参数。模型中的众多参数让其能够捕捉数据的复杂性和非线性关系,但这也增加了解读其决策机制的难度。此外,深度学习模型的决策路径的抽象性也增加了其解释的难度。相较于传统诸如线性模型或决策树的方法,深度学习模型展现出的决策边界和特征呈现出更为复杂的非线性和高维特点。[32]这表示,哪怕人们能够获取模型的所有参数和中间状态,依然难以直接洞悉其决策逻辑。这种复杂性和抽象性带来的挑战不仅限于模型解释。它们还影响模型的鲁棒性、泛化能力和安全性。例如,深度学习模型容易遭受对抗性侵害,这些微小而几乎看不出的输入变化可能会使模型产生全然不同的预测。

其次,面临数据的不确定性。数据不确定性来源包括:数据收集过程中的误差,如测量工具不准确、数据收集者主观偏见或数据样本不完整;[33]数据本身内在属性,如时变性未被完全捕捉;数据处理和清洗过程中的不确定性,如数据插值、平滑或转换等。当这些不确定性存在时,构建XAI的过程中就可能出现多种问题。模型可能会过度拟合这些不确定的数据。过度拟合意味着模型对训练数据适应得很好,但对于新的、未知的数据则效果不理想。这是因为模型可能已经记住了训练数据中的噪声,而不是真正的数据模式。当模型试图解释其决策过程时,这种不确定性可能会被放大。这可能导致解释输出变得模糊和不准确,从而降低模型的可靠性。更为严重的是,这种不确定性可能会导致用户对模型的信任度下降。数据的不确定性还可能导致技术能力的局限性。当数据中充斥着大量噪声时,高级模型,如深度学习模型,可能在这种数据环境中难以达到优秀的表现。这是因为这类模型依赖于大量的高质量数据来学习。此外,复杂的数据权限和公开政策可能会阻碍研究者和开发者的数据获取和使用。这不仅使得构建可解释的人工智能更为困难,还可能妨碍模型的广泛应用。在特定的应用场景,如水资源管理,对数据不确定性的精确评估变得至关重要。在这些场合,忽视不确定性可能导致误判和资源的不当使用。

最后,追求模型的可解释性往往需要在解释性和模型性能之间做出权衡。一些高性能的模型如卷积神经网络可能在精度上表现出色,但它们的内部机制和参数对非专家来说难以理解。卷积神经网络(CNN)在深度学习中扮演了关键角色,尤其在图像识别、声音处理和自然语言处理等方面展现出了出色的性能。但随着模型的复杂度增加,其工作机制也变得更加难以解释。这种模型的不透明性和难以解释可能会带来问题,特别是在那些需要对模型决策给出解释的场合。近年来,研究人员已经开始探索如何在不牺牲性能的前提下提高模型的可解释性。罗马尼亚学者莫尔多万(Moldovan)等人提出了一种新的CNN训练机制,该机制整合了传输熵(TE)反馈连接。[34]这种方法可以加速训练过程,但每个时代的计算开销也会增加。一些研究者也提出了名为ECA的模块,虽然只是增加了少量参数,但模型性能得到了显著提升。尽管有了这些发展,深度学习模型的透明度仍是一个问题。因此,有些研究者正在深入探究模型内部,试图弄清它的运作方式。这些研究探讨了深度CNN模型的内部学习机制,以了解它是如何分层提取光谱信息特征的。[35]简而言之,尽管深度学习模型,尤其是CNN,在众多任务上展现了优异表现,但其解释性依然存在挑战。

四、走向道德AI的探索:超越技术障碍与构建多维策略

(一)超越技术障碍:赋予SAI道德人格的现实路径

如之前所述,赋予SAI道德人格具有诸多困难,包括社会认可、伦理原则、应用范围和技术实施等方面。为此,可以通过代入道德编码、开发伦理决策模型以及道德学习和迭代等方法来尝试赋予SAI道德人格。

1.道德编码的代入

为了保证AI行为的道德性和伦理性,可以将公认的伦理原则明确地编码于系统之中。赋予AI道德编码,实际上是将人类的道德规范和原则以某种方式嵌入AI的决策过程中。这不仅为公众提供了一个清晰、可审查的道德基准,也确保了在特定的情境中AI能够做出与人类道德相一致的判断和行动,从而提高了赋予SAI的社会认可度。这种嵌入方法可能基于明确的规则、方针或通过机器学习得到的模型。鉴于不同的使用场景或情境可能存在各种伦理要求,人们可以将众多伦理理念编制为单独的AI单元。例如,医疗AI的伦理要求与自动驾驶汽车的伦理要求不同。对于每一个应用场景,都需要明确其使用环境,从而确定所需遵循的伦理准则。一旦这些准则被确定,它们将被转化为可编程的规则或指导原则。进一步地讲,这需要对传统伦理准则进行形式化转换,或者为AI设计新的伦理框架。[36]同时,这些编程规则需要被深入嵌入AI的训练和决策过程中,使其行为更加可预测和一致。通过对多种伦理理论的编码、形式化转换和技术整合,不仅可以确保AI的道德性,还可以在众多的应用情境中满足各种伦理需求。

为AI设置道德编码的手段主要有两种。一种是基于规则的方法,即将伦理准则转化为明确的算法规则,使AI系统在决策时遵循这些规则。另一种是基于数据的方法,即通过在有伦理标注的数据上训练AI,使其在未来的决策中能够表现出道德的考虑。这两种策略都有其长短处,要根据具体的使用环境来进行选择。无论选择哪种方法,代入道德编码的关键问题是如何确保AI的决策与人类的道德观念和社会价值观相一致。[37]然而,代入道德编码并非简单地为AI写一套固定的道德法则,而是要建立一个能够理解并运用道德逻辑的系统。相较于常规编程手段,这样的系统不仅分辨“好”与“坏”,还要洞察其背后的逻辑,确保在各种场合下做出恰当的决策。这意味着AI需要拥有逻辑判断能力,同时能从众多的伦理选择中汲取并总结出适当的准则。

2.开发伦理决策模型

赋予SAI道德人格的核心确实在于构建一个综合的伦理决策模型。该模型不仅要深入探索伦理学的理论体系,同时也需借鉴计算机科学的算法和技术,确立一个全面且连贯的决策流程。而不同于静态或单一维度的模型,它必须具备动态性和适应性,保证在各种情境下都能调整其决策策略。功利主义和德性伦理在决策过程中常常处于对立面。功利主义注重提高整体的幸福度,而德性伦理则强调个人的道德属性和义务。该伦理决策模型的独特之处在于它能够整合这两种看似矛盾的伦理理念。在此基础上,评估潜在的决策后果时采取多维度的视角。这种多维度的评估不仅依赖纯粹的逻辑和数据,还必须充分考虑人类的情感、认知过程和所处的社会文化环境,以确保AI的决策与人类的伦理观念保持一致。尤其在敏感领域如医疗、司法和金融,决策的复杂性常超出单一伦理原则的应用范围,需要从多个伦理角度进行全面探索。

为了达到这个目的,研究者们设计了多种伦理决策的构建方式。(1)基于情境的决策模型。该模型强调外部环境和特定场景下的因素。这种模型认为,决策者在面对伦理问题时,往往会受到所处环境的强烈影响,如组织文化、社会压力或角色期望等。这一模型尤其强调对具体情境的细致解读和因应,因为不同的背景和环境会导致完全不同的伦理选择和决策过程。[38](2)基于认知的决策模型。该模型着重于决策者的内部心理过程,包括他们的认知结构、道德推理和伦理觉悟等。该模型关注如何帮助决策者培养和加强他们的伦理思考能力,使其能够在复杂的情境中进行更加明智和公正的选择。通过了解和影响决策者的内部心理机制,这一模型希望能够提高他们的伦理判断水平和决策质量。(3)基于价值的决策模型。该模型主张伦理决策应该基于一套明确和坚定的价值观。这表明当决策者遇到伦理问题时,应该参照自己的价值观和道德信仰来做出决策,而不是仅仅基于效益或权宜之计。[39]这种模型鼓励决策者明确自己的价值观,认真考虑每一个决策背后的道德意义和长远影响。

3.道德学习和迭代

社会的伦理观点和价值观随着时间的流逝而不断演变。在这种变化的背景下,AI需要具有强大的适应性来应对不断变化的社会要求。道德学习通过让AI学习人类的伦理标准,为AI提供了对社会文化变化的基础性的理解。这种学习途径有多种实施方式。监督学习通过提供带有道德标签的数据来训练AI,强化学习则采用奖励和惩罚机制来指导AI,而迁移学习可以将已学到的道德知识迁移到新的道德场景。美国学者乔普拉(Chopra)也曾提到,AI的自主能力是由于其自主学习的能力,即它具备在变化的环境中感知和适应的能力。[40]但单纯的学习不足以满足现实世界的复杂性,这就需要迭代的过程。迭代是指AI通过不断学习和改进自身来适应变化的环境。在此背景下,AI不仅要深刻理解人类的伦理价值观和社会准则,还必须在多样且不断变化的情境中做出恰当的道德决策。为了实现这一目标,AI需要不断汲取新的知识、数据和经验,然后调整其行为和决策模型。在AI的发展过程中,可能会遇到伦理挑战、不明确的领域和潜在的矛盾。因此,AI需要具有一定的自我审视和调整机制,以确保在各种场景下都能坚守伦理标准和价值观。

通过结合道德学习与迭代方法,AI具有了接近人类道德判断的能力。以MIT的道德机器(Moral Machine)项目为例。这个项目旨在探讨自动驾驶汽车在面临潜在的生命危险决策时应如何做出选择。[41]人们被邀请在多种模拟的交通情境中,决策汽车应如何应对,究竟是撞向行人还是通过损害车内乘客来进行紧急避让?Moral Machine使用数百万人的决策数据,采用机器学习技术,使AI系统能够汲取人类在这些伦理难题中的选择经验。另外,人们也尝试在OpenAI的GPT-3模型中赋予其道德判断能力。研究者试图训练这种语言模型,使其在处理伦理问题时能够给出更为人性化的回应。通过输入大量的道德和伦理文本,GPT-3被训练成为一个可以进行道德辩论和判断的模型。在实验中,当提供给它一些伦理困境时,GPT-3不仅可以根据其训练数据提供答案,还可以解释其答案背后的道德原理。但仅仅依赖单一的训练数据并不足以确保AI系统的道德决策完整无误。因此,迭代方法在此起着作用。一旦AI系统基于初步的道德学习数据做出决策,研究者会对其输出结果进行评估,检查其是否与人类的道德直觉相符。如果系统在某个决策点的选择与大多数人的选择不符,研究者就需要重新调整其模型参数,并再次进行训练。该过程的反复迭代使得AI系统能够不断完善,并接近人类的道德判断。

(二)面对挑战:构建XAI的多维策略

为了应对构建XAI所面临的各种挑战,包括模型复杂性、数据的不确定性以及解释性与模型性能之间的平衡问题,可以采取多种方法,如构建可解释性模型、局部解释和全局解释、交互式解释等。

1.可解释性模型

与传统的黑箱模型不同,可解释性模型更为人们所接受和理解。在一些应用中,可解释模型与不可解释模型一样准确,却因透明度而受到人们青睐。以模型蒸馏法为例。模型蒸馏法有助于解决构建XAI时面临的一般困难。第一,模型蒸馏有助于解决模型复杂度的问题。通过模型蒸馏,人们能把复杂模型的智慧迁移到简化模型上,进而减少模型的复杂性。这种降低复杂度的方式有助于简化模型的决策路径,使得解释变得相对容易。第二,模型蒸馏有助于平衡解释性与性能的关系问题。模型蒸馏允许在保持或接近教师模型性能的同时提升学生模型的解释性,这种方法有助于寻找解释性和性能之间的理想折中点,使得不必为了获得高解释性而牺牲模型的预测性能。第三,模型蒸馏有助于解决数据的不确定性问题。简单模型(学生模型)可以学习模拟复杂模型(教师模型)的预测行为,学生模型能够从教师模型中学习如何在面对数据不确定性时做出更准确的预测。同时,通过采用自解释性特质的学生模型结构(如决策树或线性模型),可以简化解释方法的选择。第四,通过在模型蒸馏过程中引入特征选择技术和可视化技术,为用户提供直观的解释,从而减轻因数据不确定性和模型复杂度带来的解释困难。[42]

一些开发和研究团队也在不断地摸索可解释性技术。图1(见下页)展示了TA1开发团队和TA2团队的研究内容。[43]TA1团队的研究内容为自治和数据分析。其中,有3个团队只研究自治领域,有5个团队只研究数据分析,其余3个团队的研究两者都有涉及。

图1 可解释AI的研究团队

根据图2所示,TA1 团队正在研究和开发各种可解释模型和解释接口的技术。TA2 团队的目标是开发和评估心理学上合理的解释模型。他们为解释提供可操作的概念、方法、措施和衡量标准。该团队正在探究解释本身的性质,即解释一个复杂系统的工作原理以及特定情况下的运作方式。TA2团队还建立了关于人类解释和推理的自然模型,并为评估 XAI 的解释提供指导。他们回顾了科学哲学和心理学领域的相关文献,并从中总结出评估解释的标准。此外,该团队还收集和分析了个人解释复杂系统工作原理的案例库。为了衡量解释的好坏、用户的心理模型以及任务表现,该团队制定了相应的衡量标准。这使得用户能够对何时信任或怀疑系统做出合理和准确的判断。为了获得这种洞察力,用户必须探索 XAI 的决策过程和性能。

图2 可解释AI的研究团队

2.局部解释和全局解释

局部解释关注模型对单一数据点的预测分析。通过观察模型对某一输入的反应,可以更进一步地洞察其决策机制。例如,在一个深度学习模型中,人们可能想探究该模型为何将某图像视为“猫”而非“狗”。局部解释可以帮助人们识别那些对模型决策最具影响力的输入特征。[44]这在面对数据的不确定性时尤为重要,因为它允许人们评估模型在特定情境下的敏感性和稳健性。全局解释则关注模型的总体表现。它试图回答的问题是:模型通常如何做出决策?全局解释为人们提供了一个宏观的视角,帮助人们理解模型的整体策略和偏好。这对于评估模型的复杂性和性能至关重要。一个模型可能在大多数情况下都表现得很好,但全局解释可以揭示它的潜在弱点和偏见。解决模型的复杂性和数据的不确定性是机器学习中的两大挑战。复杂的模型可能更难以解释,但它们可以提供更高的性能。相反,简单的模型可能更容易解释,但它们的性能可能较差。局部解释和全局解释为人们提供了权衡这些因素的工具。通过局部解释,人们能更深入地了解到模型在某些情境中的反应,从而调整或完善模型以应对数据中的变化。而全局解释则可以帮助人们评估模型的整体复杂性和性能,从而做出更明智的决策。解释性和模型性能之间的权衡是另一个关键问题。在某些应用中,如医疗诊断或金融决策,解释性可能比性能更为重要。在这些情境下人们可能更倾向于选择一个解释性强但性能稍逊的模型。局部解释和全局解释为人们提供了评估这种权衡的框架。

3.交互式解释

交互式解释的核心理念是将用户纳入解释的过程中,从而使得解释不再是一个单向的、静态的过程,而是一个动态交互的过程。这种理念的提出,实际上是对传统解释方法的一种深刻的批判和超越。传统的解释方法通常是静态的,它们通过阐述结果来说明模型的选择,而这种方法往往忽略了模型的输入、参数和内部结构的重要性。与此相反,交互式解释不仅关注模型的输出,还关注模型的输入、参数和内部结构。这种全面的关注,使得交互式解释能够为用户提供一个更为深入和全面的模型理解。通过与用户的交互,可以让用户更准确、全面地判断模型的效能和稳定性。交互式解释还可以帮助用户更好地理解模型的不确定性。如芬兰学者戈希夫斯卡(Gosiewska)和比采克(Biecek)在其研究中所提到的,非加性预测模型的模型解释的不确定性是一个关注点。[45]这种不确定性,实际上是由模型的复杂性和数据的不确定性导致的。但通过交互式解释,用户可以更直观地看到这种不确定性是如何产生的以及如何影响模型的输出。这种直观的理解,可以帮助用户更为准确地评估模型的风险和不确定性。交互式解释还强调了用户建模和“交互式”呈现风格的重要性。如Cawsey在其研究中所提到的,用户建模和“交互式”呈现风格对于解释的可接受性和可理解性都很重要。[46]交互式解释可以根据用户的特点和需求提供定制化的解释,从而提高解释的效果和效率。

结 语

AI技术的迅速进步与伦理道德的相对滞后形成了鲜明的对比。这种对比不仅仅是时间上的差异,更是价值观、认知和实践层面上的巨大鸿沟。AI技术的发展使得机器能够在某些领域超越人类的认知能力。然而,这种超越并不意味着机器已经具备了与人类相似的伦理观念和道德判断。赋予SAI道德人格的探索,实际上是对机器是否能够拥有与人类相似的伦理观念和道德判断的探讨。这种探索对于确保AI系统的道德高效运作具有重要意义,因为只有当机器具备了与人类相似的伦理观念和道德判断,它才能在复杂的现实环境中做出与人类相似的、符合人类道德标准的决策。构建XAI的目标是让AI的决策过程更加透明和可理解。这是因为,尽管机器可能已经具备了与人类相似的伦理观念和道德判断,但如果人类不能理解机器的判断逻辑,那么人类就无法对机器的决策进行有效的监控和评估。透明和可理解的决策过程不仅可以增强人类对机器的信任,还可以确保机器的决策真正符合人类的道德标准。走向道德AI的探索,实际上是对人机和谐共生的探索。在这个时代,机器不仅仅是人类的辅助工具,更是人类的合作伙伴。机器与人类共建和谐社会,确保科技的进步能够真正地造福于人类。为了实现这个未来,人类不仅需要技术上的创新,更需要伦理上的反思。

尽管目前关于道德AI的研究已经取得了许多进展,但仍然存在局限性,主要表现在对多文化背景和不同学科知识的融合不足。这种单一的研究视角可能会导致AI在某些情境下缺乏足够的道德敏感性和全球视野。为此,未来研究应深入探讨多文化和跨学科的合作,以确保AI的道德决策更具包容性。同时,人们应该深入思考AI的伦理问题,开辟关于AI如何理解并处理复杂道德情境的新方向。

猜你喜欢
解释性伦理决策
《心之死》的趣味与伦理焦虑
为可持续决策提供依据
论行政自由裁量的“解释性控权”
护生眼中的伦理修养
决策为什么失误了
英汉互译中的认知隐喻翻译探究
融媒体时代解释性报道的发展之路
非解释性宪法适用论
医改莫忘构建伦理新机制
婚姻家庭法的伦理性及其立法延展