从责任的视角看人工智能系统的开发

2021-01-02 22:11
科学经济社会 2021年1期
关键词:决策原则价值观

王 刚

过去几年,随着快速发展的人工智能技术对人类社会的多个方面产生巨大的影响,人们越来越担心人工智能系统的决定和行为给人类社会带来潜在风险。由于人工智能系统是由人类设计、制造和使用的人工产物,因此,人类应当对人工智能系统的决定和行为所引发的影响负有相应的责任。为了确保人工智能系统的应用具备安全性、并符合人类的利益,人类需要构建一种对所有人负责的人工智能系统开发路径。

一、人工智能系统的设计原则

人工智能系统的核心概念是“智能性”(agency),这种智能性主要体现在三个方面,即自主性(autonomy)、适应性(adaptability)和交互性(interactivity)[1]。自主性是指智能体根据其所处的环境来进行自主行动的能力;适应性是指智能体根据环境变化来调整自己的行为,从而使自己能够适应环境的能力;交互性是指智能体具备与其所处的环境进行相互作用的能力。其中,自主性是人们在人工智能领域中最常提及的方面。在很大程度上,人们将具有智能的人工系统等同于能够自主行动的系统。

随着自主性不断增强,人工智能系统在许多公共领域扮演着重要角色,例如,在医疗、教育、交通、公共安全等领域,人工智能系统能够在没有人类操控的情况下做出自主性的决定和行动。人们越来越意识到,有必要采取相应的措施以确保自主性系统的决定和行动能够符合人类的福祉。关于这方面的典型范例是思考自动驾驶汽车面临的道德困境。假设载有乘客的自动驾驶汽车即将撞上另一辆汽车,它可以选择快速闪避另一辆汽车以拯救车内乘客的生命,却可能撞上公路上的行人。面对这种道德困境,自动驾驶汽车应该如何做出自主性的选择呢?

对于负责任的人工智能系统开发路径而言,创建能够处理这种道德困境的人工智能系统是其主要目标之一,因此,人工智能系统的设计必须反映出社会对人工智能道德问题的关切。为了实现这一要求,人工智能系统的设计应当以问责原则、责任原则和透明性原则为基础,对传统的自主性、适应性和交互性原则加以扩充[2]。

问责(accountability)原则指的是人工智能系统应该具备向人类解释自身决策和行为的能力。一方面,人工智能系统需要通过解释来确保人类对它的信任。人们愿意信任自主性系统的关键因素在于,系统能够解释其为何采取某种行为[3]。因此,通过解释可以减少人工智能系统的不透明性,有助于人类对系统自身行为和决策实施的原因加以理解。另一方面,人们普遍认为机器不具备道德推理能力,因此,社会要求对机器的道德推理进行论证,或者至少确定自主性系统可以做出决策的范围[4]55。正是基于这两方面的原因,在人工智能系统的整个设计过程中,问责原则是设计人员和开发人员应当遵循的核心设计原则。

责任(responsibility)原则涉及人工智能系统的设计人员、开发人员、制造商、销售商和使用人员应当承担的责任。随着自主性水平的不断提升,人工智能系统在越来越多的场合下可以自主行动和自行做出选择和决定。例如,汽车导航系统能够根据交通状况和用户偏好设置为使用者自行规划最佳的行进路线。然而,自主性系统也有可能做出错误的决策,给使用者带来损失。需要指出的是,系统并不需要为自身的错误行为和决策负责,因为它们是人类为了实现特定目的而制造的工具,这些行为和决策归根到底取决于设计人员和开发人员创建它们的目的以及相关的设计选择,同时还取决于使用者的使用设置。因此,为了规避人工智能系统可能给人类带来的风险,在人工智能系统的设计过程中,设计人员和开发人员有必要厘清人工智能系统的所有利益相关者各自应当承担的责任。

透明性(transparency)原则是为了确保人工智能系统中的算法保持透明性。算法不透明(即所谓的算法“黑箱”)是人工智能系统的开发所面临的一大挑战。自主性系统的决策主要是根据学习算法而做出,但是系统的使用者却无法理解该算法的运行机制和原理,更无法获知算法设计人员和开发人员的真正意图,由此导致算法的不透明性。算法不透明的最直接后果是算法偏见问题,如在2017 年,Google 公司的图像识别算法将黑色人种的照片标记为“大猩猩”,这一事件引发了人们对种族歧视问题的讨论。算法偏见问题本质上反映的是人工智能系统设计人员和开发人员的固有思维偏见。透明性原则的主要目标就是要避免人工智能系统产生偏见。为此,该原则要求系统决策使用的数据和算法、系统的开发意图和过程向公众开放,并就此向公众做出解释说明。

在这三个原则中,始终贯穿着一个基本的要求,即设计人员和开发人员应当坚持以人类的基本价值观和道德原则作为人工智能系统设计的核心指导思想。为了符合这一要求,我们可以在人工智能系统开发中采用价值观设计路径。价值观设计是一种方法论设计路径,它的目标是为人工智能系统的设计、研究和开发制定社会和道德价值观[5],从而确保人类价值观和道德原则被明确地整合到系统的设计和执行过程中,并使得使用者能够识别系统决策所依据的价值观。

价值观是人类行为和态度的核心激励因素。每个人都持有多种不同的价值观(如成就、安全、仁爱),某种价值观对某个人来说可能是最重要的价值观,但对另一个人而言却并非如此[6]。价值观是人们在多种情况之间做出选择的标准,人们会根据对自己而言最重要的价值观来做出决策。例如,假设某人追求的价值观是“成就”,那么,他的一切选择和决定就有可能围绕着“实现事业上的成功”这一目标来制定。对于人工智能系统而言,价值观也是其做出决策和选择的标准,人类为人工智能系统所设定的价值观决定了系统在运行过程中往往会采取符合该价值观的行动。因此,在人工智能系统的设计过程中,将人类的基本价值观和道德原则作为设计的核心指导思想可以确保人工智能系统的运行对人类负责并符合人类的根本利益。

人工智能系统是计算机程序,它的开发遵循着软件设计方法论。人类价值观是极其抽象的概念,我们很难将其整合到软件设计中。价值观设计路径旨在于突破传统软件设计对人类价值观关注度不足的局限,将人类的基本价值观和道德原则置于系统设计和开发的核心。价值观设计遵循着“从价值观到准则再到功能”(反之亦然)的路径。观察抵押贷款申请系统的开发,会注意到“公平”居于重要地位。假设抵押贷款申请系统的价值观是“公平”,我们可以根据不同的准则来理解“公平”一词,它既可以被理解为平等获取资源的权利,也可以被理解为平等的机会,不同的理解将会导致截然不同的行为。平等赋予每个人获取特定财产的机会意味着决策的制定是基于财产的价值观;而平等的机会则意味着决策的制定是基于收入和年龄等因素。因此,设计人员需要明确说明系统的设计是建立在什么样的理解之上。此外,设计人员也需要明确说明系统的准则如何被执行,即明确说明这些准则如何被转化为具体的系统功能。这是根据环境、个人观念和设计人员的文化背景来决定的。就“公平”的价值观而言,机器学习文献确定了实践平等机会观的不同方式,例如人口统计学意义上的平等、平等的机会,等等。这些功能具有不同的结果。如果我们无法明确到底采用了哪种方式来实现“公平”的概念,我们就无法对不同的算法做出比较,进而也就无法理解它们的决策对不同人群的影响[4]62-64。

人工智能系统是人类设计、开发、制造和使用的人工产物,它对人类社会造成的影响很大程度上取决于设计人员和开发人员的设计选择、决策和价值观。遵循“问责”“责任”和“透明性”的人工智能系统设计原则有助于减少人工智能系统的应用所带来的风险和负担,而坚持以人类的基本价值观和道德原则作为人工智能系统设计的核心指导思想是实现这三个原则的基本要求,同时也是构建对所有人负责的人工智能系统开发路径的第一步。

二、人工智能系统的道德推理路径

人工智能系统是人类为了实现特定目的而创建的工具,为此,人工智能系统通常会采取各种行为来实现自身的目的,但这些行为不一定都符合人类的基本价值观和道德原则。因此,人们期待人工智能系统能够具备道德推理能力、维护人类的基本价值观和道德原则,从而确保其行为符合人类的道德要求并对所有人负责。然而,不同的个人和社会对道德观念和道德行为的理解存在很大的差异,这些不同的理解使得人们在同一情况下可以做出截然不同的决策。作为人工产物的人工智能系统,如何对人类的道德价值观念做出恰当的理解是其面临的一大难题。

当今哲学家通常把道德理论划分为三大部分:元伦理学、应用伦理学以及规范伦理学。其中,规范伦理学试图对我们如何评价事物和判断是非的问题加以讨论,从而提出一套规范人们行为的规则。规范伦理学与“在人工智能系统设计中如何理解和应用道德原则”的问题有很大的关联。在规范伦理学的众多学派中,与人工智能系统的道德推理有关的三个重要学派是推断论(consequentialism)、义务论(deontology)和德性伦理学(virtue ethics)[4]37。

推断论伦理学也被称为目的论伦理学,该理论认为道德行为就是能够导致最佳后果的行为,推断论的代表性理论是边沁的功利主义学说。功利主义认为,社会的幸福主要是根据大多数人的最大幸福来衡量,因此,对于某一行为而言,增加社会的利益(即最大多数人的最大幸福)的倾向比减少的倾向大,这就是“达到最大善”的行为。义务论伦理学的代表性理论是康德的实践哲学。康德认为,理性者应该按照绝对命令来行动,即总是按照那些同时可以成为普遍规律的规则来行动。换言之,道德的行为就是符合普遍道德原则的行为。德性伦理学关注的是个人的内在道德品质,该理论认为道德的行为就是符合德性品质(如仁爱、智慧、勇敢、节制)的行为。

就自动驾驶汽车面临的道德困境而言,采取不同的道德理论将会导致不同的选择。推断论或功利主义认为,汽车应该关注自身行为的结果,并运用手段—目的推理来选择对大多数人而言最佳的结果。因此汽车将会采取使得被拯救的生命总数最大化的选择,如果车内乘客的数量大于公路行人的数量,汽车会选择撞击行人以拯救车内乘客的生命。义务论或康德主义认为,汽车将会考虑自身可能行为的道德性,并避免选择其所知的会导致人身伤害的行为。因此,如果汽车知道迂回的行为会导致对某人的伤害,那么它就不会采取这一行为。德性伦理学认为,具有道德品质的汽车关注的是自身的动机,同时它会考虑具有道德品质的智能体会采取什么样的行动。由此,它可能会得出的结论是,最具道德性的行为是保护最易受到伤害的行人[4]43。很显然,这三种道德理论所采取的不同解决方案都具有自身的合理性,因此自动驾驶汽车面临的道德困境并不存在最佳的解决方案。当面对道德困境的时候,人工道德智能体必须具备对不同道德理论进行思考并做出选择的能力,也就是说,具备所谓的道德推理能力。特定的个人和社会在面对道德价值观念冲突时,个人和文化所优先考虑的道德价值观念决定了其在冲突的道德价值观念之间做出选择和决定的方式。然而,人工智能系统无法像人类一样体会遗憾的感觉,因此难以对道德困境做出恰当的回应,换言之,人工智能系统缺乏应对道德困境的创造性。对于人工智能系统而言,在特定情景下优先考虑哪些道德价值观念是其道德推理所面临的主要挑战。

在不同文化中,虽然高层次的抽象道德价值观念通常是一致的,但是人们对某一行为应当遵循哪一种道德理论却难以达成社会共识,不同的个人和社会优先考虑的道德价值观念并不相同。这意味着,人工智能系统的设计除了需要考虑基本的人类价值观念之外,还需要考虑不同的个人和社会所持有的特殊道德价值观念。因此,为了让人工智能系统理解不同的特殊道德价值观念,并根据具体的情景在这些道德价值观念中做出合适的选择,人工智能专家为人工智能系统设计了自顶向下(top-down)道德推理路径和自底向上(bottom-up)道德推理路径。

自顶向下路径采用的是特定的道德理论(如功利主义理论),这一路径通过对该道德理论的计算要求加以分析,从而设计出能够执行该理论的算法和子系统。采取特定道德理论的人工智能系统通过分析在系统中实施该理论所需的信息和程序要求,并将该分析应用于子系统的设计以及与该设计相关联的其他方面,从而具备根据该道德理论进行道德推理的能力[7]79。自顶向下路径的最大特点是给出特定的道德理论,并明确规定哪些行为是符合该理论的道德行为,它要求人工智能系统根据这一道德理论来行动。自顶向下路径需要将特定道德理论转化为具体的算法,同时还需要利用该理论计算出不同情景下的最佳行动,从而指导人工智能系统做出符合该道德理论的决策和选择。然而,这一路径实施起来有很大的困难。一方面,尽管目前计算机的计算能力得到极大的提高,但是计算机仍然无法完成执行某一特定道德理论所需的全部计算要求,因此将特定道德理论转化为具体算法存在很大的难度。另一方面,不同的道德理论将会导致不同的决策结果,对于自顶向下路径而言,采取哪一种道德理论仍然是具有争议性的问题。

自底向上路径强调的是创造某种环境,在这种环境中,智能体能够自行探索行动方案、进行自我学习,并因在道德上值得称赞的行为而受到奖励,以此获得道德推理能力。与自顶向下路径不同的是,自底向上路径并不定义什么是道德的行为和什么是不道德的行为,任何道德原则必须由智能体自己去发现和构建[7]80。自底向上路径认为,通过观察自身所处环境中其他人的行为,人工智能系统可以自主学习到道德行为,在面对道德困境的时候,它可以根据学习到的道德行为来做出合适的决策和选择。目前,机器学习采用的就是这一路径。需要注意的是,机器的学习是一个缓慢的过程,它需要学习各种情景中的道德行为。在该学习过程中,机器极有可能学得并强化人类的偏见、模式化的观念以及具有文化烙印的行为,例如,人类对社会经济水平与犯罪率二者的关系持有某种偏见,机器在学得这一偏见后,通常会强化种族或地域之间的差异,如此一来,机器在面临道德选择时,可能会做出错误的决策。然而,对于机器的错误决策所造成的风险,人类往往难以承受。

鉴于纯粹的自顶向下路径和自底向上路径都难以满足人工智能系统的道德推理要求,某些学者提出了将这两种推理路径的优点结合起来的混合路径[7]99。吉仁泽(Gigerenzer)认为,大部分道德行为是建立在启发法(heuristics)的基础上,而不是建立在道德规则或最大化原则的基础上。启发法是一种忽略部分可利用的信息、且不追求最优化的心理过程,这意味着启发法不涉及最大值或最小值的计算。启发法本身没有好坏之分,而是仅仅与使用该方法的环境有关。因此,道德行为是思维和环境相互作用的结果[8]。根据这一观点,先天因素与后天因素对道德行为的形成都非常重要。对于道德智能体的创建而言,将这种观点扩展到人工智能系统的道德推理中非常有必要,而这恰恰需要结合了程序化规则(先天因素)和环境观察(后天因素)的混合路径。在混合路径中,既需要考虑先天因素,也需要考虑后天因素,而不是将这两种因素视作“非此即彼”的对立。这意味着,自顶向下路径(通过编程的方式)和自底向上路径(以环境为基础)都难以做出道德决策,相反,必须将这两种路径结合起来[4]80。

对于人工智能系统而言,自顶向下路径和自底向上路径都是其不可或缺的道德推理方式。自顶向下路径强调系统应该遵循特定的道德原则,从而采取有利于社会的行动。这一路径可以确保系统的决策符合人类的长期利益,而不是个人的短期私利。自底向上路径侧重于通过经验学习来发现社会认可的价值观念和道德原则,相较于严格遵守特定道德原则的自顶向下路径,采用自底向上路径的人工智能系统在行为选择上具有更大的灵活性。人工智能系统要想在不同情景中正常发挥作用,就必须了解社会动态和文化习俗,而自底向上路径在这一方面具有很大的优势。因此,混合路径是比较理想的人工智能系统道德推理路径。一方面,遵循特定道德原则的人工智能系统能够确保系统的行为不偏离人类的基本价值观和道德原则,从而对所有人负责;另一方面,允许人工智能系统在不违背特定道德原则的前提下根据具体环境来灵活学习不同的道德行为、对不同的道德理论做出表征,并做出适合该环境的道德决策,这能够确保系统更高效地完成人类设定的具体任务。

然而,考虑到人类道德推理的复杂性,采用混合路径的人工智能系统不可能实现像人类一样的道德推理能力,仅仅依靠人工智能系统自身的道德推理能力并不足以完全确保人工智能系统的开发对所有人负责。当人工智能系统面对自身难以解决的道德困境时,人类的干预和介入非常有必要。

三、人工智能系统开发的多样性和包容性

作为人工产物,人工智能系统执行的目标是经由人类嵌入到机器中,这些目标始终与特定人群的需求有关。归根到底,使得人工智能系统对所有人负责就是要确保我们嵌入到机器中的目标是所有人确实需要的目标[9]。因此,我们期望人工智能系统为实现特定目标所做出的决策和行为能够符合普遍的道德原则和人类的根本利益,从而规避人工智能系统带来的潜在风险。这就要求人工智能系统的设计人员和开发人员将人类的基本价值观和道德原则置于系统设计的核心,赋予人工智能系统以道德推理能力。然而,人工智能系统的道德属性本质上是由人类所决定,系统被赋予的道德价值观念并不具备价值中立性,因为人工智能系统的设计人员和开发人员、相关利益群体总是根据特定意图和文化偏见来为系统选择特定的道德价值观念。在实践层面上,人工智能系统的目标和运行方式很大程度上是由系统设计人员和开发人员以及相关参与者所决定。避免人工智能系统带有个人的文化偏见、成为特定人员获取私利的工具是确保人工智能系统对所有人负责以及人工智能系统的目标符合人类根本利益的关键。为了实现这一要求,人工智能系统的开发需要具备多样性和包容性。

多样性和包容性在人工智能系统开发中面临巨大挑战。一方面,在人工智能系统开发的过程中,系统设计人员和开发人员总是根据自己固有的文化偏见为系统设计其认为最合适的价值观选项。这一现象不可能避免,因为文化偏见是人类的自然倾向,人类总是根据符合自身文化偏好的标准在不同选项之间做出选择;另一方面,人工智能系统的开发目前在很大程度上已经被少数大型公司所控制,这些公司通过人工智能系统随意获取并占有公众的所有信息和数据,从而满足少数人的利益需求;此外,这些公司还决定了人工智能系统的设计和开发方式,以此对公众施加影响,从而实现少数人的特定意图。为了最大限度避免这些问题,人工智能系统的设计和开发必须坚持以多样性的所有含义为基础,显然,多样性的所有含义涉及性别、文化背景和种族等多个方面。此外,某些研究证据表明,认知的多样性也有助于更好地做出决策。因此,人工智能系统的开发团队应该包括社会科学家、哲学家以及其他领域的专家,同时也应该确保性别、种族和文化的差异[4]100。对于人工智能系统的开发而言,根据性别、阶级、种族、学科和其他相关维度,将多样性作为优先选项纳入人工智能系统的设计和开发中,以增加系统的包容性、宽容度以及思想和观点的丰富性,这是迫切需要解决的问题[10]。

下面从“参与”“教育”和“监管”三个方面来阐述实现人工智能系统开发的多样性和包容性所需的路径。

首先,实现人工智能系统开发的多样性和包容性要求参与到人工智能政策讨论和制定过程中的人员构成保持多样性。人工智能的潜在变革性要求我们加大对人工智能系统研发人员多样性的关注,也就是说,需要意见、兴趣、经验的多样性,以及在等级结构中地位的多样性,从而确保人工智能系统表现出不同的人格类型,以此获得各种类型的思维方式[11]101-102。然而,在人工智能研发领域以及技术行业的工作场所文化中,缺乏多样性是普遍存在的问题。目前的情况是,在世界顶尖大学(如斯坦福大学、牛津大学、伯克利大学和ETH 等)中,平均80%的教授是男性。此外,在美国,男性占人工智能工作申请者人数的比例高达70%以上;而在美国科技部门,只有14%的员工是黑人或西班牙裔,尽管他们占总人口的比例为27%。在德国,联邦统计局提供的数据进一步证实了这种形式的不平等,例如,在计算机科学专业的一年级学生中,女性的比例只有20%左右[12]。这意味着,迫切需要增加女性以及不同族裔的人工智能系统研发人员的比例,保持参与群体的多样性、意见的多样性、经验的多样性、思维方式的多样性和文化的多样性,以便更好地在人工智能领域中代表不同人群的利益、价值观和需求。与此同时,将人工智能领域以外的学科专家(如社会科学家、法学家、经济学家)吸收到人工智能系统的研发过程中,也有助于人工智能系统保持一种多样化的视角。

其次,实现人工智能系统开发的多样性和包容性需要多样化的人工智能教育。数字时代是一个变革和创新的时代,人文学科、艺术、社会科学和STEM(科学、技术、工程学和数学)之间的传统划分已经难以适应数字时代的需求。未来的学生不仅应该具备多学科的知识,而且还应该具备跨学科的知识:即建立一个超越学科视角的知识框架[4]112。人工智能本质上是跨学科的领域,然而,目前人工智能的课程范围仅限于工程学,这些课程的内容无法满足人工智能的跨学科发展趋势。我们迫切需要对人工智能从业人员进行跨学科的培训,拓宽人工智能相关课程的授课范围,使未来从事该领域研究的人不仅具备人工智能工程学知识,同时还具备基本的哲学、社会科学、法律和经济学知识。

第三,实现人工智能系统开发的多样性和包容性需要相应的法规和监管。在人工智能系统的开发过程中,算法偏见是人工智能透明性的主要障碍。机器学习算法是根据人工智能研发人员和决策者采集的数据为达某个目标而产生,这些数据以及由此产生的算法必然带有相关从业人员的偏见。偏见是人类思维固有的倾向,它也是人类采集的数据所无法避免的特征。算法偏见本质上与人工智能系统的开发环境有关,也就是说,与人工智能系统开发团队人员构成的多样性和包容性有关。为了尽可能消除算法偏见,我们需要对人工智能系统的开发进行监管,制定相应的法规、明确规定对象、目标和激励措施,从而促进人工智能系统开发团队的多样性和包容性。

总之,只有人工智能系统的利益相关者,包括设计人员、开发人员、政策制定者、使用者在内的所有人都能够参与到人工智能系统的开发中,保持人工智能系统开发的多样性和包容性,人工智能系统设计的核心价值观和道德原则才可能具备普遍性,进而才有可能实现人工智能系统的开发贯彻对所有人负责的原则。

四、结语

随着自主决策能力不断增强,人工智能系统日益影响着我们的生活和世界,这引发了人们对人工智能系统的决策和行为的潜在问题和风险的担忧。显然,无论人工智能系统的自主性水平多高,智能体都无法为自己的决策和行为负责,因为人工智能系统本质上是人类为了实现特定目的而制造的人工产物,而决定这些目的的正是我们人类。由此可见,恰恰是我们人类应当对人工智能系统的行为和决策承担起责任。这意味着,需要构建一种对所有人负责的人工智能系统开发路径,即坚持人工智能系统的设计以人类的基本价值观和道德原则为核心指导思想,采用“问责”“责任”和“透明性”的设计原则;创建能够根据人类的基本价值观和道德原则来进行道德推理的系统;保持人工智能系统开发团队的多样性和包容性。也只有如此,我们才有可能最大限度地规避人工智能系统的决策和行为所带来的潜在风险,从而确保人工智能系统的应用有助于实现人类的福祉和根本利益。

猜你喜欢
决策原则价值观
我的价值观
十二星座的做事原则
为可持续决策提供依据
图说 我们的价值观
图说我们的价值观(三德)
党支部的工作原则是什么?
决策大数据
决策大数据
诸葛亮隆中决策
知名企业的价值观