斯塔尔人工智能生态系统伦理治理思想研究

2023-01-09 21:14顾世春
昆明理工大学学报·社科版 2022年6期
关键词:伦理学相关者伦理

顾世春

(沈阳建筑大学 马克思主义学院,辽宁 沈阳 110168)

人工智能正快速发展和日益广泛地被应用。人工智能的发展和应用给人们的生产生活带来诸多福利:在家庭里,人工智能产品(如扫地机器人)减轻了人们的家务劳动负担;在生产上,人工智能降低了生产成本,提高了生产效率;在社会治理中,人工智能为社会治理提供了新手段和便利……人工智能在给人们带来福利的同时,也引起了一些伦理问题:侵犯隐私、算法歧视、冲击人的自主(自由)、缺乏透明性、“好的生活”难题和安全问题等。面对人工智能这些伦理问题,许多技术哲学家开始关注和研究人工智能的伦理治理。这其中就包括英国技术哲学家斯塔尔(Bernd Carsten Stahl)。斯塔尔人工智能生态系统伦理治理思想为我们解决人工智能伦理问题、促进人类繁荣提供了一条实用的进路。

一、思想背景与伦理旨趣

近些年,人工智能加速发展,加快向社会“渗透”,随之,人工智能的伦理问题也增多和凸显出来,并备受人们关注。斯塔尔人工智能生态系统伦理治理思想正是在这一背景下产生的。斯塔尔人工智能生态系统伦理治理思想坚持繁荣伦理学(flourishing ethics)[1]2,旨在塑造促进人类繁荣(human flourishing)[1]1的人工智能生态系统。

人工智能开始于20世纪50年代。1956年,麦卡锡(John McCarthy,图灵奖获得者)、明斯基(Marvin Minsky,图灵奖获得者)和香农(Claude Elwood Shannon,信息论提出者)等学者在美国达特茅斯学院举行了一次长达两个月的研讨会[2]。在此次研讨会上,人工智能概念被提出。本次人工智能概念的提出通常被视为人工智能发展的开端。在随后的数十年里,人工智能在起起伏伏中向前发展。这一方面是因为一些人工智能研究问题比预期更难攻克,另一方面是因为还有一些人工智能研究问题以当时的技术是无法解决的[3]。在这一时期,人工智能的应用有限,引发的伦理问题也少。从20世纪90年代后期开始,人工智能加速发展。近些年,在移动互联网、物联网、大数据、脑科学等科技,以及经济社会发展强烈需求的共同推动下,人工智能更是快速发展;同时,近些年,人工智能被大量地引入社会,被广泛地应用在人们的生产生活中。随着人工智能的发展和大量引入社会,人工智能的伦理问题增多,并引起人们的关注。正是在这样的背景下,斯塔尔形成和提出了自己的人工智能生态系统伦理治理思想。

生态系统是生物学的一个重要概念,指一定地理区域内动物、植物、微生物、空气、土壤、河流等构成的整体。它强调这一系统(整体)的各组成部分不是孤立存在的,而是相互联系、相互作用的。在人工智能领域中,有许多不同的行动者和利益相关者。他们也不是孤立存在的,而是相互影响、相互依赖、共同发展的。人工智能领域的这种情形适宜从系统的视角描述。因此,斯塔尔把生物学中的生态系统概念借用到人工智能领域。在斯塔尔人工智能生态系统伦理治理思想中,人工智能生态系统就喻指人工智能领域中不同行动者、利益相关者相互联系、相互影响构成的系统。

斯塔尔人工智能生态系统伦理治理思想以繁荣伦理学为伦理视角,意在塑造促进人类繁荣的人工智能生态系统。繁荣伦理学是美德伦理学的一种,由美国伦理学者拜纳姆于本世纪初创建。繁荣伦理学根源于亚里士多德的伦理学,它主要包括两大内容:一是以人类为中心的繁荣伦理(Human-Centered Flourishing Ethics);二是普遍的繁荣伦理(General Flourishing Ethics)[4]。以人类为中心的繁荣伦理聚焦人类的行动、价值和品质,阐述人类的繁荣问题。普遍的繁荣伦理关注宇宙中各种物理实体,主张促进人类、动物、植物和行为端正的机器人等实体繁荣。斯塔尔认为,繁荣伦理学具有三个大的优势:一是它有助于理解和解决自己(斯塔尔)提出的三种人工智能伦理问题,即机器学习的特殊伦理问题、在数字世界里生活的一般伦理问题和形而上学层面的伦理问题[1]2。二是繁荣伦理学对其它的伦理理论(如义务论伦理学、功利论伦理学)是开放的,不是拒斥的,它可以融合义务、后果等考虑。三是繁荣伦理学不仅在伦理学上具有卓越的历史,而且在计算伦理(the ethics of computing)上也具有优秀的历史[1]3。正是因为繁荣伦理学具有这些优势,所以斯塔尔选择繁荣伦理学作为视角研究人工智能的伦理问题。从这一视角出发,斯塔尔人工智能生态系统伦理治理思想以塑造促进人类繁荣的人工智能生态系统为旨趣。

二、伦理治理的元责任主体

为了塑造促进人类繁荣的人工智能生态系统,谁应为确保个人、组织和国家了解他们的责任和履行他们的责任负责?即谁应担任人工智能生态系统伦理治理的元责任(meta-responsibility)[1]10主体?在斯塔尔看来,应确立人工智能生态系统的中心节点[1]110,由它们为确保个人、组织和国家了解他们的责任并负责其职责,担任人工智能生态系统伦理治理的元责任主体。

元责任是斯塔尔人工智能生态系统伦理治理思想中的一个重要术语,指维护、发展和协调现有责任的责任[5]712。对于元责任,本文将在下一部分元责任原则中详细阐述。元责任主体就是为维护、发展和协调现有责任负责的人或组织,它担负着使个人、组织和国家了解自己的责任,并积极履行自己责任的使命。元责任主体能够确保人工智能生态系统中有一个机制,让系统里所有的成员都可以获取知识、发展才能、受到指导和提出治理建议。元责任主体不是对现有治理主体,即现有监管机构的替代,相反,它是对现有监管机构人工智能伦理治理工作的有力支撑。那么,谁来担任这个元责任主体呢?斯塔尔认为,不论是在一个国家的人工智能生态系统中,还是在一个地区的人工智能生态系统中,或是在一个组织的人工智能生态系统中,都应确立一个中心节点,作为该人工智能生态系统伦理治理的元责任主体;同时,斯塔尔认为,在一个组织的人工智能生态系统中,这个元责任主体可能就是一个为人工智能负责的职位。这个任职者可能被称为人工智能官或数字官[1]111。

斯塔尔确立中心节点、作为人工智能生态系统伦理治理元责任主体的主张是在借鉴多特伍瑞安报告(the Doteveryone report)的基础上形成的。多特伍瑞安是英国的一个非营利性组织,2018年发表了一份关于负责任的技术管理的报告[1]111,也就是本文所说的多特伍瑞安报告。这份报告提议创立一个中心枢纽——负责任的技术办公室。这个办公室是支持和加强现有监管机构的。现有的监管机构经常缺乏针对人工智能或其它新兴技术的知识和经验,这个办公室为它们提供它们所缺乏的具体技术的知识。这个办公室还是公众参与之家和为确保技术治理矫正程序的存在和可用负责。斯塔尔说:“这样的一个组织在政治层面上无疑是需要的,不论它被称为监管机构、办公室、中心,还是其它的什么。”[1]111斯塔尔借鉴了多特伍瑞安报告技术治理的思想,提出了确立人工智能生态系统的中心节点,由它们担任人工智能生态系统伦理治理元责任主体的主张。他的这一主张深化了人们对人工智能生态系统伦理治理的认识。

三、伦理治理的四项原则

为了有效管理人工智能生态系统成员的行为和人工智能生态系统与外部环境的关系,推动促进人类繁荣的人工智能生态系统的塑造,斯塔尔提出4项人工智能生态系统伦理治理的原则,即韧性(flexibility)原则、试探性治理(tentative governance)原则、学习能力(ability to learn)原则和元责任原则[1]103。这4项原则有力地回答了应遵循什么对人工智能生态系统进行伦理治理的问题。

1.韧性原则。在日常语言中,韧性是指物体在外力作用下变形但不易折断的特性。在斯塔尔人工智能生态系统伦理治理思想中,韧性是指具有一定的可塑度,甚至是可逆的。斯塔尔说:“韧性是人工智能生态系统治理的一个关键要求”[1]101。他之所以认为韧性是人工智能生态系统治理的一个关键要求,原因有两个:一是人工智能生态系统的成员处在复杂的、非线性的关系之中;二是人工智能生态系统中的技术、组织等能够迅速变化。这两方面原因需要人工智能生态系统伦理治理措施具有韧性,以积极应对这些情况。正是基于对韧性重要性的认识,斯塔尔提出韧性原则。韧性原则要求人工智能生态系统伦理治理措施应具有一定的韧性,能为未来的调整、改变留下更多的选择,以适应人工智能生态系统的复杂性和变化。韧性原则有益于人工智能生态系统的伦理治理。

2.试探性治理原则。试探性治理和治理方式为:治理是一个动态的过程,在这一动态过程中,治理是谨慎的,而不是武断的,一般包括试错或学习过程[6]。在这一动态过程中,治理以一种非最终性的方式进行。试探性治理具有4个显著特点,即动态性、灵活性、开放性和可修正性。试探性治理是处理不确定性问题、复杂性问题的一种实用进路,它在新兴科技治理领域有较大影响。斯塔尔将试探性治理应用到人工智能生态系统伦理治理中,把它作为人工智能生态系统伦理治理的一项重要原则。斯塔尔还指导人们运用这一原则:一是试探性治理需为行动者学习、了解有关技术及这些技术的使用和评估提供空间;二是试探性治理需以利益相关者的沟通交流为基础并促进他们的交流磋商;三是试探性治理应允许承认错误和当发现原初的设想是错的或形成新的洞见、共识时有能力逆转或改变原路线[1]101-102。

3.学习能力原则。在斯塔尔看来,人工智能生态系统伦理治理需要仔细权衡人工智能可能给人们带来的好处与坏处,而这要求一种能力,即利用人工智能生态系统伦理治理有关知识和才能的能力[1]102。斯塔尔没有明确界定学习能力,但从其有关论述来看,他所说的学习能力主要就是指这种利用人工智能生态系统伦理治理有关知识和才能的能力。学习能力原则要求具有学习能力,以评估人工智能的发展,实施激励与处罚,进而确保和强化人工智能生态系统朝着令人满意的、促进人类繁荣的方向发展。另外,需要指出的是,前面谈到的人工智能生态系统伦理治理有关知识,它既包括技术知识,也包括规范知识,还包括过程性知识。规范知识就是伦理观念、伦理问题、伦理治理措施等知识。过程性知识就是组织处理伦理问题过程的知识。前面提到的人工智能生态系统伦理治理有关才能就是指应用人工智能生态系统伦理治理有关知识的才能。没有这些才能,那些知识就不能转化为实践。

4.元责任原则。如前面所说,元责任就是维护、发展和协调现有责任的责任[5]112。人工智能生态系统不是脱离现有的基础存在的,它们是建立在许多现有的责任和治理架构上的,并且它们也包含着这些现有的责任和治理架构。因此,斯塔尔提出元责任原则,主张不离开现有的治理基础,维护、发展和协调现有的治理架构和责任。他说,为了使人工智能生态系统是成功的和促进人类繁荣,重新创造治理原则是没有必要的,相反,这些人工智能生态系统应当被谨慎地开发,以使它们帮助现有的治理架构和责任关系有效运行。他强调:“为了促进有益于人类繁荣的人工智能生态系统发展,我们不需要重新创造车轮,我们需要确保已经存在的这些轮子朝向大致相同的方向和有一个稳固的、合理的过程,确定这一方向。”[1]102在斯塔尔人工智能生态系统伦理治理思想中,负责任地研究和创新(RRI)就是一种元责任。斯塔尔说,作为一种元责任,负责任地研究和创新就是要塑造、维护、发展和协调现有的和新的与研究和创新有关的过程、行动者和责任,以保证研究和创新成果使人们满意和社会可接受[1]102。

四、伦理治理的路径规划

斯塔尔还深入探究了如何对人工智能生态系统进行伦理治理的问题。他提出了人工智能生态系统伦理治理的路径。斯塔尔提出的这一路径为有关部门和实践者治理人工智能生态系统提供了指导,有助于他们塑造出促进人类繁荣的人工智能生态系统。

1.重新反思人工智能研究和创新与伦理之间的关系。当前,科学卓越与伦理反思是分离的[1]106。斯塔尔认为,为了使人工智能促进人类繁荣,必须改变科学卓越与伦理反思分离的状况和使人们认识到这一技术如果没有考虑伦理和社会后果,那么,它不是真正的卓越[1]106。为此,他建议从根本上重新反思人工智能研究、创新与伦理的关系和强调伦理在促进人类繁荣的广义上应是科学卓越内在的、不可或缺的一部分[1]106。这实际上告诉我们应通过对人工智能研究和创新与伦理关系的再反思,认识到伦理是科学卓越的一个要素。科学只有考虑人类繁荣,只有促进人类繁荣才能是卓越的。这里所说的科学包括技术。科学要揭示客观规律,要探索认识世界、改造世界的方法,但这些都不是科学的最终目的。科学的最终目的是造福人类,促进人类繁荣。从这一角度看,伦理在促进人类繁荣的广义上,的确应当作为科学卓越的一个要素。科学若要成为卓越的,的确应当考虑和促进人类繁荣。任何一项科学研究或创新如果没有深思伦理和社会后果,如果没有促进人类繁荣,那么,它在认识世界和改造世界上即使再有开创性、再领先,也不能被称为“卓越的”。斯塔尔还认为,要把预期结果、详细的风险分析和预判到的伦理问题的应对措施等内容作为研究和创新提议科学评估的一部分,并据此确定哪些想法可被视为卓越的和值得资助的[1]106。

2.测量人工智能的开发和使用对人类繁荣的影响。斯塔尔认为,我们应测量和了解人工智能开发、使用给人类繁荣带来的影响。他为我们提供了3种测量方法,即人类发展指数法、可持续发展目标法和人权法。斯塔尔说:“一种确立已久的测量人类繁荣的方法是人类发展指数”[1]106。人类发展指数(HDI)由联合国发展计划署于1990年在《1990年人类发展报告》中提出。它是一个综合指数,用于衡量人类发展在健康长寿、知识和体面生活3个基本维度上的平均成就[7]。它涉及人的预期寿命、人受教育程度和人均国民总收入(GNI)3大指标。斯塔尔提供的人类发展指数法实际上就是通过测量人工智能对相应范围的人类发展指数的影响来了解人工智能对人类繁荣的影响。联合国《变革我们的世界:2030 年可持续发展议程》规划了17个可持续发展目标,如消除一切形式的贫困;确保包容和公平的优质教育,让全民终身具有学习的机会;推动持久、包容、可持续的经济增长,促进充分的生产性就业和让人人拥有体面的工作等[8]。可持续发展目标法就是通过考察人工智能对这些可持续发展目标实现的影响来认识人工智能对人类繁荣的影响。根据《世界人权宣言》,人们享有生命权、自由权、人身安全权和受教育权,人们在尊严和权利上平等,人们的隐私不得被侵犯……斯塔尔建议的人权法就是通过评估人工智能对人权保护的影响来判断人工智能对人类繁荣的影响。

3.建立人工智能知识库。了解人工智能能够给人们带来的利益和风险,知晓人工智能能够赋予使用者的能力处在任何使人工智能生态系统朝着促进人类繁荣方向发展的努力的核心位置[1]108。知识在认识和了解事物上具有重要作用,甚至是关键作用。因此,在使人工智能生态系统朝着促进人类繁荣方向发展的努力中需要知识。但由于人工智能发展快速,这方面知识更新也快,所以斯塔尔主张建立人工智能知识库,并认为人工智能知识库是成功塑造人工智能生态系统的必要条件[1]108。斯塔尔从基础、职责担当、基本要求3个方面阐述了这一知识库的建立问题。他认为,这一知识库应以现有的知识和学术体系为基础[1]108。在他看来,卓越中心应在建立和维护这一知识库中尽主要职责,即发挥主要作用[1]108。这里所说的卓越中心是指那些居于领先地位的、高水平的科学研究机构,例如,英国的阿兰·图灵学院。斯塔尔强调,人工智能知识库需要在科学上是可靠的、可信的和它必须是可及的(可得到的)、可传播的和可理解的[1]108。这种人工智能知识库的建立有利于认识人工智能的社会影响(包括给人们带来的利益和给人们带来的风险),能够为伦理治理决策提供有益的支持。

4.构建利益相关者参与治理机制。人工智能的研发和应用将给一些人带来影响,这些受影响的人就是这一人工智能的利益相关者。斯塔尔认为,欲充分认识“3W”问题,即“什么算是一个与人工智能有关的伦理问题”“它为什么算是与人工智能有关的伦理问题”“我们能够或应当做什么来处理这一伦理问题”,需要社会辩论,让利益相关者一起讨论这些问题。他强调,人工智能伦理不能只是技术和伦理专家思考和处理的主题,它需要更广泛的利益相关者参与其中[1]109。引导人工智能生态系统朝着人类繁荣的方向发展需要充分认识“3W”问题,需要更广泛的利益相关者参与。因此,斯塔尔主张构建利益相关者参与治理机制。他说:“为了引导人工智能生态系统朝着人类繁荣的方向发展,他们将需要这样的机制:这些机制使利益相关者参与活动制度化。利益相关者的参与活动使利益相关者拥有表达权,让他们为集体决策做出贡献。”[1]109利益相关者参与治理机制将使许多不同方面的利益相关者参与到人工智能生态系统伦理治理中,他们的看法、意见将被听取。这样,人工智能生态系统的伦理治理将不只是依靠管理者、技术专家和伦理专家,而是转变为包括不同利益相关者在内的群策群力。这将提高伦理治理的水平。斯塔尔在主张构建利益相关者参与治理机制的同时,还提醒注意利益相关者参与中的风险和问题,例如避免这些活动被特定的利益集团操控等。

五、思想的时代价值

斯塔尔人工智能生态系统伦理治理思想是斯塔尔从繁荣伦理学的视角深入思考人工智能生态系统伦理治理的智慧结晶,它发展了人工智能伦理治理思想,回应了当下社会对人工智能伦理问题的关切,具有不容忽视的时代价值。

1.从理论上看,斯塔尔人工智能生态系统伦理治理思想引领人工智能伦理治理研究从技术个体层面向系统层面发展。从国内外的有关文献看,学术界主要从技术个体层面分析人工智能的伦理治理问题。这里的“技术个体”是与系统相对的一个概念,它强调从个体的角度思考和研究技术。从技术个体层面研究人工智能伦理治理是重要的和必要的。它可以为人们提供人工智能伦理治理的知识和方法,可以指导人们科学地对人工智能进行伦理治理;同时,就像生物学一样,人工智能伦理治理研究既需要从个体层面研究,也需要从系统层面研究。从系统层面研究人工智能的伦理治理至少有3项益处:一是人工智能的一些伦理问题能够更容易地被阐明。例如,歧视问题更容易从包括人在内的系统层面被阐释清楚。二是有利于探寻出更多人工智能伦理治理措施。人工智能伦理治理研究从技术个体层面移动到系统层面将拓展探究人工智能伦理治理措施的广度,由此将促进更多的人工智能伦理治理措施被提出。三是将使更多的学科(如系统科学)参与到人工智能伦理治理的研究中来。这有助于深化人工智能伦理治理研究。斯塔尔人工智能生态系统伦理治理思想就是从系统层面研究人工智能的伦理治理问题。它把人工智能领域视为一个生态系统,探究人工智能生态系统的伦理治理,即从生态系统的层面、视角研究人工智能的伦理治理。它发挥着一种示范作用,正激励着其他学者将研究目光从技术个体层面转向系统层面。

2.从实践上看,斯塔尔人工智能生态系统伦理治理思想为人工智能生态系统的伦理治理提供了方法论指导,也有利于促进人类繁荣。斯塔尔人工智能生态系统伦理治理思想不是书斋式的学问,不是空对空的玄学,它面向现实,服务人工智能生态系统伦理治理实践。它提议确立人工智能生态系统伦理治理的元责任主体,还阐述了人工智能生态系统伦理治理的原则、人工智能生态系统伦理治理的路径。这些为有关部门和实践者进行人工智能生态系统伦理治理提供了有益指导。斯塔尔人工智能生态系统伦理治理思想坚持以人为本,站在繁荣伦理学的立场上,进一步地说就是站在以人类为中心的繁荣伦理的立场上阐述人工智能生态系统的伦理治理,意在塑造促进人类繁荣的人工智能生态系统,让技术进步服务人类价值,造福人类。斯塔尔人工智能生态系统伦理治理思想发出了让人工智能生态系统促进人类繁荣的时代声音;同时,它也为塑造这样的人工智能生态系统提供了可行路径。这无疑有益于促进人类的繁荣。在这里还需要特别指出的是,如前所述,斯塔尔提出了3种测量人工智能对人类繁荣影响的方法,即人类发展指数法、可持续发展目标法和人权法。这些方法既使我们能了解人工智能对人类繁荣的影响,又使我们知道应在哪些方面着力,提高人工智能生态系统对人类繁荣的贡献度。

六、结语

斯塔尔人工智能生态系统伦理治理思想是对时代问题的一种积极回应。它不是从某些伦理原则出发,而是立足繁荣伦理学系统思考人工智能生态系统的伦理治理问题。它阐明了人工智能生态系统伦理治理的元责任主体,揭示了人工智能生态系统伦理治理应遵循的主要原则,从科学卓越与伦理的关系、人工智能对人类繁荣影响的测量、知识库和利益相关者参与4个方面提出了人工智能生态系统伦理治理的路径(方法)。斯塔尔人工智能生态系统伦理治理思想既具有重要的理论价值,也具有现实的指导意义。我们理论工作者应积极汲取斯塔尔人工智能生态系统伦理治理思想的养分,进一步发展我国的人工智能生态系统伦理治理理论。我国的有关实践者应借鉴斯塔尔人工智能生态系统伦理治理思想,努力塑造促进人类繁荣的人工智能生态系统,让人工智能更好地造福人民。

猜你喜欢
伦理学相关者伦理
《心之死》的趣味与伦理焦虑
实践音乐教育哲学中的伦理学意蕴探析
校园篮球利益相关者的分类研究*
灵长类生物医学前沿探索中的伦理思考
乡村旅游开发中利益相关者的演化博弈分析——以民族村寨旅游为例
“纪念中国伦理学会成立40周年暨2020中国伦理学大会”在无锡召开
论马克思伦理学革命的三重意蕴
护生眼中的伦理修养
伦理批评与文学伦理学
浅谈基于利益相关者的财务会计报告与管理会计报告融合