简小烜
“人工智能体的道德责任研究”是人工智能伦理学的一个核心议题,也是技术伦理学关注的一个热点与难点问题。人工智能技术近些年发展迅猛,人工智能体(Artifical Agent)越来越具有学习能力和自主能力,虽然目前还处于弱人工智能体阶段,但其引发的道德责任问题已经引起学界的广泛关注和深入探讨:谁该为人工智能体所犯错误负责?人工智能体能否承担道德责任?如果能,它在何种意义上承担,又承担何种责任?……这些问题颇有争议,众说纷纭、莫衷一是。本文试图从德博拉·约翰逊(Deborah Johnson)和托马斯·波瓦斯(Thomas Powers)提出的道德代理者(Moral Surrogate Agent)理论出发,运用“道德角色—道德责任”分析框架,以及责任伦理学、他者伦理学等理论,论证人工智能体在“人—机”社会系统中担负的道德角色及道德责任,以期为人工智能体道德责任的研究提供新的思路与借鉴。
将人工智能体在社会系统中的角色定义为代理者(Surrogate Agent)并非新想法,早已有人将搜索引擎、网络蠕虫等称为软件“代理者”[1](189-249)。德博拉·约翰逊和托马斯·波瓦斯正式提出计算机系统作为代理者的理论,他们基于人类代理能动性(Human Surrogate Agency)与计算机系统代理能动性(Computer System Surrogate Agency)在结构、关系上的相似性,以及人类与计算机系统的道德、利益关系,在功能主义的意义上论证了计算机系统可以作为人类的道德代理者。根据他们的理论,人工智能体作为有限道德代理者具有三大特质:替代人类行动、追求人类道德与利益、实现次级利益而非初级利益。
人类代理者包括律师、股票经纪人、地产经纪人、演艺经纪人等,其中最典型最为大家熟悉的代理者是律师。约翰逊和波瓦斯指出,律师具有专业知识、能力和专业资质,他接受客户的委托后,便代表客户行动并完成客户交给的任务,维护和实现客户的合法利益和目的;而计算机系统被设计与应用的目的是完成用户交给它们的任务,它们也具有完成任务的专业知识和能力,可替代用户的一些行动,代表和追求用户的合法利益与目的。因此,约翰逊和波瓦斯认为,计算机系统与律师等人类代理者类似,扮演着道德代理者的角色。他们指出:“正如人类代理者和客户间的关系,计算机系统和用户之间的关系可以被比喻为一种职业的服务关系。客户雇佣律师、会计师和地产经理人去代表他们做事,用户借助各种各样的计算机系统去代表他们做事。”[2](257)
计算机系统发展至今越来越具有智能和自主性,我们统称它们为人工智能体。与最初的计算机系统相比,现如今的人工智能体能够替代人类完成越来越多的任务,如自动驾驶汽车替代人类驾驶、军事机器人替代人类开展军事行动、护理机器人替代护士进行护理行为、医疗专家诊断系统替代医生看病、律师文书系统替代律师撰写文书,等等。人工智能体还经常替代人类完成一些危险系数高的行为,如在余震不断的废墟中寻找幸存者、在核泄漏地区检测和记录数据等。可以说,人工智能体已替代一部分人类代理,一些智能体甚至替代人类完成了人类无法完成的行动。它们实际上已经像律师和股票经纪人一样,作为道德代理者完成人类交给的任务。
人工智能体不但替代人类行动,更代表人类追求着人类的合法利益。“人类的合法利益”中的“合法”二字意味着社会系统对于代理者具备道德约束性,这种约束性既有一般的、普遍的社会道德要求,也有基于特定道德角色的要求与约束。“道德代理者基于自己对世界的信念而去追求个体需求和利益,道德则对那些可以去追求的利益进行限制,尤其是从他者利益的角度出发。”[2](252)“尤其是从他者利益的角度出发”,意味着他们必须代表被代理人的合法利益,所以代理者在行动中考虑的不是自己想要什么,而是被代理人想要什么。如律师、地产经纪人接受客户的委托后,他们代表的是委托人(第三人/他者)的利益,要维护委托人的合法权益;不能做违规违法的事情,更不能做与客户意志相违背的事情。对于人工智能体而言,这个“他者”就是人类,它们必须为人类服务,代表人类完成任务,在行动者网络中,它们行动的目的就是追求人类尤其是用户的合法利益。从功利主义角度而言,所有人工智能体皆为人类福祉服务,都被用户用来获取自己的利益。“在对人类的事实认知和价值标准进行算法学习与加工后,智能体体现的仍是人类的意图和欲望。”[3](137)
传统道德责任理论认为人工智能体不具备道德人格,不可能拥有道德能力,更不可能成为道德能动者(Moral Agent)。他们认为,智能体只有在具有堪比人类意识、意志、情感与欲望的特性时,才可能拥有道德能力。依照传统理论,智能体也不可能是道德代理者。但约翰逊和波瓦斯不这么认为,他们指出,正如人类代理者和客户间的关系一样,计算机系统和用户之间的关系既蕴含着深刻的道德因素,也有着很强的代理关系,计算机系统由此具备了道德代理能动性(Moral Surrogate Agency)。他们还指出:“计算机系统的道德代理能动性则在人类行为和计算机行为的相似性,以及计算机系统和人类利益之间的关系中得到呈现。”[2](263)可以说,智能体与人类道德、利益之间的关系是将智能体看作代理者的关键所在。
在《计算机作为代理者》一文中,约翰逊和波瓦斯还提出了“次级利益”理论。他们将代理者的利益分为初级利益和次级利益。初级利益意指个体自身利益,即自我利益,或者说第一人称利益;次级利益意指代理者所代表的用户的利益,即他者利益,或者说第三人称利益。当计算机系统“追求用户的利益时,它承担并追求次级利益”[2](258)。他们举例说:“比如,当用户命令浏览器去搜寻某目的地——该目的地是用户有兴趣去游览的地方——的地图时,浏览器就会弹出那个地方的地图而不是其他任何人想看的地图。当浏览器搜寻用户想要的那张地图时,在这个找地图的过程中,浏览器追求了次级利益。”[2](258)
根据次级利益理论,人工智能体在研发之初便被设计成代表人类的利益,当用户与人工智能体进行互动并为其布置某个任务或者一起达成某目标时,人工智能体就接管了用户全部或者一部分的利益,人类一旦开启它,它便开始了次级利益的追寻与实现之旅。比如,当用户乘坐一辆自动驾驶汽车到达某个想去的地点时,意味着自动驾驶汽车“追求”了次级利益,也实现了次级利益。
约翰逊和波瓦斯认为人工智能体没有初级利益而只有次级利益,人类代理者则既拥有初级利益也拥有次级利益。因为人类代理者具有第一人称视角,也就具有从第一人称出发的自我欲望和利益,即初级利益。但人工智能体没有欲望、情感、心理、意识和意志,不存在第一人称视角,没有自我利益可言,仅仅代表和追求人类的利益,这是它与人类代理者的最大不同。从它仅具有次级利益而无初级利益的这个角度而言,我们称它为“有限道德代理者”,以区别于人类这个“完全道德代理者”。
道德代理者不具备完全民事行为能力,因为不具备意识、意志,缺乏第一人称视角,它是“二阶道德能动者”,而“人类是一阶道德能动者”①“二阶道德能动者”即不具备自我意识和自由意志的能动者,带有一定物的属性,但具备一定的道德能动性,能实现某种程度的自主认知、决策和行动能力的拟主体。参见简小烜:《人工智能体的道德地位研究——基于责任论视角》,《湘潭大学学报(哲学社会科学版)》2020 年第4 期。。约翰逊认为计算机系统也不需要完全民事行为能力,它只要能代表人类的道德和利益并完成人类交予的任务即可,人类对它的期望与对人类代理者的期望是不一样的。实际上它目前确实也不具备完全民事行为能力,不过就现实情况而言,道德代理者在某些领域完成的代理任务已得到认可与肯定。它并非积极主动去完成,也不明白自己在其中的身份与作用,大多数人也不明白它的内部原理,更不清楚它“想什么”,但这并不妨碍它完成任务。客户一般不太明白人类代理者如何工作,但这并不妨碍他雇佣人类代理者替他完成任务,正如我们不了解律师具体的工作细节,只要他具备专业资质,我们就会委托事务于他。人工智能体亦是如此,最重要的是它能否胜任和完成人类交给它的任务,这也是摩尔(James H.Moor)再三强调的[4](13-14)。
按照责任伦理学中的角色责任理论,个体在社会系统中承担了某种道德角色,就必须承担相应的角色责任[5](1-7)。角色责任意味着,不管行动者的道德行为类型是什么,也不管行动者是作为还是不作为,他都会因为自身角色责任的存在而承担相应的道德责任。在第一部分我们将人工智能体界定为有限道德代理者,那么从字面上来理解,它在“人—机”社会系统中至少需要承担代理责任。但是,它有别于人类代理者,它所承担的代理责任自然也与其有所差别。
我们先来看代理过程中两种常见的行为:
第一种,无法胜任导致的失职行为。约翰逊和波瓦斯指出:“个人所得税会计师和个人所得税软件系统都可能无法胜任。会计师不胜任可能由于他对税法的理解不够,或者对客户的情况不是很了解,计算机系统不胜任可能由于它显示的所得税代码不够准确或者弄错了用户的输入。”[2](260)不胜任导致了失职行为,失职行为则导致了顾客或者用户的利益不能达成。对于人类代理者的失职行为,顾客一般会起诉和要求追责,会控告代理者,甚至要求赔偿或者实施其他追责。对于智能体的失职行为,用户一般会起诉研发公司或者制造公司,要求由公司担责和进行赔付。可见,在由智能体失职行为导致的损害归责方案里,人工智能体并未像人类代理者一样被问责。
第二种,不当行为。不当行为是指代理者利用自己的代理身份为客户或用户之外的人谋求利益,损害了客户或用户本身的利益。对于人类代理者,这种情况虽说不常见,但并非没有,如一个地产经纪人在代理“你”的同时,可能正在把“你”的相关信息售卖给其他公司。
由于智能体没有第一人称视角,很多人认为它不会作出不正当行为,所以,许多个体和企业相信人工代理者只追求用户的利益,他们宁愿选择人工代理者而非人类代理者来代理自己执行任务或作出决策。人工道德代理者真的只代表用户的利益吗?并非如此,它很可能被设计成服务于他人的利益而非只是用户的利益,如搜索引擎可能被开发成代表第三方的利益、浏览器可能支持跟踪程序或者为软件生产商或黑客的利益服务;算法表面上是推荐用户所需要的信息,实际上却是为了追求平台企业的利益,并编织了一个个“信息茧房”,损害了用户的利益。当人工代理者以追求非用户利益或逐渐损害用户利益的方式被设计出来之后,不正当的行为就出现了。
对这种不正当行为导致的负面结果,如果追责,实践中仍然是追究研发者或者制造商或者平台企业的主体责任。追究人类而非智能体的责任,主要原因在于:人工智能体没有自我(第一人称)视角,不存在初级利益,无法被追责与问责;问责与追责于人工智能体是毫无意义的。人类存在初级利益,且“计算机系统是由人类制造的,因此计算机系统中的错误或不当行为的来源,原则上可以回溯到对软件设计作出决定的人”[6](22)。总之,不管是在由失职行为还是在由不当行为所导致的归责方案里,智能体均未被问责与追责,所以有人将其承担的责任称为“虚拟责任”,我们在此称为“有限道德责任”。“有限道德责任”意味着它承担一定的责任,但无法被问责与追责,它的道德责任是有限的。
这种有限道德责任将“担责”与“问责”分开。人工智能体作为有限道德代理者在“人—机”社会系统中需要承担一定的责任,但在道德实践中,由于它不具备第一人称视角,无法被独立问责与追责,因此在它的行为导致了负面结果后,只能问责与追责于人类。那么,问题来了:人工智能体的这种不被问责的道德责任或者说有限道德责任是在何种意义上成立的呢?
自从列维纳斯(Emmaunel Lévinas)创立了他者伦理学,他者维度的道德责任随之出现,它最重要的内涵就是“为他者负责”。人工智能体的道德责任充满了“他者意蕴”:只对人类这个他者负责;被人类这个他者所期望和赋值。正是在他者意义上,它的“担责”与“问责”被分开的有限道德责任得以确立。
(1)他者维度的道德责任
“他者”和“自我”本是一对相对的概念,“他者”是相对于“自我”而言的,意指“自我”之外的人与事物。对于道德责任的分析也可以从他者和自我这两个视角进行分析,我们可以看到不一样的道德责任。
从自我维度来看,道德责任与自我意识、意志、心理因素、情绪状态等密切相关。传统道德责任理论即自我视角的责任理论,强调自由意志和意识,强调生物学意义上的心理、情感、认知和欲望;认为成为道德主体的前提条件是具备自由意志,主张只有发自内心意愿且可以自我决定的行动者,才是负责任的行动者。这是典型的自我视角的道德责任。
从他者维度来看,道德责任无须关注主体是否具有自我意识与自由意志,更不必关注主体有何心理状态与情绪。库克尔伯克(Mark Coeckelbergh)认为,进行责任追究之时,我们无须深究当时行动者的内心状态和心理情绪,我们也不会深入到他们的思想深处,更不依据他们的精神状态[7](181-189)。张正清、黄晓伟也认为,“作为乘客的我们,无法从上帝视角对他者内心进行窥探……乘客此刻眼中的自动驾驶汽车或者司机都是一个他者,他心是不透明的”[8](29),而且,他心里的想法、意愿等对乘客而言都是没有多大意义的,我们更关注司机的行为是否负责、是否具有担责的能力。站在人类的角度看,人工智能体是“他者”;站在智能体的角度看,人类又是“他者”。不管谁是“他者”,在对其提出道德要求之时,我们重点关注的是他/它能否及如何为他者负责。
列维纳斯的他者伦理学蜚声遐迩,他对以同化与占有为本质的存在论非常不满,继而通过批判胡塞尔和海德格尔等人的存在论,创立了著名的他者伦理学,并将责任哲学定义为一种为他者负责的伦理学。列维纳斯认为,伦理产生于“自我”与“他者”对面的关系之中[9](53),具体、独立、承担责任的个体存在是伦理关系存在的前提基础,道德责任的“实质是让自身之外的存在者将其恳求或命令教导给我”[10](13)。“自身之外的存在者”即“他者”,在列维纳斯看来,道德责任其实是“他者”通过“恳求”或者“命令”等教导给“自我”的。他者维度下,他者将责任赋予自我,责任并非自我的认定。
有学者认为道德责任就是他者视角的,如沃森(Gary Watson)认为“团体或者个体永远都是因为某件/某些事而为某个/某些人负责”[11](7)。“某件/某些事”“某个/某些人”都是“他者”,责任因“他者”而担负。库克尔伯克则直接主张:道德责任的重要内涵是“我们应对他者负责”[12](748-757)。在社会系统中,我们的行动及其后果常常会影响到他者,因此须考虑他者的利益,且本着“对他者负责”的态度行事。一旦发生“恶”的结果,“对他者负责”意味着我们还须接受批评或者惩罚等。“我们应对他者负责”也从一个侧面反映出人类的道德责任包含“他者意蕴”。当然,人类的道德责任既包含了他者视角,也包含了自我视角。帕特里克·林(Patrick Lin)和基思·艾布尼(Keith Abney)等人认为:“从他者视角而言责任是一种期望,主要是对他者责任行为和责任能力的一种期望,希望他者可以作出负责任的行动并能为他的行为后果承担责任。”[13](37)
综上可见,他者维度的道德责任包含两大重要内涵:第一,个体或集体的行为必须“为他者负责”,这是他者维度道德责任最重要的内涵,为列维纳斯、沃森和库克尔伯克等学者所认同。它包含三层意思:个体或集体应该具有一定的责任能力;个体或集体的行为是负责任的行为;个体或集体能为自己的行为后果负责。第二,道德责任是对他者责任行为、责任能力的期望[9](26-33)。个体或集体的道德责任是被“他者”所期望的,也即“他者”对他/他们应该履行什么样的责任提出了要求、作出了规定,个体或集体的行为必须符合“他者”的道德规范和伦理要求。这意味着责任的标准不是来源于自身,而是来源于他者与社会的认定。
(2)对他者负责
人工智能体的道德责任很明显是他者维度的道德责任。首先,人工智能体应对人类这个他者负责。智能体被人类研发与制造出来,本为增进人类福祉,应对人类负责,它是为“人类”而生。它只有他者视角而无自我视角,不可能对自己负责,目前也只需对人类这个他者负责。将库克尔伯克的“我们应对他者负责”这句话换成“人工智能体应对人类这个他者负责”,自然是非常正确的。其次,它的道德责任被人类这个他者所期望和赋值。一方面,我们对人工智能体的言行与能力一直有一种期待,即它应像我们人类一样,不但具有专业的行动能力,同时也具有道德能力,能像人类一样遵守社会规则和道德规范。道德责任方面,我们期望它具有一定的责任能力,其行为是负责任的行为,并能为自己的行为后果负责。另一方面,在研发环节,我们想方设法对其内置道德原则与规范,使其行为符合人类道德规范和伦理要求,使其具有一定的责任能力以“积极向善”“永远向善”。这里的重点是人希望它做什么、应该如何做,比如我们希望自动驾驶汽车是遵守交通规则和社会规范的;我们希望它不要撞到行人,万一撞到行人,它应为自己的行为负责,它也能为自己的行为负责。
按照列维纳斯的理论,“人”和“机”都是“人—机”社会系统中伦理关系存在的前提基础,不过“人”与“机”的伦理关系最终仍取决于“人”,没有“人”,就没有“机”,更不用说“人机关系”了。一切的根源都在于“人”,在于智能体自身之外的“他者”。人类将其设计、研发出来,同时通过代码与程序赋予它责任内容和能力,并内嵌于它的体内,使得它不但承担道德代理者之责任,也具备向善之道德能力。我们完全可以说,人工智能体的责任就是人类“命令”“教导”给它的,它必须也应该能“为他者”即“为人类”负责。人工智能体无须对自己负责,它没有自我视角,没有自我愿望与初级利益,也无法对自己负责,更无法拥有自我视角的道德责任。如果从自我视角探寻人工智能体的道德责任问题,目前肯定是无解的。
列维纳斯认为在历时性结构的作用下,自我①由于人工智能体没有自我意识,它的“自我”仅仅意指“它自身”,是一种与自我意识和自由意志无关的“本体”。获得了重新确立:“自我在遭遇他者之时实质上就是在承担重任,在此承担之中,自我获得了意义。”[14](123)自我被他者赋予了责任和意义,他者也被自我赋予了责任和意义,尤其是,“为他者”使得自我获得了意义,是自我获得重新确立的根本条件。智能体在遇到人类之时也就拥有了责任——“为人类”之责任,而在人类设计和赋予它道德责任与能力之后,它才真正获得了存在的意义。
“为人类”,或者说“为他者”,是人工智能体存在的意义之所在。智能体也只有在增进人类福祉和追求人类利益的过程中才能得到人类的认同和接纳,它的意义是在人类这个“他者”的意义上得以确立的。人类不认同,它这个有限道德代理者连存在的意义都没有,更无从谈道德责任。这意味着他者维度不但能使智能体得到道德角色和责任的确立,还能使其在承担责任的过程中得到改造和提升。他者,也即第三人称,才是人工智能体道德责任产生的基础。在他者意义维度下,人工智能体的责任被设计、被赋予,也被确立。
(3)他者期望与赋予
库克尔伯克将产生于“现实经验与实践”的伦理称为“外观伦理”,他认为“外观”即“表现”,如果机器人“表现”出与人类一样的行为与能力,我们就应该将道德责任赋予它[7](181-189)。即使人工智能体没有意识、意志、情感和欲望,没有第一人称(自我)视角,但由于它“表现”得与人类一样,人类就对它寄予希望、赋予责任。阿西莫夫的机器人三定律,从他者维度而言,可以说是人类赋予机器人的重要责任。
在大多时候,对他者责任期望的一个前提,就是已经假定了这个“他者”是一个道德能动者。这种假设并不在意“他者”是否为第一人称意义上的、具备意识和情感的道德能动者,只要“他者”存在,我们都会对其提出内在的道德及其行为预期与要求。即使是行为障碍者、尚未具备完全自主能力的儿童,我们对他们都有着内在的道德要求和道德期望。当然,对于作为有限道德代理者的人工智能体,我们对其的期望与要求不会低于行为障碍者,事实上,我们一直提倡给自主机器人内置道德规范和道德能力,使人类社会的道德“物化”于机器人身上,甚至想使其成为第一人称意义上的道德机器人。道德实践中,机器人的确应该因为自己的行动而为某些人负责,比如为他所护理的老人负责、为它所陪伴的儿童负责。这种负责是他者视角的,是人类因为期望而赋予它们的,所以有学者将人工智能体的道德责任称为他者期望型道德责任[8](26-33)。
人工智能体在自我视角的传统道德责任理论里不太可能成为道德能动者,但是,从他者视角来看,人工智能体承载了人类的责任期望,被内置了一定的道德规范和道德要求,代表人类的道德与利益,并替代人类行动和完成任务,是一个非完全意义上的道德能动者,这也与它作为有限道德代理者的角色身份相符。“道德责任的他者视角也蕴含了两个基本假设:其一,道德责任是存在于互动关系中的属性,依赖于行为相关各方之间因道德期望而产生的道德关系;其二,道德责任上的他者视角明确区分了看待责任的不同角度,因此传统意义上的道德能动者对于责任的独占、优先地位并不存在。”[8](27)可见,他者视角为我们理解人工智能体的道德责任提供了不同以往的思考方式和分析路径。
从他者维度而言,我们不必关心人工智能体是否拥有自由意志和自我意识,是否具备心理状态、情感需要和欲望满足等这些因素,我们首先关心的是,它的“言行”是否符合我们社会的道德规范与行为准则、是否符合人类的道德要求和利益需要,也即它是否“向善”、是否服务于人类。在此意义上,我们说,人工智能体的代理责任就是实现人类福祉的一种责任,最起码是一种“向善”的责任,或者说是一种“趋善避恶”的责任。代理责任在根本上要求智能体代表人类利益、遵守人类的道德规范,这自然对其提出了最起码的“趋善避恶”的道德能力及行动要求。因此,在最基础的意义层面上,我们可以说,人工智能体的有限代理责任实质上是一种“趋善避恶”的责任。
道德责任承担是指行为主体对已产生的不良后果承担“恶”的责任(罚恶),对已产生的有利后果承担“善”的责任(赏善);对可能产生的不良后果履行“避恶”的责任,对可能产生的有利后果履行“趋善”的责任。其中,“赏善”“罚恶”的责任属于追溯性道德责任,“趋善”“避恶”的责任属于预期性或者说前瞻性道德责任。
从责任认定程序来讲,道德责任一般分为追溯性道德责任和预期性道德责任。追溯性道德责任往往要追问根由、追查原因和追究责任,进而对行为主体进行谴责(罚恶)或褒奖(赏善),对不良后果进行纠正(如赔付受害对象),对有利后果进行奖励(如奖励道德楷模)。一方面,这种责任担负所涉及的是非判断必须包含“善恶”和“正当”的价值判断;另一方面,这种责任担负须落在实践层面上才具有实际意义,也即需要理解谴责或褒奖、赔付或奖励的意义才可行,而只有具有意识、意志、情感和欲望等主观体验/感受的人类才能理解和感受这些词语或措施的意义,因此谴责或褒奖只对人类而言才有价值,赔付或奖励也只对人类而言才有意义。换言之,被问责和被追责的行动者必须是像人类一样的道德主体,即传统道德责任概念中的道德主体。可见承担追溯性道德责任的主体必须是人,包括个体、群体等。
因此,“赏善”“罚恶”之追溯性道德责任基本属于身为一阶道德能动者的人类。当然,有朝一日,智能体发展至通用或者超级智能体阶段,那又另当别论。但我们认为这种情况不应出现,人类对智能体应该有“最后的控制”,而不是赋予它完全的自主权。而且,本文的研究对象是弱人工智能体,具有第一人称意义上的智能体既不是本文所提倡的,也不在本文讨论范围内。从一般意义上而言,追溯性道德责任只属于人类,作为有限道德代理者的人工智能体只在预期性道德责任领域占有一席之地。这既是它自身道德角色的要求,也是人类对它的期望与赋予。以自动驾驶汽车为例,人们总是期待它能够遵守交通规则,履行加强流通效率和减少事故发生率的道德责任。
“趋善”“避恶”的责任属于预期性道德责任。就实现“趋善”“避恶”这一实际结果而言,所涉及的是非判断并不需要一定包含真正的“善恶”和“正当”的价值判断,也不需要第一人称视角的价值判断,只需要进行形式判断和自动推理即可。例如,自动驾驶汽车通过某些算法就能实现避免撞上行人或尽量少发生碰撞事故,可能还不需要给它设计并置入相应的“道德芯片”。由此可见,履行“趋善避恶”责任的道德能动者可以是只具有次级利益的人工智能体,我们不需要它从第一人称视角理解意义和评判价值,也不需要它以第一人称的身份被问责与追责,它只需“向善”即可。
“趋善避恶”的预期性道德责任对于人工智能体而言主要体现为:代表用户的合法利益与需求;最大限度地体现人类社会的“善”;最大限度地减少风险与负面影响;按照人类社会的道德原则与规范行动、决策。这些最终体现为人工智能体的安全性、可理解性、可责性、可信任性和公正性。因此,人类在设计和研发阶段应尽量把所有预期性工作做好、做足,以赋予其足够的“趋善避恶”的责任内容与能力。每一种智能体的“趋善避恶”的内容与能力是有区别的,不同领域的智能体的道德风险是不同的,这些都需要研发者认真研究与把握。
人工智能体代表人类的利益、不具备自身的初级利益,对人类负责、无法对自身负责……这些特征决定了人工智能体只能履行“趋善避恶”之预期性道德责任,不能承担“被问责”和“被追责”的追溯性道德责任。段伟文指出:“目前,这些数据驱动的智能体并不具有意识、自我意识和自由意志,更谈不上情感、情绪和同理心,它们在道德行为中远不像人那样是完全的道德主体,不可能单独为其行为后果承担责任。”[6](21)弗洛里迪(Luciano Floridi)等也表示,自动驾驶汽车不能对自身行为进行关于赞成或者反对的讨论,也不能像人一样被问责和追责[15](751-752)。
拉图尔授予非人类以行动者(actor)角色,并认为它们具有能动性,但他同时认为非人行动者应有代理者(agent)或者代言者(spokesman)为其发声。他举例说:“瓦特发明的蒸汽机通过瓦特的推广与说明展现给大家,灯泡则通过爱迪生之口为大众所接受;如果瓦特没有发明蒸汽机,他就没有资格成为蒸汽机的代理者,如果爱迪生没有发明灯泡,他就没有资格成为灯泡的代言者。”[16](83)据此推理,人工智能体的发言者应当也只能是研发者。研发者设计与发明了智能体,他就是智能体的代言者。这个发言者只要没有错误行为,就不需要为智能体的行为承担责任,他需要做的,是赋予智能体以责任内容和能力,使其满足人们尤其是用户对智能体的责任要求。
归根结底,在人工智能体履行预期性道德责任的背后,站着的是人类,人类既是它的设计者,也是它的发言者。翟振明曾经指出:“智能再强大的机器,再像人的机器,也就是人类的一个不闹情绪的‘超级秘书’而已。”[17](25)笔者在此套用翟教授的话:“智能再强大的机器,再像人的机器,也就是人类的一个不闹情绪的‘道德代理者’而已。”这个不闹情绪的道德代理者履行有限道德代理之责任,这种责任的本质是“趋善避恶”之预期性道德责任。
对人类负责,代表人类的利益,做好人类的道德代理者,是人工智能体最大的“善”。人工智能体所要实现的道德决策必然“只能是致力于实现人所能作出的最好决策,它的决策要为人所规定、约束、修正甚至是否决”[18](116)。强调人工智能体的代理责任是一种“趋善避恶”的预期性道德责任,也在某种程度上警醒研发者和制造商:必须负责任创新、必须将智能体打造成“向善”的道德代理者,智能体并非只是工具与机器。
本文将人工智能体界定为“有限道德能动者”,认为其履行“趋善避恶”的道德责任,主要出于两方面考虑:一方面也许能使更多人认识到,不能再将人工智能体当作纯粹工具了,因为它已在替代人类完成一些行动,已具有一定程度上的自主认知、决策和行动的能力。我们应秉持“负责任创新”理念,使之“趋善避恶”,并尽可能预防和预测其可能带来的风险。另一方面也许能够警醒我们,不能使智能体具备意识与情感,不能使之成为完全道德代理者和一阶道德能动者。智能体已非工具,如果具备意识与情感,也许有朝一日真的会取代人类。我们的研发与研究,既要“以人类福祉为中心”,“保持人类自身主体性地位”,又要“重视技术物的道德能动性”,“做到人机和谐相处”。
笔者认为他者维度是人工智能体道德责任的真正意蕴,代表了人类对人工智能体的期望与要求。智能体的责任履行并非出自其内心的动机与欲望,更非智能体的自律使然。它“趋善避恶”的责任是他律的,是只有他者利益而无自我利益的。正是他者维度,将人工智能体的道德责任分离成两部分。他者维度也是人工智能体成为有限道德代理者的核心视角。“他者之维是伦理关系之实践特征的保障,没有他者的伦理学难逃理论化窠臼”[10](12-17),他者之维就是要努力革去传统理论态度下对人工智能体的工具化理解。