人工智能是道德代理人吗
——人工智能伦理身份的形而上学分析

2020-07-23 05:57:38黄家诚
关键词:意向性行动者代理人

黄家诚

(苏州大学政治与公共管理学院,江苏苏州215006)

人工智能与我们的生活联系日益紧密,由之引发的伦理问题也日渐增多。因此,需要合宜的人工智能伦理来规范人工智能的社会参与。然而,人工智能因其具有一定程度的智能性和自主性,不能将其视之为纯粹的伦理客体;作为具备有限决策和行动能力的行为者,人工智能也不能被视为人类伦理主体,因此也不能完全适用人类伦理学范畴。在人工智能伦理有独立的学科建制之前,首先需要澄清一个人工智能伦理所面临的基本哲学问题,即人工智能的伦理身份问题。

一、人工智能伦理身份的四种哲学观点

人工智能的伦理身份是人工智能伦理的逻辑始点,人工智能的伦理身份不分析清楚,人工智能伦理体系会失却根基,只能停留在伦理准则的研究层面。因此,我们有必要把人工智能的伦理身份研究详尽。

1.人工智能不具有伦理身份

关于人工智能的伦理身份,学界目前有四类观点。第一类观点认为人工智能不具有伦理身份。美国西雅图大学的肯尼斯·艾尼尔·希玛(Kenneth Einar Himma)和东北大学的约翰·巴斯(John Basl)持此观点。希玛区分了道德受动者(moral patient)和道德行动者(moral agent)概念。在希玛看来,婴儿这类主体因为没有行动能力只能算作是道德受动者。在他看来,一个行动主体要成为道德行动者必须具备以下条件:对于所有X,X是一个道德行动者,当且仅当X有能力自由选择;能够思考什么是应该做的事;正确理解和应用道德规则。[1]以上三个条件又被希玛归结为是意识的能动作用,因为自主行为、思考或理解及应用道德准则实际上都是有意识的存在者(conscious being)才具备的条件。而机器是否具有意识在当前是难以被证明的,因此人工智能不足以成为道德行动者。巴斯则进一步否认了人工智能的伦理身份,他认为人工智能连道德受动者都算不上,人工智能仅仅是纯粹机器装置,也不具备婴儿这类道德受动者所具有的道德权利和伦理身份。[2]在巴斯看来,如果机器人具有伦理身份,就要具备利益意识,这是一种由欲望和偏好性需求组成的心理过程。即便人工智能具备某种人工意识,也只是用于实用目的,永远无法复现人类的这种包含欲求的心理过程。如果人工智能连最基础的道德受动者都算不上,我们很难想象人工智能还能拥有什么伦理身份。

希玛与巴斯的论证实际上都在追问作为道德行动者的人类具有什么特质,继而从人类身上归纳出道德行动者所需的条件。无论是自主选择、思考还是追责能力都是人格属性(Personhood)的体现,因此他们对道德行动者的定义始终是人化的。以人格化的道德行动能力作为人工智能伦理身份的条件,显然是一种苛求。而且人工智能通过行动就足以彰显自己的伦理身份。“察其言,观其行,而善恶彰焉”。在现实的道德评价中,我们往往以行动来作为道德判断的标准。行动比人格化的道德行动能力更具切实性。当人工智能被设计来为人类承担高空作业、复杂计算等高难度工作时,他们就已经通过这些行动展示了自身的伦理属性。希玛与巴斯正是忽视了这一点,始终无法确证人工智能的伦理身份。

2.人工智能是道德行动者

与希玛和巴斯不同,约翰·P·萨林斯(John P Sullins)认为人工智能能够成为道德行动者。他改造了希玛所提的道德行动者所需要的思考、自由选择与理解能力,他把自主性、意向性和负责任看作是道德行动者所需的条件。[3]在萨林斯看来人类是否拥有真正的哲学意义的自主性是值得怀疑的,他所用的人工智能的自主性也非哲学意义上的,而是工程学意义上的(engineering sense)。当人工智能无须受其他行动主体控制而拥有独立的实践能力并能有效的完成任务时,人工智能就是具有自主性的。这种工程学意义上的自主性萨林斯称之为效果自主性(effective autonomy)。意向性问题上也是类似,萨林斯认为毫无争议地证实人类拥有意向性是不可能的,因此,人工智能意向性也不需要在最强的哲学意义上去证明。只要机器程序与环境的复杂交互作用能够引发一个人工智能机器人去行善或者作恶,那么人工智能就可以被视作是带有意向的行动主体。人工智能程序与环境的这种交互就可以被视作是与人类意向性和自由意志等同的。至于人工智能如何负责任,萨林斯把其看作是人工智能“与生俱来”的一种信念。他们从被制造出来就知道要承担起对自身所涉及的客体进行照护的责任。这种信念萨林斯并没有把它看作是一种真信念,而仅仅需要表层含义。即便人工智能没有意识、心灵等在哲学上归结为人类才有的能力,只要这种“责任信念”实际上是程序能够驱动他们解决道德难题,他们就可以被视作是负责任的道德行动者。萨林斯以护理机器人为例,当护理机器人对作为道德主体的人类尽到护理职责时,那么这个护理机器人就可以被看作是负责任的。总之,在萨林斯那里,当人工智能满足上述工程学意义上的自主性、意向性、负责的条件时,他们就是道德行动者。

萨林斯以自主性(Autonomy)、意向性(Intentionality)和负责任(Respnsibility)的分析框架(下面简称A-I-R分析框架)颠覆了上文希玛所要求的道德行动者必须具备的条件。与希玛等人有所不同,萨林斯的A-I-R分析框架并不具有人格化的内容。无须人类遥控而能独立有效的行动就是自主性,程序与环境的交互、复合就是意向性,人工智能持有的“责任信念”能够驱动自身行动并解决道德难题时就是负责任的。萨林斯的观点具有合理性,但是他的A-I-R分析框架并不是必要的。尽管萨林斯为自主性、意向性、负责任填充了工程学内容,但是他的证明还是预设了人工智能配享伦理身份所需的形式与人类道德行动者所需是等同的。只要程序能够模拟成为道德行动者所需的形式,那么人工智能就是道德行动者。萨林斯的证明仍是自上而下的,人工智能若是道德行动者也不过是人类道德行动者的“模仿者”。实际上,当萨林斯举例说护理机器人尽到护理职责就是道德行动者时,就已经为我们指出了一条新的研究路径。尽责实际上是护理行动的集合,机器人是通过护理行动成为负责任的道德行动者的。而且在经验世界的道德责任判定之中,物理行为也往往比道德意向更重要。[4]因而,我们无须预设一个A-I-R研究框架,而可以用一种现象学还原的方法揭示人工智能的行动本质,从人工智能的行动之中去演绎出人工智能的伦理身份究竟为何。

3.人工智能是道德行动者而人类不是

第三类观点,若以自主性为条件,人工智能才是合格的道德行动者,而人类不是。即便亚里士多德认为人类能够按照逻各斯的要求行动,但这并不意味着人类每一次都能按照理性的决议去行事。人类还会受到欲望、情感的影响,人的肉身也会受到环境的极大限制。人工智能至少不会受到欲望或情感的影响,人工智能实体或是存在于虚拟空间或是拥有对环境的极大适应性,他们才能够按照严密的算法指令通过自主学习实现真正的自主行动。相比之下,人类则因为种种限制与规约常常处于一种不稳定的道德状态。约瑟夫·埃米尔·纳多(Nadeau Joseph Emile)就持这种观点。在他看来,若以自主性为标准,只有遵守严格的逻辑定理的行动者才可以被认作具有真正的自主性,显然人工智能才可以做到这一点。更要紧的是,如果人类的行动自主性来自中世纪哲学家所宣称的自由意志,而至今为止自由意志都无法被证实是否实在的话,人类就更谈不上是道德行动者了。基于此,纳多得出了一个惊人的结论:人工智能才是地球上第一批道德行动者。[5]

纳多实际上是从逻辑实证主义的角度来看待人类自主性的,代表人类自主性的自由意志既不能被经验证实也不能被分析,人类自主性实际上是逻辑实证主义所拒斥的假的形而上学知识。而且,伦理学本身就会因不同的价值取向而存在旨向相悖的道德律令,也没有一套可以适用于全人类的伦理学说。纳多的此种看法实际上是对伦理学本身的不解。尽管纳多的结论难以为我们所接受,但是,他的结论却为我们揭示了一个更重要的问题:按照严格伦理逻辑行动的人工智能如果在行动过程中遇到指令冲突怎么办?在人工智能的道德判断之中,自身与人类实体何者价值更高?还有一些典型的伦理困境,如智能汽车在面临电车难题时如何抉择?这一系列关涉主体价值的问题,还需我们先把人工智能的伦理身份做好充分的论证才能够进一步说明。

4.人工智能是集体责任的混合代理人

纽豪斯·克里斯蒂安(Neuhäuser Christian)从集体责任的角度说明了人工智能的伦理身份。他用前瞻性责任一词来表明人工智能与人类处于一种集体责任的链条之中。这种前瞻性责任可以独立建构而不必追问是谁造成了什么损害如何负责。克里斯蒂安以医院中的智能机器为例,智能机器往往被用来协助医师团队以达到最佳的治疗效果。在此意义上,人工智能的运用就促进了一种共同善。因此,克里斯蒂安把人工智能视作是集体责任中具有相对自主行动能力的混合代理人(Hybrid Agents)。[6]

克里斯蒂安的看法对把握人工智能的伦理身份具有启示性,他没有以人类道德行动能力作为获得伦理身份的条件,而把人工智能与人类所共同面临的集体责任作为人工智能的责任来源。但是克里斯蒂安把人工智能作为集体责任的混合代理人,似乎把人工智能视作是与人类平级的责任主体。人类责任是自明的,人工智能的责任是否实在以及如何证得则是非常困难的。而且,假如某个社群的个体只是为着自己的目标而行动,这个种群仍然会形成由个体行动集合而成的共同结果。但是这种情况下,每个行动者只需要为自己的行动负责,而不需要为集体负责。[7]人工智能和人类完全可能只按照自己的目标去行动却也取得一个共同善的结果,而不需要考虑自身是否负有集体责任的一部分。克里斯蒂安的论证显然也不够充分。克里斯蒂安尽管没有正确分析出人工智能的伦理身份,但却为我们提供了一个新的视角,他把人工智能与人类视作同一(集体)责任链条上的两个主体,默认了人工智能与人处在一种责任关系之中,实际上是从人工智能与人类的关系来思考人工智能的伦理身份。

5.启示

在上述四种关于人工智能的伦理身份的哲学观点之中,我们可以归结出两种研究人工智能伦理身份的分析路径。第一种是以萨林斯为代表的从人格化的道德行动能力(Personal Moral Agency)自上而下地展开人工智能伦理身份研究的进路,下面简称PMA研究进路。以人格化的道德行动能力作为界定人工智能的伦理身份标准的方法并不充分,因为此种路径预设了人工智能是人类道德行动能力的分有者,人工智能的行动能力在何种程度上与人类相似,人工智能就分有何种程度的人类道德行动者的伦理身份。此种研究路径不过是自问自答。第二种是克里斯蒂安提供的关系进路,即人工智能与人类处于何种关系之中?但是,一旦我们如克里斯蒂安预设了这一问题的看法,人工智能的伦理身份的答案也将被包含在其中。因为如此一来,人工智能的伦理身份至少是与具有伦理主体地位的人类相关的某个实体,人工智能或是作为道德行动者的人类的附庸,这亦是一种循环论证。总之,接下来,我将悬置前述人工智能的伦理身份研究中对人工智能的前见信仰和使人工智能遁入意识后台的因素,采取一种现象学还原的态度以直面人工智能的伦理身份本身。就如上海交大的助理教授刘铮所言:“要想揭示出现代技术的本质面目以及它在人的知觉(意识)体验行为中所扮演的角色问题,就必须借助于现象学本质还原的方法。”[8]人类是通过与人工智能的“在手”或“上手”状态,和人工智能不断照面的过程中,形成人与人工智能的基本关系。与这种现象学还原的方法所契合的正是前文我们从萨林斯那得到的启示:从人工智能的责任行动中自下而上地还原人工智能的行动本质,并一步澄明人工智能的伦理身份为何,人工智能与人类处于何种关系之中?通过此种现象学分析方法,我们可以避开为人工智能“预设身份”的危险,进而澄明人工智能在我们的意识中所配享的伦理身份。

二、人工智能的行动分析

当我们以现象学方法来考察人工智能的行动时,这个行动又指的是什么呢?而且行动背后似乎总有一个制动因,若没有一个起因在,行动似乎只能被称之为是单纯的物理事件。接下来,我将先揭示一般行动的本质结构,继而从人工智能作用于人类与世界的实践活动中寻找人工智能的行动原理。

1.一般意义上的行动问题分析

(1)还原论的行动定义

行动问题似乎可以等同为人类行动问题,因为其他生物的行动往往被冠之以本能使然。就如亚里士多德所总结的那样,“如果想一想动物行动的原因或本原,我们不会仅仅归之于它们的感觉——视觉、听觉、味觉等,而是归结为由这些汇聚而成的总体的欲望。”[9]动物由于没有思考能力,他们的行动似乎可以归结为本能的欲求所致。人类行动则不然,反而因其复杂性上升为当代哲学的新论题。关于行动,维特根斯坦曾提过一个著名的比喻:如果我从我举起的手臂这一事实中减去我的手臂抬起了这一事实,那还剩下什么呢?[10]顺着维氏的思路,似乎就只剩下一个“主体我”存在。于是,关于行动的解释框架似乎可以被归结为一种还原论的逻辑式:行动就是身体运动加上X。[11]而这个X或被解释为是意愿或被解释为是信念,而无论是意愿、信念还是其他什么,似乎又可以被归结为“心灵”的属性。于是我们可以看到,近代以来的身心问题在当代有了新的形式。

由于心灵与行动并非总是符合的,因此上述定义总是遇到“异常因果链”的责难。唐纳德·戴维森(Donald Davidson)曾举例:一名正面临压力的登山运动员,彼时同一根绳索上挂着的队友使自己处于危险的境地。如果他松开绳索就能克服当前的危险,但这会使得队友坠崖。正是处于这种不安的心境之中,他慌忙中松了手,酿成了悲剧。[12]可见,源自心灵的欲念或者信念无法成为行动的充分条件。

(2)对异常因果链的反驳

由于上述异常因果链的责难,行动的定义似乎遇到了问题,但是这并非就表明了行动定义的还原论路径的失败。在我看来,这是戴维森对异常所导致的行动前件变异的忽视。我将用一些等式来表征行动,以帮助我们厘清戴维森的问题所在。首先,我将沿用一种符合直觉的描述性的行动定义,把行动(Action)定义为心智(Mind)在起作用的主体(Subject)加事件(Incident),表达式为A(H)=S(M)+I(H),括号里的H意指人类主体(human),S(M)指心智正在起作用的主体;等式左边为主项,指明主体身份,右边是谓项,共享主项的主体身份,以下都采用首字母缩写;“+”号表示心智与事件的同时在场以及心智与事件之间呈现的松散的意向性(Intention)关系。事件(Incident)由身体(Body)与运动(Move)构成,事件的一般表达式为I(H)=S(B)+S(Move)。事件表达式中的“+”仍然表示某种意向性,不过不是来自心智的,而是身体的意向性,这里的身体意向性类似于手投向手柄,神经生物电对肢体的关系。之所以说行动定义中的心智(Mind)对事件(Incident)只具有松散的意向性关系,笔者将借由对戴维森的异常因果链的反驳而给出说明。在戴维森的登山者事例中,心智与行动不匹配并非说明心智与行动的因果关系失效。因为在那种情况下,对行动的做出起重大影响的不是心智,而是身体的变化。这种身体变化是如此微小,以至于在戴维森追究行动的原因之时对其忽略了。但是这种身体变化的追究又是如此重要,因为它才是最终的松手行动的前件。正如戴维森所言,高空中的登山运动员由于时刻面临着险境而处于一种不安的状态,而这种不安的状态可能会使得我们的心智计算无法与神经元的传导速度同频,从而给运动员带去身体上如出汗、颤抖等微反应,身体的这种微反应进一步可能会导致登山者攀登时产生偏斜、下坠的运动,最终做出了松手这个行动。而此时,心智可能并没有放弃原有的渴求,仍然传达着抓紧绳子的意向。但由于此刻的心智意向跟不上应激状态下神经生物电对肢体下指令的速度,最终不自觉地松了手。因此,心智与事件只是一种松散的意向性关系,我们可以从心智之中招致一个具有相关性的事件,但与心智同时在场的那个事件并非一定由心智所带出。而在事件中,身体与运动之间同样存在某种意向性,正如梅洛·庞蒂所言,身体的认识“大概也是第一位的,我的身体有自己的世界,或者理解自己的世界,无须经过我的‘表象’或‘客体化的功能’。”[13]在戴维森的例子中,登山运动员的手正是由隐藏在心智背后作为运动的背景的身体认知所操控做出的行动,而不安或者应激状态下的神经生物电构成了这种隐蔽的运动背景的下的身体认知的基础。也因此,由身体与运动构成的事件并非主观的,而很大程度上受到环境的影响。现在,说明了事件的表达式I(H)=S(B)+S(Move),行动的一般表达式A(H)=S(M)+I(H)又可以表达为A(H)=S(M)+S(B)+S(Move),至于这个等式中的两个“+”如何作用及关联,我们可以放到具体的情景中去分析,至少我们可以确定两种意向性的在场。

对于行动中两种意向性如何作用、心智与行动的关系问题,我们可以通过表征戴维森的异常因果链中的行动来更好地厘清这个问题。接下来,本文将把一般行动的表达式作变形。我们先用单引号“’”表示异常,异常行动(Abormal Action)用 A(H)’类表示,异常事件(Abormal Incident)用 I(H)’表示,异常行动的表达式为A(H)’=S(M)+I(H)’。我们可以看到主体的心智S(M)仍然存在且未变,仍然意向着某种行动。问题出在异常事件部分,登山运动员由于险境导致了不安,身体出现了如出汗、颤抖的微反应,记为S(B)’;身体对环境的这种微反应又促成了身体的意向“+”的现身,导致身体出现如偏斜、失控等异常运动,记为S(Move)’,那么异常事件的表达式为I(H)’=S(B)’+S(Move)’。因此,我们可以清楚地看到,异常因果链的责难实际上是把与环境关联的作为行动的隐蔽的背景的身体意向全部还原给心智,而忽略了行动的前件并不再是心智所意向的那个行动,而是异常环境中身体意向所投向的运动。往往,基于生物电的这种隐蔽的身体意向比心智意向更基础,更强力。至此笔者给出了行动的一般定义与表达式,并将连同异常行动的等式一并列出,以便查询:

一般事件的表达式为I(H)=S(B)+S(Move),

以人类为例,一般行动的表达式为A(H)=S(M)+I(H)=S(M)+S(B)+S(Move)

异常事件的表达式为 I(H)’=S(B)’+S(Move)’,

以人类为例,异常行动表达式为 A’=S(Mind)+I(H)’=S(Mind)+S(B)’+S(Move)’

在使用行动的一般定义之前,还要给出两点补充说明:

①当我们自身之中由心智出发的意向性足以统摄环境,并且身体意向不会绕过心智意向而提前调动身体时,心智主导身体的因果关系式的运动是可能的,行动的还原论定义是有效的。

②当心智及其意向性被环境促成的身体意向抢先时,心灵对身体的调动就失效了,尽管此时产生自心智的意向性仍然有着自己的渴求。但是,此时起支配作用的是偏向身体实践的身体意向。当身体比心理更早地知觉到异常时,就像动物的感官往往能比人类更好地预知危险的靠近,往往是环境促成的身体意向对人的行动起更大影响。此时的心智主导身体运动的还原论定义是失效的,心灵与身体各自有着不同的朝向。

2.人工智能的行动机制分析

(1)人工智能没有身体意向性

根据一般行动的定义等式,我们可以把人工智能代入其中,以说明人工智能的行动原理。上面我们已经提到谓项跟着主项变,现在的行动主体是AI,那么人工智能的行动表达式为A(AI)=S(M)+I(AI),人工智能的事件就表达为I(AI)=S(B)+S(Move),这里的身体与运动都指的是人工智能主体的。人工智能的行动机制又表达为A(AI)=S(M)+S(B)+S(Move)。波士顿动力公司的机器人能够跑跳、后空翻等等无疑是人工智能实体的身体运动;人工智能作为一种虚拟系统,其对代码、算法、系统等的自主编写、开发、调试等亦是一种无形的运动,此时,人工智能系统的硬件载体也会通过发光、旋转、发出轰鸣表明这一运动的在场。然而,人工智能有否身体意向却是值得怀疑的。因为人工智能与人类身体的构造截然不同,没有了一种梅洛·庞蒂意义上的向世界开放的肉身,更不用说以软件系统形式存在于虚拟空间的人工智能,没有了实体肉身形态不会具有身体意向。因此,人工智能的身体与运动之间不具有一种可以称得上是身体意向性的东西。人工智能的事件表达式就得取消象征身体意向性的符号“+”,而取表示“与”的逻辑符号“∧”来象征人工智能身体与运动的同时在场,那么人工智能的事件表达式就应该修改为I(AI)=S(B)∧S(Move),人工智能的行动表达式就变为A(AI)=S(M)+S(B)∧S(Move)=S(M)+I(AI)。既然人工智能没有身体意向性,对照上一小节末尾一般行动机制的补充说明,我们可以发现人工智能的行动是纯粹的心智主导身体运动的行动,人工智能的行动是完全符合行动的还原论定义的。现在,只剩下谓项S(M),即人工智能的心智问题尚未澄清,只要求解人工智能的心智为何就得以进一步解码人工智能究竟是如何行动的。

(2)谁之心智,何种合理性?

现在我们已知人工智能的行动表达式为A(AI)=S(M)+S(B)∧S(Move),只要求解人工智能的心智S(M)就可以破解人工智能的行动问题。但是,如果我们照此追问下去,而不反思前提的话,我们就很容易遭到一类质疑:我们既然是在追问行动问题,如何又追问到行动者身上去了?我们以人类行动机制演绎人工智能的行动机制,难道不是落入到我们先前所反对的PMA进路中以人类的道德行动能力来解释人工智能的伦理身份的窠臼中去了吗?下面笔者将先给出这一质疑的解答,否则人工智能的行动分析无以为继。

我们在行动进路中追问人工智能的“心灵”,关键在于追问人工智能的“心灵”为何种实体?这种追问之所以不是回到PMA研究进路,是因为人工智能的“心灵”与人类心灵绝不是同一类实体的不同样式,而根本上就是两类实体,我们或可以称其为行为引导系统。指称其为“心灵”,仅旨在说明这种“心灵”在驱动主体行动的能力上与人类心灵有着一致性。图灵测试与中文屋试验就充分说了这一点。如果我们站在计算主义的角度,把能通过图灵测试的算法系统作为人工智能的“心灵”的话,那么这种“心灵”只是遵循形式化的推理程序及指令集的,它并不能像人类心灵一样对定理证明的过程进行数学之外的控制,而仅仅提供一种操作指令的符号系统。[15]也即是说,人工智能的“算法心灵”(Algorithmic Mind)只是在驱动主体行动的效用上与人类心灵等同。同时,也不能像一些激进主义者,把人类心灵看作是算法及其同构形式系统在物理系统中被落实的结果。[16]这样做则是把人类心灵视作是算法的同类形式,实际上是预设了算法才是真正的心灵所需要的条件,人类心灵倒成了算法的模仿物。总之,人工智能的“心灵”与人类心灵绝不是同类实体,而至多只是与人类心灵在驱动主体行动的效用上有着相似性,因此追问人工智能的“心灵”并不是退回到我们所批判的PMA研究路径。

(3)人工智能的心智组成

人工智能的“心灵”仅仅是操作指令式的吗?即便人工智能的算法心灵仅仅是操作指令意义上的,那也是建立在能够自主执行的基础之上,否则就不称其为智能,而沦为遥控机器。实际上,人工智能的“算法心灵”也是具有意向性的。我们不妨来先看一些事例。

2019年10月刊于《柳叶刀数字卫生》的一篇论文宣称,人工智能能够像专业医生一样诊断疾病,甚至确诊率高于人类医生。[17]就提高就诊率而言,自然对人类来说是善的。而且,人工智能医生带来的道德效果不止如此,它们的运用还能一定程度上缓和现有医患矛盾,因为现有的医患矛盾归根结底还是人与人之间的冲突。而人工智能医生使得人类医生无须直接面向患者,保障了医生可能遭遇的患者或者其家属带来的生命威胁。在这个事例中,我们可以发现,人工智能医生身上原本就有人类委托的道德意向存在,人工智能的设计总是包含着人类的某种内含善的目的性追求。也许人工智能医生的设计初衷仅仅是提高就诊率,结果却给我们带来了在医患伦理方面预想不到的道德效果。可见,人工智能不仅代理人类的道德意向,而且能通过自身行动带来一些让人意想不到的道德效果。

实际上,人工智能被委托的人类道德意向还会经历一个转化的过程。经过人工智能的自主学习,最初被委托的人类道德意向会逐渐转化成为算法意向。也许一开始表征行动的算法只是告诉人工智能不应做什么和应当做什么,例如前不久滴滴打车出台的顺风车新规定,晚上八点之后不载女性用户。如果一个分配用户的打车人工智能系统被输入了表征这一准则的代码,久之,这个打车人工智能系统可能会推理出一种女性用户乘车时间更少、盈利率更低,女性用户是低价值用户的群体画像。如果盈利是比上述晚上八点不载女性用户的算法语句更为根本的源代码,那么,女性很有可能在打车时需要承担比男性花费更多的排位次序以及候车时间的结果。滴滴顺风车的条例很快得到了修改,而谷歌的广告系统却已然学会了算法歧视。据卡内基梅隆大学研究人员阿米特·达塔的研究显示,“年薪20万美元的以上职位”的谷歌广告,更偏向于推送给男性用户,而女性用户收到这一高薪职位推送的机会仅仅是男性的六分之一。[18]可见,人工智能的“算法心灵”会从人类赋值的原始语句中学习到隐藏在操作指令背后的人类对某些群体的结构性偏见与歧视。[19]由于人工智能的自主学习仅仅是基于句法形式而无法领会句子的语义,人工智能将比人类更容易形成“思维定势”,这种“思维定势”即是算法意向性的体现。另外还要强调一点,算法意向性并不是仅仅指算法歧视,这只是算法意向性中可能出现的问题。假若我们在人工智能的“算法心灵”中输入“帮助需要帮助的人类”,人工智能也很有可能通过自主学习,推理出“如果自身能够帮助人类取得更好的结果,那么自身就应该帮助人类获得超出人类能力范围的结果”,如此人工智能也有可能成为一个司职份外行为的帮助者角色。总之,人工智能的算法意向性是价值中立的,且与人类最初寄托的道德意向也并非逻辑一贯的,因此人工智能的行动不是完全受人类控制的,而具有相对自主性。

至此笔者已说明了人工智能的心智S(M)的组成:最初,人工智能的“算法心灵”是人类委托的道德意向,经过自主学习最终形成算法意向(Algorithmic Intention)。我们可以用图1来说明:

图1 人工智能的“算法心灵”

但是,有一点我们需要注意,人工智能的心灵,我们不能再用S(M)表示。S(M)原本用来表示主体的心灵,但是现在人工智能的“心灵”,其一与人类心灵不是同种实体;其二组成成分较为复杂,既有听从于人类的道德意向,又有相对自主的算法意向性。因此,不宜再用表示“心灵”的Mind指称人工智能的心智。我们用人工智能的心智的组成部分人类意向性(Human Intention)与算法意向性(Algorithmic Intention)的缩写来表示,即HI∧AI。人工智能的心智用S(HI∧AI)来表示,其中人类意向性与算法意向性并不是完全一致的,有些源代码是符合人类道德意向的,有些经过自主学习得来的算法意向则可能与人类意向有所偏离,因而人工智能的行动具有相对自主性。人工智能的行动表达式为A(AI)=S(HI∧AI)+S(B)∧S(Move)。至此,我就给出了人工智能的行动机制的最终表达,且由于人工智能没有身体意向性,人工智能的行动是符合心智主导身体运动的因果链式表达的。

(4)小结

现在,既然我们已经得到了人工智能的行动原理,我们可以发现,主导人工智能的行动的是由人类意向和算法意向组成的人工智能心智。而且,人工智能在行动中一开始就被委托了人类的道德意向。因此,人工智能的行动就不是在“被准许”的意义上的行动,而是在“被委托”的意义上去行动。人类在他们身上委托了一些伦理愿望,反过来,人工智能代理了人类的道德意向。因此在人工智能的行动机制的分析中,我们似乎解译了由克里斯蒂安揭示的人工智能伦理面临的根本性问题——人工智能与人类的关系问题,人工智能与人类的关系是道德代理关系,人类对人工智能是委托关系。既然人工智能与人类存在着道德代理关系,那么他们也理应可以称之为道德代理人。

三、人工智能是道德代理人

道德代理人与道德行动者指称都是翻译自moral agent一词,且道德代理人并非一种全新的伦理指称而早已为环境伦理学所使用。如果我们要使用道德代理人来指称人工智能还要判定人工智能是否符合道德代理人的含义。

1.道德代理人的起源与用法

道德代理人本是环境伦理学领域用来指称具有道德代理能力的行动主体的。与道德代理人相对应的是作为客体的自然界,自然具有固有价值。作为行动主体的道德代理人需要对具有固有价值的自然界负有不伤害、不干涉和保持忠诚的责任。当环境伦理学的道德律令与人际伦理的道德律令冲突且人类道德代理人优先选择了后者时,人类道德代理人需要履行补偿正义的原则以促进自然整体的善。可见,道德代理人概念在环境伦理学中至少包含两层含义:(1)道德代理人是为客体负责的行动主体;(2)因客体具有价值,故道德代理人也是客体的价值守护者。

环境伦理学家在界定道德代理人时给出的最主要的条件是具备道德思考、权衡道德行动的能力,但却没有排除非人实体作为道德代理人的可能性,而把其视作无须证实的经验问题。[20]保罗·泰勒对此给出了两重理由:一是因为并非所有人类都是道德代理人,病患、儿童就无法成为道德代理人而仅是道德主体;二是有些动物能够清楚地意识到自身对种群负有的责任。这样的理由显然并不能够证实动物也符合道德思考、权衡行动的条件。但是,在我看来,道德思考、权衡行动仍然是从人类道德代理人身上归纳出的经验条件,并不具有最一般的意义。如果我们结合行动路径去理解泰勒的第二种说法时,动物成为道德代理人就不难理解。有些高智商动物本能地会采取一些行动为族群带来福祉。当虎鲸群在使用计谋制造陷阱联合绞杀猎物时,他们就是在为群体带来共同善,他们至少是自身种群的道德代理人。既然环境伦理学家给非人实体的一些动物都留下了作为道德代理人的理论空间,我们也不用完全因袭环境伦理学中的道德代理人的条件。那么,我们可以从较为宽泛的意义上来给出道德代理人的一般概念:当实体x能够通过普遍的自主行动为非x实体代理风险并守护其价值时,x就可以称之为是非x实体的道德代理人。

2.人工智能是道德代理人的含义

但是,当我们在更宽泛的意义上使用道德道德代理人概念时,往往会遭到一些质疑。如果一个实体只要通过普遍的自主行动为非自身的实体化解风险并守护其价值就可以被视作是道德代理人,那么几乎任何实体都可以称之为道德代理人了。当一件防弹衣旨在为人类减少致命攻击的风险时,这件防弹衣岂不就是道德代理人了?然而我在这里要强调的是,道德代理人至少是一个行动者,防弹衣显然只能隶属于无法自主行动的技术人工物范畴,应该有另外的伦理身份。还有一些人认为某类动物是符合道德代理人定位的,比如宠物狗。宠物狗不仅能代理人类的道德意向,提供观赏、陪伴、看护、导盲和娱乐等价值,还能为人类提供情感寄托。他们与人工智能相比反倒更像一个道德代理人。但是,在道德代理人的一般定义中我们已经强调了道德代理人的责任行动的普遍性,宠物狗的道德行动并不是一种自主的普遍责任行动,而是经过规训与养护只对主人有效的特殊行动,对于非主人的人类他们很可能会立马转换为战斗姿态。因此,宠物狗之类的动物无法作为道德代理人,只能算是特定的人类伦理训练的产物。人工智能与宠物狗相比也不会有远近亲疏的认知差别。还有人认为如此道德代理人标准太过严苛,人类同样会因为关系亲疏而有区别对待。而且,如果人类是道德代理人岂不是要时时刻刻确保自己的行动是一种内涵善目的的道德行动才能确证其责任行动的普遍性。如此行动的人岂不是失去了行动的自由。尼各马可伦理学开篇第一句就已经向我们表明:“人的每种实践与选择,都以某种善为目的。”人的每一种行动都至少包含一些伦理原则,即便人类因亲疏关系而区别对待他人,还是有一些底线伦理原则不变的。与陌生人相处示之以尊重、平等,与自己相处示之以慎独。因之,上述道德代理人的定义是有效的。

现在当我们从上述宽泛意义上的道德代理人定义上来理解人工智能时,人工智能是符合道德代理人这一定位的。当人工智能是道德代理人时,人工智能是行动主体,人类是具有固有价值受人工智能“照护”的客体。另外,我们已在人工智能的行动机制章中证得人工智能先天就被寄托了人类道德意向,他们的行动是被寄予人类伦理愿景的责任行动。不仅如此,当强大的人工智能被设计为替具有脆弱性的人类承担风险时,人工智能就是人类的风险代理者;当人工智能帮助人类在复杂、危险的行动中抽身,并得以保存和促进人类的生命、尊严、智慧和自由等价值时,人工智能就是人类价值的守护者。现在,人工智能作为道德代理人具有两层含义:一是代理人类道德意向;二是“守护”人类价值。

3.道德代理人是人工智能伦理体系的基本单位

最后,让我们来回应一些关于责任问题的质疑。人工智能无法负责因而无法成为道德代理主体是最常见的一种质疑。对于这一点,弗洛里迪为我们做了清晰的区分,他认为这种观点的持有者在道德代理人概念上暗含自己也没有意识到的双重指代功能,即道德代理人被这些质疑者认为同时是道德负责的代理主体和道德代理主体,真正的错误就在于他们把道德代理的描述性分析归结为责任分析。[21]再者,人工智能即便是道德代理人且被证明负有某种前瞻性责任,但人工智能并不能为预定行动的意外结果负责,他们如何配享伦理身份呢?实际上,这仍然是道德行动者研究视角所致,因为这种路径把对预定行动之外的结果也看作是要由人工智能来承担的。这种做法实际上是一种苛求,因为也只有具备成熟的理性能力的成年人才能做到对意外结果负责。对于少年犯罪,我们会把责任分散给监护人和少管所等。因此,对人工智能行动中的意外后果,更应该从拉图尔的行动者网络视角出发,由社会关系网络中的多重主体如开发者、应用者、购买者等共同来承担,人工智能并不是一种完美行动者,人类也是如此。

实际上,人工智能伦理同环境伦理一样是一种责任伦理。有人把环境伦理学解读为有能力的道德代理人对无能力的自然的责任伦理,[22]在人工智能伦理领域也是如此。当能力强大的人工智能帮助具有脆弱性的人类从险境中抽身,促进人类的健康、智慧、尊严等价值时,人工智能就已经做出了相应的责任行动,人工智能配享道德代理人这一伦理身份。人工智能伦理就是能力强大的人工智能作为道德代理人对具有脆弱性的人类进行“照护”的一种责任伦理。当人工智能作为人类道德代理人成为一种共识之后,人类价值才会作为第一性的目标写入人工智能设计的源代码之中。而在上述案例的推理中,“盈利”比用户更重要的设计无疑是把人当手段,盈利是目的,资本逻辑才是贯穿此种人工智能打车系统的核心。可见,人工智能伦理背后深层次的问题是人类如何对待自身的问题。只有确立了以道德代理人为基本单位,以人类价值为形而上学始基,才得以建立真正以人为本的人工智能伦理体系。

四、结语

雷瑞鹏在《机器人是道德行动者吗?》一文中首要提出了界定人工智能机器人的伦理标准问题。[23]但就如我们已说过的,在道德行动者视角下,人工智能伦理的研究缺乏一个形而上学基础,尚且只能落在伦理标准层面。在此种视角下,人工智能的伦理身份研究首先关注的是人工智能能否或者在何种程度上匹配人格化的道德行动能力这一标准,而不是把人类价值置于第一顺位。即便,我们把“不伤害”等应用伦理学中的普遍准则输入人工智能机器人,人工智能也无法切实理解这一抽象的语义更别说应用到具体实践之中。在不同语境之中,“不伤害”对于不同主体来说有着不同的含义。可以说,人工智能伦理身份研究的道德行动者视角愈是流行,愈是可能掩盖技术人员在设计人工智能时对人类价值的忽视。而且技术人员往往以科学代理人自居而只专注于模拟人类意识、编写人工自主性程序等技术问题,人工智能的伦理身份并不是依靠技术升级来获得的。伦理作为一种关系,人工智能的伦理身份也是一种关系问题。只有以现象学方法直面人与人工智能如何“照面”或“共同在世”,人工智能伦理的形而上学基础,即人工智能伦理身份、人与人工智能的关系问题才得以揭示。当人类充分意识到人工智能是人类的道德代理人时,人类价值将被当作首要目标写入人工智能设计的源代码之中,人是目的这一道德律也只有在以道德代理人为基本单位的人工智能伦理体系中才得以贯彻。

猜你喜欢
意向性行动者代理人
与异质性行动者共生演进:基于行动者网络理论的政策执行研究新路径
中华全国专利代理人协会简介
专利代理(2019年3期)2019-12-30 08:23:54
中华全国专利代理人协会简介
专利代理(2019年4期)2019-12-27 00:56:54
中华全国专利代理人协会推荐的2018年第四期诉讼代理人名单
专利代理(2019年1期)2019-04-13 02:10:50
敬仰中国大地上的绿色行动者
绿色中国(2016年1期)2016-06-05 09:02:59
2016年第一期诉讼代理人名单
专利代理(2016年1期)2016-05-17 06:14:38
浅析胡塞尔现象学的意向性结构
中国市场(2016年45期)2016-05-17 05:15:53
(简论诗创作的意向性)
网络行动者的新媒体使用特征、影响及媒介民主化
新闻传播(2015年3期)2015-07-12 12:22:28
做“互联网+”的积极行动者
学习月刊(2015年9期)2015-07-09 05:33:44