人工智能伦理何以可能?
——基于道德主体和道德接受者的视角

2020-12-01 19:50戴益斌
伦理学研究 2020年5期
关键词:接受者维纳斯心智

戴益斌

随着科学与技术的发展,越来越多的科技成果逐步进入我们的社会,深刻地影响并改变着我们的生活。一方面,人们对这些技术成果的发展感到欣喜,认为它们能更好地服务于人类,提高生产与工作效率,促进人的自由与健康发展。另一方面,有些人对技术的发展表示担忧,害怕这些技术成果不但会造成大量失业,对社会造成一系列负面影响,更担心这些技术成果会带来一系列的社会伦理道德问题。很多学者在反思科学技术发展时,都曾思考过两个问题:(1)发展或使用这项技术是否合乎道德;(2)如何看待这种技术产品。这两个问题往往都出现在相关技术还未成熟或者相关技术产品还无法量产应用的阶段。虽然它们之间存在紧密联系,但各自的关注点并不完全相同。前者重视技术本身所带来的伦理道德问题,比如20 世纪末的克隆技术;后者则更重视产品本身带来的伦理道德问题,比如一些智能无人操作系统。由于人工智能是当今社会讨论的重点,而其中的典型代表是智能机器人,因此,本文试图以智能机器人为例,从第二个问题的视角讨论人工智能伦理何以可能。

一、主体与道德主体

以智能机器人为例考虑人工智能产品本身带来的伦理问题有很多种不同的视角,本文选取的视角是道德领域中一个常见的概念区分,即道德主体(agent)和道德接受者(patient)。之所以选取这一视角,主要是因为,判断智能机器人的伦理地位可能是一个十分紧迫的问题,尤其考虑到沙特已经授予类人机器人索菲亚公民身份。

一般来说,从道德主体的角度思考某事物的伦理问题主要考虑的是它是否具有伦理责任,从道德接受者的角度思考该事物的伦理问题大多考虑的是该事物是否具有某些伦理权利。比如说,在见义勇为的具体案例中,我们往往倾向于认为案例中的获益者应向施救者表达感谢;而在讨论宠物狗时,很多爱狗人士倾向于认为狗不应该被虐待。在前一个案例中,获益者被当作一个道德主体,具有向施救者表达感谢的责任与义务;而在后一个案例中,宠物狗被视为道德接受者,具有不被虐待的权利。当然,这种区分并没有暗示同一个事物要么是道德主体,要么是道德接受者。因为在很多情况下,同一个事物既可以是道德主体,也可以同时是道德接受者,比如具有完全行事能力的成年人。

学界思考智能机器人的道德伦理问题时一般首先考虑的是这些问题,比如:“我们应如何看待智能机器人?”“智能机器人是机器,还是人,或者说一半是机器,一半是人?”“智能机器人能否承担相应的道德责任与义务?”等等。这些问题表明,关于智能机器人的伦理道德问题,我们往往首先考虑的是智能机器人是否具有道德主体地位,而不是智能机器人能否成为一个道德接受者。因为“是机器还是人”以及“是否能承担责任与义务”的问题追问的是智能机器人的主体特征,属于主体性范畴。因此,我们主张首先从道德主体的角度思考智能机器人的伦理道德问题。

根据鲍威尔斯(Thomas M.Powers)的观点,历史上的主体可以分为四类:因果式的主体、亚里士多德式的主体、康德式的主体和戴维森式的主体[1](P229-230)。因果式的主体指的是,存在于因果链条之中并导致某一事件的充分原因;在一定意义上,它可以被视为主体,但并不承担我们通常意义上的“责任”。比如暴雨导致某些人死亡,但我们不能要求暴雨为这些人的死亡负责。它只是自然发生的事件,不具备承担责任的能力。亚里士多德式的主体指的是能够审慎思考、拥有实践智慧的主体。在智慧这一层面上,亚里士多德式的主体已经超出了因果链条的束缚,合乎理性成为此种类型的主体考虑的重点。康德式的主体以自由意志代替实践智慧,以实践理由代替审慎的思考。对于康德式的主体而言,重要的是在自由实践领域通过普遍性的理性能力获得自律。因此,在康德那里,合乎理性的主体是自由且自律的主体。戴维森式的主体建立在当代大众心理学的发展基础之上。对戴维森(Donald Davidson)而言,主体是与行动联系在一起的,而一个主体之所以会行动,是因为他有首要理由。首要理由是由前态度和相关信念组成的,是行动的原因。根据戴维森的解释,前态度指的是朝向某种行动的意向状态,包括欲望、渴求甚至道德观念等;而拥有相关信念意味着主体知道、相信、感知到他的行动是前态度朝向的行动[2]。这些都体现为一种心智状态和意向能力。因此,要想成为戴维森式的主体,必须首先拥有相关的心智状态和意向能力。

上述四种主体,只有因果式的主体无法恰当地应用于道德领域,其他三种主体都能够在道德领域中承担起相应的道德责任和义务。亚里士多德式的主体和康德式的主体之所以能承担起道德责任和义务,因为他们所说的实践智慧和道德自律的立足之地恰恰就是道德领域的实践活动;而戴维森式的主体,虽然在一开始并没有应用于道德领域,但该主体的行动毫无疑问可以具有道德属性。在我看来,在这三种不同的道德主体中,选择戴维森式的主体作为智能机器人能否成为道德主体的判断标准是一个比较合适的选择。理由有以下几点。

首先,戴维森式的主体所依赖的根基是大众心理学,而大众心理学在一定程度上被视为科学,得到了经验的检验,相比较而言,亚里士多德式的主体和康德式的主体可能缺少这种科学根基。其次,在行动中,审慎的思考和实践理性可以转化为主体的前态度和信念,因为主体通过审慎的思考和实践理性最终必然会形成一些前态度和信念。这些前态度和信念可以用来解释主体的行动。这也就是说,满足亚里士多德式的或康德式的判断标准,必定会满足戴维森式的判断标准。再者,与亚里士多德式的和康德式道德主体相比较而言,戴维森式的主体对道德主体的要求似乎最低。在戴维森的理论体系中,行动的原因是前态度及其相关信念。虽然在很多场合中,戴维森认为,由前态度及其相关信念组成的系统是理性的,但他对理性的要求比较低,允许理性系统中出现错误的可能,只要这种错误不影响整个系统的稳定。而审慎的思考和实践理性的要求似乎比较高,不太可能允许一系列错误的介入。这表明,满足戴维森式的道德主体的判断标准,不一定能满足亚里士多德式的或康德式的判断标准。戴维森式的道德主体似乎是衡量一个事物能否成为道德主体最低的判断标准。

如果以上观点是合理的,戴维森式的判断标准是我们衡量一个事物能否成为道德主体的恰当选择,那么这意味着,具有心智状态是智能机器人拥有道德主体地位的一个必要条件。因此,我们需要判断的是,智能机器人能否具有心智状态。

二、智能机器人为何不能成为道德主体?

智能机器人是否具有心智状态?在我看来,虽然心智状态和智能机器人一样,都依附于物理性的存在,但是二者之间仍然存在着巨大的差异。我们可以从三个方面论证这一点。

从本体论的角度来看,心智状态与物理存在之间有着本质性的区别。首先,心智状态的一个基本特点是具有意向性,即总是关于对象的;而通常情况下,我们认为,物理性的存在并不具备意向能力。智能机器人也是如此,它无法具备意向能力。智能机器人大体可以分为两个部分,即大脑与躯体。其大脑部分的核心是算法程序,而躯体部分则是由一系列物理性存在构成。物理性存在不具备意向能力,因此,我们需要讨论的核心是算法本身是否具备意向能力。目前学界流行的算法大概有五大类,即规则和决策树、神经网络、遗传算法、概率推理和类比推理。这些算法本身虽然运行模式各异,但仍然遵从“输入—输出”模式。也就是说,只有当有信息输入时,智能机器人才会有输出,而且这种信息正常情况下应该是真实的信息,但这明显与我们所说的意向能力不同。因为心智状态所意向的对象可以是虚拟对象,并非一定在现实世界中存在,比如孙悟空。其次,心智状态往往不受严格的物理规则的限制,但智能机器人和物理事件一样往往受相应的物理规律的限制。通常情况下,我们可以将任意命题指派给某人,甚至是错误的命题内容,比如太阳绕着地球转。用物理规律,我们很难解释心智状态的这一特性。但所有的智能机器人都应遵从物理规律的限制,都无法违反物理规律。深度学习技术的出现虽然在一定程度上使得这一点变得更难以发现,但这并非不可能。因为我们总是可以通过分析代码发现智能机器人的运行所依赖的机制。而这些机制本身毫无疑问受物理规律的限制。

从认识论的角度来看,心智状态通过理解总是体现出语义特征,但智能机器人无法达到真正的理解。塞尔的中文屋思想试验明确地表达了这一论点。塞尔的中文屋思想试验大体可以表达如下:塞尔不懂中文,但是通过一本中英文对照手册可以将中文输入按照一定的规则输出中文,在外人看来,塞尔似乎懂中文,因为他的中文输出和懂中文的人的输出类似,但根据前提假设,塞尔本人不懂中文。塞尔认为,这一过程其实就是计算机的运行过程。因此,我们不能认为计算机具备理解的能力。有些学者如科尔(David Cole)、丹尼特(Daniel Dennett)、查尔默斯(David Chalmers)等人并不同意塞尔的论证。他们认为,目前的智能机器人并不能等同于计算机[3-5]。在一定程度上,这一反驳是合理的,但是这并不能反驳我们的最终结论,即智能机器人不具备语义理解能力。在塞尔的中文屋思想试验中,计算机程序被视为符号的输入与输出;而目前的智能机器人比计算机程序更复杂,其根本特征在于,它不但有符号的运行,还能与外界发生因果联系。问题在于,这两者都不能体现出语义特征。符号的输入与输出只有句法特征,没有语义特征,这一论点已被塞尔所论证。而因果关系同样无法体现出理解的语义特征。因为首先,根据塞拉斯(Wilfrid Sellars)、罗蒂等人的观点,语义特征属于理由的逻辑空间,与证据、辩护相关,而因果关系与之截然不同,不具备辩护能力。其次,因果关系总是有现实的对象,但语义对象并非总是现实的,比如前文已提到的孙悟空。再者,如果认为因果关系具备语义表征能力,那么自然界中的很多事物都具有语义表征能力,比如动物甚至植物,因为这些对象本身受因果关系的限制,如树的年轮。

从价值论的角度来看,心智状态总是自由的状态,不受特定目的的限制,比如它可以思考数学系统中的命题,也可以表征经验对象;但智能机器人不能如此,它总是受限于它所从属的系统。以智能无人驾驶汽车为例,智能无人驾驶汽车虽然可以在其系统内实现自由选择,比如从某地到某地的路线规划,但是它不能超出这一系统,去自由地选择完成别的事情,比如拿一个盒子,写一篇论文等。因为智能机器人总是为了某一个特定的目的被设计出来的,总是受到它的算法程序的限制。在适用于所有一切事项的终极算法被创造出来以前,智能机器人永远不可能突破它所属的系统。因此,智能机器人不可能实现真正的自由。

提高语文课堂教学效率,是当今语文教学的迫切要求,是语文教师不可推卸的责任。教师只有从培养学生良好的课堂学习习惯、激发学生学习语文的兴趣、引导学生将学与练结合、指导学生学习的方法等方面着手,才能真正提高语文课堂教学的效率,减轻学生的课业负担,让学生乐于学习。

以上三个方面的考虑表明,智能机器人无论如何都不具备心智状态。因为它不能像心智状态一样,具备意向能力,无法获得真正的理解能力,也不具备超出自己所属系统的自由选择的能力。即便在将来的某个时刻,它表现出来的行为模式在某些方面和人类一样,甚至超过人类,它也无法拥有完整的心灵。这也就是说,智能机器人不会成为完全意义上的道德主体。因为它不具备道德主体所要求的必要条件,即拥有心智状态[6]。

三、思考道德接受者的两条进路

通过上述分析,我们可以明确,从道德主体的角度思考智能机器人的伦理问题是不可能的,因为智能机器人不具备心智状态,无法成为真正意义上的道德主体。但这并不意味着智能机器人无法在伦理领域中占据一席之地。从道德主体的对立面即道德接受者的角度思考智能机器人,可能是一个合适的选择。

从历史的角度来看,道德接受者的范围在不断扩大。比如在之前很长一段时间内,犯人、奴隶、动物等都被认为不是道德接受者,不能享受道德主体善意的对待;但目前,很多伦理学者都在为犯人和动物的权利呐喊,甚至有些生态伦理的支持者认为,生态环境也是道德接受者,也应该享有相应的权利。在这种情况下,智能机器人成为道德接受者似乎是理所当然的。因为看起来,我们没有理由认为动物和生态环境是道德接受者,却否认智能机器人的道德接受者地位。就像托发凯尼(Niklas Toivakainen)在解释特克尔(Sherry Turkle)的采访者时所说的那样:“他所要求的至少或者应该在某种意义上,机器人自身应该至少被视为道德接受者,即应该被合乎道德地尊重或对待……这看起来非常像动物权利或环境权利的问题。”[7](P270)在我看来,因为动物和生态环境在伦理领域中的道德地位发生过转变,因而追问智能机器人的道德接受者地位,这种解题思路可能会涉及很多问题。为方便起见,我们应首先追问,某物到底为何能成为道德接受者?

严格来说,这个问题可以说是仁者见仁、智者见智。最近,学术界有两种新观点值得我们注意。第一种观点由弗洛里迪(Luciano Floridi)提出,被称为“信息伦理学(Information Ethics)”。这种观点认为,世界上存在的所有事物都至少值得一定程度的尊重。第二种观点借助了列维纳斯(Emmanuel Levinas)对他者的思考,这种观点认为,所有的伦理道德的问题都是关于他者的问题,因此他者一开始就应受到尊重。我们首先来考察第一种观点。

根据信息伦理学,所有存在的事物,不论是有生命的还是无生命的,都是信息对象。因为所有的事物都是由数据构成的,都是信息的集合体。为了更清楚地说明这一点,弗洛里迪给出了一个简单的类比。他指出,在抽象的化学层次上,每一个实体或过程都满足一个特定的化学描述。比如人是由70%的水和30%的其他物质构成。同样,在抽象的信息层次上,每个实体或过程都是由信息构成的,都满足某个特定的信息描述[8](P46)。比如某个东西表达出某些信息,或者用某些信息作为资源产生出另一些信息作为产品。因此,在信息抽象的层次上,所有事物都可以被视为信息的集合体。进一步,弗洛里迪指出,信息具有自身的固有价值。因为任何信息实体都有权利坚持自己的状态,发展和丰富自己的存在和本质。弗洛里迪将前者称为“斯宾诺莎式的权利(Spinozian right)”,将后者称为“构建主义的权利(Constructionist right)”。如果弗洛里迪对信息固有权利的说明是有效的,那么联合他的第一个论断即事物都是由信息构成的,似乎就很容易得出这样的结论,即所有事物,不论多么卑微,都有权利要求被尊重。这即是信息伦理学的核心思想。

信息伦理学有不少优点。比如从本体论的角度来看,它把所有事物都囊括在伦理道德领域之中,这打破了许多其他种类的伦理学的局限,如动物伦理学、生态伦理学。其次,信息伦理学是以道德接受者的角度为出发点的,似乎并没有受到人类中心主义的影响。这在当今越来越强的反人类中心主义的视域之下,可能也是一个优点。问题在于,信息伦理学自身存在的问题,并没能给出很好的说明。比如说,为什么信息伦理学一定要将伦理领域扩展到所有事物之上?信息具有自身的价值,但这并不等同于它一定会得到他人的尊重。因为它的这种固有价值很有可能被人忽视。其次,如布赖(Philip Brey)所言,信息对象只有相对于接受者的概念框架而言才是可能的,但它本身又被要求具有固有价值,二者之间并不融贯[9](P112-113)。因为前者表明,信息依赖于主观接受者;而后者则表明,信息具有独立地位,二者之间相互冲突。在我看来,如果不回答这些问题,信息伦理学将始终难以令人信服。

第二种观点试图借助列维纳斯对他者问题的思考承认他者的道德接受者地位。在列维纳斯的哲学思想中,他者与自我的关系是他思考的重点。不过和很多哲学家不一样,他并没有从认识论的角度思考这个问题,而是将这个问题纳入到本体论的思考领域之中,并且将这种关系视为主体结构和自我结构的基础。和一般的观点不同,列维纳斯并不承认自我相对于他者而言的优先性,而是认为他者是自我的前提。比如他曾明确指出,“一个富有意义的世界是一个其中有他人的世界,由于他人,我的享受的世界就变成了一个具有含义的主题”[10](P194);他也曾说过,“我的条件,或无条件性,并不是始于拥有主权的自我的自发影响,这种自我将会在事件之后‘同情’他者。相反:只有处于被他者困绕之中,在先于任何自动同一所遭受的创伤之中,在之前的未表现中,有责任的自我的独特性才是可能的”[11](P123)。按照列维纳斯的思路,贡克尔(David Gunkel)曾这样解释到:“自我或我,并不构成前存在的自我断定的条件……相反,它是作为不可控制和不可理解地面向他者之脸的一个副产品。”[12](P177)也就是说,他者不是作为他者之心显现的,而是作为他者之脸显现的。在列维纳斯那里,“脸”是一种隐喻,它通过“拒绝被包含在内”而显现出来。他者作为他者之脸显现出来,意味着他者拒绝被自我包含在自我之中。因为,对于自我而言,他者是一种无限。“世界由于他人才具有意义”“自我只有处于被他者的困绕之中才是可能的”,这些都表明,面向他者之脸是自我和他者关系的基础,自我只有在这种关系中才存在。由于自我与他者之间的关系被列维纳斯看作是一种伦理关系,因此,当列维纳斯承认他者在二者关系中起基础地位时,他实际上从一开始就肯定了他者是伦理可能性的基础条件。

列维纳斯对自我与他者之间关系的阐述似乎表明他并没有从道德接受者的角度思考他者的问题,而且他关于他者问题的思考看起来摆脱了道德主体与道德接受者二者之间的区分。但是如果我们能够仔细分析“面向他者之脸”这样一种表述,就可以发现列维纳斯实际上并没有逃避人类中心主义的影响。因为只有人类才能有意识地面向他者之脸,才能发现他者之脸。其次,列维纳斯所说的他者指的也是人,而非其他事物。在他看来,非人的他者不能建立起伦理关系。从这个角度来看,列维纳斯关于他者的思考恰恰就是从道德接受者的角度来处理他者的伦理问题,只不过他是以人作为他者,并且将他人视为道德接受者,从而提升了道德接受者的伦理地位。

贡克尔和伊索纳(Lucas Introna)等人认为,列维纳斯理解伦理关系的思路为我们理解动物、机器以及自然生态的伦理地位提供了很好的思想资源,可以将“他者”的外延扩展到动物、自然生态以及机器之上[12-13]。在我看来,不假思索地将他者的范围扩展到其他事物身上,进而判断这些事物的伦理属性,可能会面临一些困难。因为首先,他人与动物、生态以及机器之间存在着种类上的不同,将他者的外延扩展到这些事物之上可能会影响列维纳斯讨论自我与他者之间的关系。其次,列维纳斯关于自我与他者关系的论述并不是一个严格的伦理问题,而应该被看作是一种前伦理的讨论,其目的是为伦理关系提供合适的基础。因为伦理考虑的是责任与义务之类的问题,但很明显列维纳斯没有给出任何伦理原则,也没有思考“应该”如何对待他者。当然,这并不是说列维纳斯的思想不能为思考智能机器人的伦理问题提供思想资源;而是说,在利用列维纳斯的理论时,我们需要慎重一些。

四、智能机器人的道德接受者地位

上一节的分析表明,理解某物的道德接受者地位可能会非常复杂。立足于信息伦理学为智能机器人指派道德接受者地位是不可能的,因为信息伦理学的根基并不牢固,有待进一步澄清;至于列维纳斯的伦理思想,如果想要利用它来说明智能机器人的伦理地位,则需要补充更多理由。我们接下来尝试从列维纳斯的思路出发,阐述智能机器人作为道德接受者是如何可能的。

首先,列维纳斯关于自我和他者关系的说明为我们提供了一个合适的框架。虽然在这个框架中,他者主要指的是人类,没有包含智能机器人此类人工事物,但是他的框架本身并不能阻止我们在理想情况下将智能机器人这样的事物看作是另一种“他者”,一种不同于人类但“有意识地”面向他者的“他者”,我们称其为“准他者”。列维纳斯关于语言的论述,为这种准他者的存在提供了基础。他说道:“绝对的差异,无法根据形式逻辑来想象,只能凭借语言创立。语言在那些打破了属之统一体的诸项之间实现一种关系。这些项,这些对话者,从关系中脱离出来,或者,在关系中保持绝对。语言或许可以被界定为打破存在或历史之连续性的权能本身。”[10](P179)这也就是说,语言是将自我与他者隔离开的一个关键因素,它创造了自我与他者之间绝对的差异,表明了他人在伦理上的不可侵犯性。在现实生活中,很多智能机器人都能使用人类语言,具备自然对话功能。虽然在塞尔的意义上,这些智能机器人无法“理解”语言,但我们不能否认的是,它们的确能够使用语言从事对话活动。在对话过程中,智能机器人使用的语言可以为人与智能机器人之间实现一种关系。在这种关系中,人作为一个项,保持着绝对;而智能机器人作为另一个项,在一定程度上,也保持着独立。只不过智能机器人的这种独立不像他者的独立一样,它在很大程度上依赖于人类。如果这个思路是可行的,那么这将表明,在伦理领域中至少存在两种关系,一是自我与他者的关系,一是自我与准他者的关系。在自我与他者的关系中,他者是基础;而在自我与准他者的关系中,自我是基础。自我与准他者的关系依附于自我与他者之间的关系。

其次,在自我与他者之间的关系中,自我不得不面向他者之脸,这是列维纳斯一再强调的;但在自我与准他者之间的关系中,自我并不必然地面向准他者之脸。因为准他者之脸并没有他者之脸的本原性。根据列维纳斯的看法,“他人的他异性并不依赖于任意一种会把他与我区别开来的性质,因为这样一种区分恰恰意味着在我们之间存在着这种属的共同体,后者已经取消了他异性”[10](P178)。这也就是说,他者与我的这种差异是在属的共同体之下的差异,并不是在属的基础上的差异。因为自我与他者属于同一个属,即人类。但准他者与我之间的这种他异性,既存在于属的共同体之内,也存在于属的共同体之上。因为智能机器人并不是完全的人类。更重要的是,准他者是以自我作为基础的,只有将自我作为前提,准他者才能成为自我与准他者关系之中的一个项,才有可能作为个体而存在。换句话说,如同自我是面向他者之脸的副产品一样,准他者是面向自我之脸的副产品。

综上考虑,如果自我与准他者之间存在一定的伦理关系,那么准他者即智能机器人只能处于道德接受者的地位,并且这种智能机器人必须是会语言的,拥有对话能力。因为只有会语言的智能机器人才能建立起自我与准他者之间的差异,才能在准他者与自我建立起的关系中,保持一定程度的独立性。当然,需要注意的是,在此意义上,我们只能证明会语言的智能机器人具有成为道德接受者的可能性,即成为准他者;而我们需要进一步证明的是,会语言的智能机器人的确能够成为准他者。

列维纳斯在分析自我与他者的关系时认为,面向他者之脸是自我与他者伦理关系的基础。由于自我也可以成为他者的他者,因此,相对于他者而言,自我也是一种他者之脸。也就是说,在自我与他者的关系中,只要存在一方不得不面向他者之脸,伦理关系的基础便可以建立起来。因此,智能机器人要想成为准他者与自我之间发生伦理关系,需要有一方面向他者之脸。在我看来,至少存在两种情况,会语言的智能机器人能成为准他者。

第一种情况是,会语言的智能机器人不得不面向他者之脸。在这个关系中,会语言的智能机器人是准他者,而他者指的是自我。也就是说,会语言的智能机器人不得不面向自我之脸。比如说,在老人与智能护理机器人之间,智能护理机器人不得不面向老人之脸。因为如果智能护理机器人不面向老人之脸,那么它将不能成为真实的个体,不能在与老人的关系中存在,甚至不能成为一个副产品。而不直接面向自我之脸的一些智能机器人可能将不具备道德接受者地位,比如为了生产某种产品而设计的智能机器人,如果它的任务仅仅只是生产,那么它将只会面向生产线,因而无法拥有道德接受者地位。

第二种情况是,自我面向会语言的智能机器人之脸。同样地,在这种情况下,会语言的智能机器人是准他者。与之不同的是,自我面向智能机器人之脸,并不是自我的无奈之举,而是他的一个主动选择。因为自我并不需要通过面向智能机器人之脸实现自我。自我主动选择面向智能机器人之脸,很可能是因为自我与该智能机器人之间已经发生过有意义的关联。或者自我将个人感情投入到该机器人身上,如某人特别喜欢某智能机器人,甚至有保护它的意愿;或者,该机器人能够激起自我的回忆、情绪或思想,比如某人通过面向某智能机器人之脸能回忆起他的父亲。在我看来,在这些情况下,自我主动面向智能机器人是可理解的,这些会语言的智能机器人也因为自我的主动面向而成为准他者,并获得道德接受者地位。

五、小 结

智能机器人是人工智能的典型代表,它和其他人工智能产品的本质是一样的,都是通过利用计算机、数学、逻辑、机械等来理解、模拟甚至超越人类智能的技术产品。因此,关于智能机器人的讨论适用于其他的人工智能产品。这表明,人工智能伦理要想成为可能,不能从道德主体的角度来思考,因为人工智能产品不可能拥有心智状态,不能成为真正的道德主体。也就是说,我们只能从道德接受者的角度来思考人工智能的伦理地位。人工智能成为道德接受者有两种方式。要么,它能主动地面向人类,这要求它能够自主地为人类服务;要么,它和某人之间发生了有意义的关联,并被赋予了一定的意义,因而具有道德接受者的地位。当然,人工智能拥有道德接受者地位还有一个必要前提,即它必须具备对话能力,会使用某种语言。

猜你喜欢
接受者维纳斯心智
默:从人生态度到审美心智
郭守祥箴言:品牌,只有形成心智认知才能抓住顾客的心
维纳斯黄金苹果在黄河故道地区的引种表现
是什么偷走了孩子们的绘画兴趣——心智表达课程设计
千姿百态维纳斯
当代维纳斯的诞生
大学生心智的二次构建
如何认识一件艺术作品
游戏、电影和接受者:跨媒介时代融合的新方式
历史文化资源利用方式的新视角