冯怡博,刘宝杰
(曲阜师范大学 政治与公共管理学院,山东 日照 276826)
马克思曾经说过:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和”。随着社会的发展,人们对交流的需求会不断增加,特别是一些情感缺失的人,他们对社交的需求会更加强烈。在“弱人工智能时代”不断走向“强人工智能时代”的过程中,出现了能够和人交流的社交机器人。社交机器人是在遵循符合自己身份的社交行为和规范下,与人类或其他自主的实体进行互动与沟通的机器人,社交机器人的类型有伴侣机器人、教育机器人、医疗机器人、娱乐机器人、服务机器人等。人同社交机器人交流的过程我们称之为跨实体交流,跨实体交流是社交机器人利用人工智能情感技术,对使用者进行情感识别,通过相应的情感计算,再对使用者进行情感输出的过程。随着人工智能技术的不断发展,社交机器人逐渐被应用于各个领域,像日本软银公司发明的帮助老人和残疾人士的机器人“罗密欧”、本田公司的服务机器人“ASIMO”、软银公司能够识别人类的情绪与人交谈甚至还能和人一起跳舞的机器人“Pepper”。技术的进步使社交机器人的“情感”越来越真实,越来越“拟人化”,人们同社交机器人的交流也越来越像和人交流一样,但是,社交机器人同人的交流是真实的吗?本文根据马克·科克尔伯格(Mark Coeckelbergh)所提出的三个角度论证了社交机器人具有欺骗性。其一,机器人存在的目的是欺骗人类的情感;其二,机器人的情感不是真实的;其三,机器人假装成为另一个实体。[1]3最后得出结论:社会在发展,时代在进步,人类应不断增强社交机器人“为我服务”的能力,发挥其对人类的独特作用。
何为欺骗?欺骗与谎言是不同的,欺骗意味着使人相信本不该相信的东西,只有目标者相信了“谎言”才算得上欺骗,机器人的欺骗也是如此,“如果一个人相信一个社交机器人有情感并关心他们,那么他们就是被欺骗了:即使没有人明确地有意相信这种想法。”[2]机器人同人之间的欺骗和人与人之间的欺骗是有区别的,在人与人的欺骗中欺骗者和被欺骗者之间的关系是主动与被动的关系;而机器人和人之间的欺骗关系是被动与被动的关系,这是因为在跨实体交流的过程中“也许社交本身并没有任何“意图”,但是其集非生物体性和拟人化为一身的特征导致了来自于机器人的虚拟情感和来自于人的真实情感关系的失衡,这种虚拟与真实之间失衡的、不对等的情感关系就体现为一种欺骗关系。”[3]58也就是说这种欺骗关系的发生责任并不在于机器人本身,而在于机器人的设计、制造方,它是设计、制造人员“强迫”机器人的欺骗,设计、制造人员把非生物性的机器人变得越来越拟人化,使得这种欺骗变成一种“干扰”,干扰使用者的视觉、神经反应等主观意识,使目标者的主观意识认定与机器人的交流符合正确的价值观。这种“干扰”主要体现在两个方面:一方面,社交机器人被逐渐设计成类人的形象,是一种外部“干扰”,这种“干扰”是基于视觉上的真实目的;在情感交流的过程中一个更像人的机器人要比一个“非人类”的机器人更具有“欺骗性”,进而使“社交机器人欺骗的目的”更加真实。举个简单的例子,“虽然机器人不需要模仿人类功能的眼睛来吸引人类的注意力,但很多研究都致力于机器人如何进行社交眼睛的注视。”[4]25这主要因为在人与人交流的过程中,眼神的交流会增加交流者之间的情感,社交机器人的设计本可以不给予“眼睛”,但给予社交机器人“眼睛”是设计制造人员主动地给予,社交机器人被动地接受,他们的目的就是增强人机交流的情感真实性,促使社交机器人“欺骗”的真实性。另一方面,是增强“情感计算”的研发,设计人员为了使社交机器人的“情感”更加真实,他们会不断地追求技术上的极致化而模拟人类的情感,但机器人同人之间的交流本质上并不是基于真实情感的,人同机器人交流过程的基础条件是流畅的交流过程,如果说不追求极致的交流的真实情感,那么仅仅“无情感”的流畅交流会满足大部分人的社交需求,而不断加大对“情感计算”的研发,会使社交机器人的交流方式越来越趋于人,那么会给人们造成一种错觉,在人同社交机器人的交流过程中,人们的意识会逐渐错误地意识到“社交机器人可能就是人”,使社交机器人的“情感”更加真实,以达到欺骗的目的。
达纳赫尔(J.Danaher)将机器人的欺骗分为两种:完全的欺骗和部分的欺骗。“当一个人相信社交机器人不是机器人时,完全的欺骗就发生了。”[5]282“当一个人对机器人的本质有一个理性的理解,但在潜意识层面忍不住对它作出回应,就像它是真实的一样,就会发生部分欺骗。”[5]282但无论是把社交机器人的外观设计成人的形象还是不断加大对“情感计算”的研发都是为了达到部分欺骗,这是因为机器人欺骗成功与否不仅仅是社交机器人的原因,使用者可能需要这种欺骗来满足自身的情感需求。当设计师把社交机器人的外形和“情感”设计得更加“拟人”时,虽然人们在理性上能够认清社交机器人的本质,但随着时间的推移,目标者对“欺骗”本身的认知感逐渐变得模糊,在潜意识上忍不住对它作出情感回应,最终目标者使自身相信了这种“欺骗”,这时我们便被动地处于部分的被骗状态。部分的欺骗也可能会向完全的欺骗过渡,随着时间的推移,人们长期处于这种交流的“欺骗”当中,主观意识会逐渐变得模糊,他们会逐渐把社交机器人当成一个“社会主体”,造成人类本身的价值观发生改变。
情感分为外部情感和内部情感,外部情感可以理解为“为了沟通和社会协调的情感表达”,内部情感可以理解为“为了行为组织的情感。”[6]559外部情感是表象的,内部情感是意识的。针对这个问题我们首先从情感表象来分析,情感表象是情感的外部真实反应,那么如何对情感进行外部反应呢?在解决这个问题之前我们要知道情感是什么,“情感是一种主观感受,但它与被动的感官知觉不同,代表着我们对观察或经历的情境的反应,能为我们的行动提供动力和指引,是海德格尔所说的“在世”与环境发生关联的方式。”[7]145情感表象就是对观察和经历的主观感受的外部呈现。社交机器人根据目标对象的反应而做出相关的“情感表达”,但这个“情感表达”并不是机器人自身的,是人类把自身的经历通过数据运算赋予机器人的,社交机器人的环境关联是人类经验环境关联的“复现”,并不是海德格尔所说“在世”的环境关联。海德格尔是把“生命”等同于“此在”,它经历着“在”,而社交机器人不具备生命,它也不会经历着“在”,所以说社交机器人的“外部情感”仅仅是在模拟人的外部情感,社交机器人所呈现出来的喜悦、愤怒、好奇、生气、悲伤等这些“情感”表达,仅仅是对人类面部表情的模拟,对于人内心最真实的反应,社交机器人无法呈现出来。另外,关于情感意识。情感意识可以分为两类:一类是意向情感,另外一类是非意向情感。“意向情感指向对象,……通常我们也将它们称作感受”[8]116意向情感指对客观目标的反应,是客观目标的行为影响到了行为者,行为者能够对客观目标作出主观上的反应,使情感呈现:但社交机器人的情感呈现看似指向对象,但它不具有主观意向性的表达,所以它不具备意向情感。“而非意向情感不指向具体的对象,……通常我们也将它们称作情绪或心情。”[8]116非意向情感是内心情感的自主呈现,行为者不会主动指向目标对象,而是自然而然地受到外在物的影响;社交机器人在无外物的影响情况下,它始终处于一种“情感静止”的状态,无法自主作出情绪的反应。
社交机器人的情感是不真实的,但机器人的情感不真实是否会对人与人之间的交流过程产生影响呢?举个简单的例子,人们在玩游戏时或者看电影的时候尚且会对虚拟角色产生情感,更何况机器人呢!假如人们相信社交机器人的情感是真实的,那么人们在同社交机器人交流的过程中必然也会对这种虚拟的不真实情感产生依赖,造成的后果就是使人类感情丧失,人类会逐渐被机器人同化。原因在于社交机器人的情感看似与人类相似,但它于人类相比智能程度远远不及,它同人的交流方式有异于人与人之间的交流。那么,当人长期处于同社交机器人的交流过程时,他们的交流范围被限制在了机器人的情感范围内,最终他们同机器人的交流方式取代人与人之间的交流方式。
实体即ousia一词,“亚里士多德的ousia最严格的意义是指实际存在的可感事物,如这某个人,但也可指较为抽象的某种东西,如‘是其所是’、质料、形式、载体以及属、种等。如果要寻求一个统一的解释,那就是‘实体’是某种真实存在的东西,这基本符合ousia的本义。”[9]72机器人本身是作为一种实体存在,但社交机器人为了达到理想化的交流过程它假装成为了另外一个实体,即社交机器人假装成为了人。根据这个定义“实体x具有属性p;任何实体具有属性p,都具有道德地位s;实体x具有道德地位s。”[10]63我们把社交机器人和人对应起来,假设它具有和人相同的属性,那么社交机器人是否和人一样能够成为道德主体呢?要成为道德主体应具备以下三个条件“(1)具有对道德正当与否的推理和判断的能力,以及据此而行动的能力;(2)其行为被期望应当符合道德规范;(3)对其行为负有道德责任且能对其行为后果进行责任的归咎。”[11]126首先,关于社交机器人对道德正当与否的推理判断能力。社交机器人所具备的推理和判断能力是人们所赋予它的,它是否具备对道德行为的分析能力是基于人的赋予,人们赋予给它什么它才具有什么,人不可能把“自己”完全地赋予给机器人,那么社交机器人不具备完全的道德分析能力。其次,关于社交机器人的行为被期望应符合道德规范。根据康德的道德义务论“由于非人动物没有理性本性,它们无法具有人格从而拥有道德地位”[12]56。社交机器人同样也是如此,它不具备理性本性,从而不具备道德地位,那么我们就不能够判断社交机器人的行为是否符合道德规范。最后,关于社交机器人能否为其行为负有责任。我们从自动驾驶汽车的例子来看“费希尔道德责任理论认为,倘若一个人能够进行引导性控制或进行管制性控制,那么他就要承担道德责任。由此可见,自动驾驶汽车的使用者应为自己使用自动驾驶汽车引发的事故承担道德责任。”[13]116同样人能够对社交机器人进行管制性控制,那么承担责任的一方只能是人类本身而非社交机器人。综上所述,社交机器人不具备成为道德主体的能力。那么,我们可以认为社交机器人为了达到理想化的交流过程,它假装成为人,但它却不具备人相应的道德地位。社交机器人在假装成为人同人交流的过程中,如果我们真的把社交机器人当做一个“社会主体”,造成的影响将是巨大的,因“社交机器人采用的机器学习算法,让其在与人类的互动中不断学习,不受限于程序员植入的算法模型,这使得它在鱼龙混杂的网络知识海洋中极易被人‘教坏’。”[14]11而社交机器人又不具备相应道德的地位无法承担责任,假设机器人“犯罪”的话,其造成恶劣的后果又必然会是由人类本身来承担。
总之,社交机器人的应用确实存在“欺骗性”,作为一种跨实体的交流,它不是真实的,人类长期处于这种“虚假”的交流方式中会受到一系列的影响,首先主观意识会逐渐模糊,最终结果就是把机器人真正的当成一个社会主体,造成人的价值观发生改变;其次,会影响实际生活中的人人交流,人机交流方式会逐渐取代人人的交流方式;最后,因为社交机器人不具备相应的道德地位,社交机器人一旦“犯罪”,责任会由人类来承担。当然,虽然社交机器人存在一定的弊端,但人们并没有停止对社交机器人的研发,反而加大了对它的关照力度,原因在于“社交需求”是人类的必然需求,特别是对那些因不可抗因素造成情感缺失的人而言,他们对社交机器人的情感依赖也更加强烈。此外,高新技术的发展会不断地改变我们的生活方式,毕竟社会在发展,时代在进步,人类使各种高新技术“为我服务”的能力也在不断成熟。社交机器人的出现在很大程度带给人了便利,但人们在使用社交机器人时一定要明确它的应用地位,因为社交机器人永远无法具有人类的复杂情感,所以我们要把它当成人工物对待,而不是独立的社会主体。