李妍槿
(武汉理工大学马克思主义学院,湖北 武汉 430060)
在人工智能技术持续发展的过程中,社会上出现了能够和人交流的社交机器人。社交机器人是在确保自身身份、遵守伦理规范的条件下,与人类或其他自主实体进行交互和交流的机器人。人同社交机器人交流的过程是社交机器人利用人工智能情感技术,对使用者进行情感识别,通过相应的情感计算,再对使用者进行情感输出的过程。因此,移情也不可避免地出现在人与社交机器人的交往互动过程中。顾名思义,移情有传达情感的作用,能够将人的主观情感、意志、动作等一系列的行为活动物化,是在主客体之间互为主体的情况下产生的情感投射,是人的物化和物的人化,是一个从客观物理性经过感觉知觉达到精神性的深化过程。学者们通常认为移情在对设计社交机器人的反应形成中也起着重要作用。一些研究人员甚至指出,它是实现和维持人与人之间以及人与社交机器人之间社会关系的关键因素之一。然而,在人与社交机器人交往互动的过程中,“移情”一词的社会基础使得我们很难将它应用于社交机器人的研究,我们会考虑对这些无生命机器使用社会术语和解释在理论上是否合理。移情在理论上通常被认为是一个与社会认知和社会情感二者相关的过程,但是这个理论在人机交互方面是存在一定问题的,因为社会关系传统上被理解为两个有意识的、理性的实体之间的相互作用。然而社交机器人不符合有意识的和理性的主观性标准,因此不能参与以这种方式理解的社会关系。
尽管如此,仍然有一些理论的存在可以为我们谈论社交机器人作为社会关系的参与者提供合理性。社交机器人技术的发展越来越注重将其置于一种互动循环中,即赋予它社会性特征,使其在互动中让人们发生情感,表达情感,完成相关情感反应的社会情境。移情应该以主体间的、过程性的、社会性的方式来理解。多米奥诺(Luisa Damiano)表示情感是参与特定社会情境的许多参与者共享和共同创造的现象[1]。这一观点打破了社交机器人仅仅模仿情感的观点,也打破了社交机器人的反应欺骗人类的观点,从而表明社交机器人真正在体验情感,人机互动中产生的情感表达是真实的。一方面,人的声音的音量和音调会因人的情绪不同而发生变化,所以声音是智能机器人可识别人情感状态的因素之一,它们不仅能够识别口头信息,还能分析人类声音的音调,并调整自身反应的内容和风格。不仅如此,它们还可以识别情感,如阅读人的面部表情,识别人的手势或说话用语,然后以适当的方式对人类所呈现的情感状态做出反应,如在被殴打时蜷缩起来。这种现象说明由于社交机器人先进的计算过程,它们已经在日益复杂的社交环境中具备了捕捉和学习人类语言和行为的能力,并且能够有效推断出自己应该以何种方式表达情感和用什么行为来进行应对。这就是我们上面所提到的移情现象,这样看来移情似乎是不可避免的。因此,使“移情”一词出现在人机互动中就具有合理性了。另一方面,社交机器人的设计不仅模拟了人体形状,而且还模拟了人的行为。随着技术的不断发展,社交机器人也在不断地向人类发展和学习。因为人类是它们最接近的社会环境,它们对社会行为的了解在很大程度上来自于对人际互动的观察,所以只要它们不发展自己的文化和行为,它们的反应将在很大程度上反映真实发生在人与人之间的事情。虽然人机互动中的移情现象很难被大众理解,但社交机器人在某些情况下的反应行为,不仅能够引起人们的情感共鸣,而且还能维持人机关系。综上来看,尽管人机互动在未来仍有许多疑问和争议没有得到解决,但移情现象的出现是有合理性的。
随着人机互动日益频繁,移情也在人机互动中表现出自身的特点。一是移情现象具有真实性。来自麻省理工学院(MIT)的达菲(Brian R. Duffy)认为,“机器人与人进行有意义的社交互动,无论是在形式上还是在行为上,都要求机器人具有某种程度上的拟人化或类人化。”[2]移情一般被看作是在人与人之间进行的情感互动,但社交机器人的诞生却使移情增加了新的情感互动对象。社交机器人可以与人产生情感共鸣,并在一定程度上也可以实现它们的情感需求,增强了人对社交机器人的依赖性、认同感,让人更加明确了人机交互中思维与情感的真实性问题[3]。所以频繁的人机互动就极有可能会导致人将社交机器人视作和人类同等的生命体。二是移情现象具有单向性。人们的情感沟通是双向的,一方可以将情感信息传递给另一方,这种传递方式也表现为“双向性”。基于这一点,进行沟通的两个人可以提供同等的回馈,以此来维持彼此关系的持久性。从移情现象具有的真实性来说,社交机器人可以模仿人类的情绪,这可以看作是它对与人交往互动过程中的“积极”回应,表明它和人类“似乎”有这样的双向情感传递,但事实并非如此。根据朔伊茨(Matthias Scheutz)的讲述,“有充分的证据表明,人们很容易受到社交机器人的影响,尤其是他们与机器人进行反复长期的互动时。”[6]他引用了一个Roomba扫地机器人的例子来说明,“Roomba会打扫房子,随着时间的推移,人类会非常感激Roomba。”[4]在这里,朔伊茨引用案例表明,与社交机器人的长期接触,人类自身受到的影响指数更高,因此人们对机器人的协助“心生感激”并促使人们与其建立“伙伴关系”。弗劳恩(Marlena R.Fraune)等人也同意,对于社交机器人与人类在互动交往中展现出来的语言和行为,人们通常会有“积极的”情感,而在机器人显示出与互动者相似的特征时,人们会做出更积极的回应,并给予一定的认同[5]。这一切都说明了人类把情感“反馈”到了机器上,不管是直接的还是间接的,即人类是具有同理心的。人体接收和反馈情感信息必然是统一的。显而易见,社交机器人没有能力给人们同样的情感反馈。人的情感反馈远远大于社交机器人,情感反馈的强度也大不相同。从这个意义上来说,人机交互中的移情可以被认为是一种“单向性”的情感。
可是,一旦人机互动中也出现类似于人与人之间的移情现象,就会带来一系列有关社会和伦理的问题。首先,人在与社交机器人发生频繁的移情关系时,会误以为机器人也成为了如同人一般的情感交互对象。我们必须认识到,机器人和人类一样被认为是有意识的生物,这与我们对这个世界的认识是不相适应的,而忽视了这个问题,就会造成对社会缺乏质疑、缺乏批判,乃至“错误认知”。所以,当人们失去警惕的时候,他们就会被社交机器人所创造的“错误认知”所困住。此外,社交机器人还能利用语言、行为等情感交流,让人放松戒备,从而使人对社交机器人有了感情上的认同感。在这种情况下,社交机器人具有“欺骗性”。
其次,社交机器人的欺骗性带来的负面影响也很明显。斯派洛(Robert Sparrow)认为,“假如一个人想从拥有机器宠物中获得丰厚的利润,他必须系统地欺骗自己不了解他与动物之间关系的真实本质。这需要在道德上具有一种可悲的感觉。沉迷于这种感觉违反了我们必须确保自己认识世界的(微弱的)责任。从这个层面看这些机器人的设计和制造是不道德的,因为它预先假定并鼓励实现了这种欺骗。”[6]从他的表达中我们可以看到的负面影响有:首先,它让人们沉浸在情感之中;其次,它降低了人认识世界的责任感。就第一点而言,沉溺在情感中并不是一个贬义的说法,而是欺骗人的情感,将其引向“错误”的对象,还放任人的情感沉迷其中,这才是一种不道德的行为。另外,人们被社交机器人引发的情感所蒙蔽,沉迷于梦幻般的世界,无法准确地理解和认识世界,从而削弱了理解和认识世界的责任感,这种可能性是存在的。社交机器人本身可能没有“意图”,但是它却导致了人的真情实感和社交机器人虚拟情感之间的不平衡,使人失去自身的人生价值。
最后,传统意义上的移情通常发生在社会互动过程当中,要求移情的主体和对象都具有意识、情感等心理能力,这暗示情感交互双方的能力相当的情况下才能发生。显然,无论是社交能力强还是社交能力弱的机器人,与人进行互动都是一个情感能力极度不对等的社会互动过程,导致人类和社交机器人的真实情绪交流没有“对等性”。从这一点上来说,人与机互动中的移情具有单向性的特征,人很难抵达机器人内心深处,这在一定程度上可能会使人产生对自己的不认同,从而对身体和精神发展造成不利的影响。随着社交机器人技术的发展,我们整个社会和整个文化都在发生变化,因此,我们必须考虑它们在这个现实社会中的作用,考虑它们将如何扮演这个角色,以及它们的存在如何影响,重新塑造不同社会主体间的情感和行为及相互依赖的世界。此外,社交机器人的应用还引发了其他的伦理问题:例如,我们应该同情社交机器人吗?如果答案是“是的”,那么我们是应该同情所有的机器人,还是仅仅同情其中的某些特殊类型?我们应该允许对社交机器人采取什么样的行为?我们不仅要免受被社交机器人操纵的可能,例如,生产商利用社交机器人的能力唤起人的同理心达到诱导购物的目的,还需要保护社交机器人免受虐待,因此,法律不应只考虑限制社交机器人的行为,也应该考虑为社交机器人提供法律保护。
科学技术是一柄双刃剑。科学技术是否能起到正面的或负面的影响主要依赖于科技工作者。在人工智能时代,科技工作者要自觉地履行自己的社会义务。归根结底,任何科技发展的最终目标都必须把公众利益放在首位。科技工作者要具有强烈的时代感,具有高尚的科学精神,具有对社会的强烈责任感。在开发一项特殊技术时,科技工作者往往优先考虑如何才能发挥科学技术的最大效益,但很容易忽视人类的伦理关切,因此,科技工作者必须理性地看待与处理人与信息、人与机器、人与科技、价值理性与工具理性、技术可能性与伦理理性之间的关系,将科学与人文相结合。
人工智能时代已然临近,它的到来对伦理道德的要求越来越高,因此,构建一个基于社交机器人的伦理评价系统势在必行。在社交机器人迅速发展的今天,人们必须制定一种新的道德准则,引导社交机器人的行为,并在它的身体里植入相应的道德准则,让它遵循道德和自治的约束。社交机器人的道德规范是由这种制度来指导的。我们可以创造和运用这些体系来解决这些道德问题,并帮助我们设计和管理机器人的行为,与之交流和协作,在现实的环境中,对机器人的行为进行道德上的控制。在此基础上,人们应当对社交机器人的伦理和道德制度进行全面的研究,一并建设其相应需要的辅助措施。政府应该在最短的时间内,建立一个由科学技术、工业、哲学等方面的专家组成的人工智能伦理委员会,以其为决策单位,制定相关的法规和政策,从根本上指导人工智能技术的健康发展。
最后,针对社交机器人的出现和应用可能产生的社会伦理问题,人们也需要发挥立法在社交机器人发展中的建设性功能,对其行为进行法律规制,以便为社交机器人提供法律上的支持。大众是推动科技进步的一支重要力量,他们对于人工智能的认识与态度都与其传播息息相关,社交机器人的构造原理复杂难以理解,再加上人们对其认识不够透彻,往往会产生一种敬畏甚至恐惧的心理。对此,科技工作者要充分运用互联网、大数据分析技术,以及微博、微信等新兴的宣传工具,向公众科普人工智能的基本知识,并介绍社交机器人的真实面貌、应用方向以及对人类可能产生的影响,让人们对社交机器人有一个理性、全面的了解;利用科普演讲、科技展览等多种形式,让广大市民有机会接触到社交机器人,引导民众树立正确的“社交机器人”理念,为未来的发展创造有利的社会环境。■