人机融合智能的自我意识与交互主体性

2023-03-25 18:27:26宋春艳
伦理学研究 2023年5期
关键词:人机共情使用者

宋春艳

人机融合智能是人与机器人协同形成的群体智能,是人工智能发展的高级阶段,甚至可能是保证人工智能向善发展的唯一路径。语言是自我意识和主体性的载体,ChatGPT 的横空出世让人们开始思考人机之间是否产生交互主体性。这到底是一个理论问题还是一个实践问题呢?

一、人机融合智能的含义

人机融合一直是人类的梦想,科学家为此进行了长期的努力,早期的“人因工程”就对人机融合进行了科学探索。国内自动化界学者刘伟首先明确提出“人机融合智能”这一概念,认为人机融合智能是由人、机、环境相互作用而产生的新型智能系统[1](216)。大数据人工智能、互联网群体智能、感知和跨媒体智能、人机混合智能、自主智能系统是目前最主要的五类人机融合智能[2](1-2)。人机融合智能吸收了人工智能与人类智能各自的优点,在输入端,将传感器采集到的客观数据与人的感知主观信息整合,形成新的识别;在信息处理阶段,将人工智能的计算能力与人的认知相结合,形成新的理解;在智能输出端,将计算机迭代的算法与人在决策中体现的价值效应相互匹配,形成新的判断[3](8-9)。本文认为,人机融合智能就是人与智能机器人(包括硬件机器人和软件机器人)通过网络连接起来,形成一个人机优势互补、信息交互的群体智能系统。当代人机融合智能的“机”在技术上不再局限于基于传统信息技术的计算机,而是指由会聚技术构成的智能机器人,“环”(环境)则指网络环境。

人机融合智能是一种群体智能已经成为共识。当前,在仿生学、人类学、认知心理学、计算机科学等交叉研究的基础上,群体智能的外延已经从自然群体智能扩展为人工群体智能,也即从自然界简单的动物种群、复杂的人类群体扩展为人工机器群体以及多样的人机交互的智能群体[4](134)。由此,人机融合智能可以粗略地分为两类:一类是人工机器群体,人是隐性出现的,人机交互也是隐形的;另一类是人机交互的智能群体,人是显性出现的,人机交互也直观可见,不仅有语言交互,还有手势交互,面部表情交互等。本文的人机融合智能主要指第二类。人机融合智能是人与智能机器人组成的群体智能,为了剖析人机融合智能的自我意识与交互主体性的关联,需要首先厘清作为组成部分的人的自我意识与主体性的关联、智能机器人自我意识与主体性的关联,然后再讨论作为群体的人机融合智能的自我意识与主体性的关联。

二、人的自我意识与主体性的关联

自我意识是主体性的前提。在西方哲学传统里,“自我”(self/ego)与“主体”含义接近,甚至等同使用。《牛津哲学词典》中,“主体”(subject)与“自我”(ego)具有同样的含义。“主体性”(subjectivity)是言说者把自己建构成一个主体的能力。语言对人主体性的建构起到了不可或缺的作用,因为只有言语者用人称代词“我”建立起一个观察和认识主体,自我意识和自我概念才得以建构[5](10)。拥有自我意识,才能建构主体,因此,自我意识是主体性的前提。

自我意识是心智的重要内容。诺贝尔生理学或医学奖获得者埃克尔斯在《脑的进化:自我意识的创生》(Evolution of the Brain:Creation of the Self)一书中指出,自我意识是心智中最高级的精神体验,这意味着一个个体知道他自己知道,当然最初这是一个主观的或自省性的判断标准。然而,通过语言交流,个体可以验证其他人也同样具有这样的自知经验[6](218)。通过“我”的表述,主体性得以建构,因此语言不仅是自我意识的载体,也是主体性的载体。

胡塞尔认为,先验主体间性是绝对的并且是唯一自足的本体论基础,每个客观事物都从那里获得其意义和有效性。这种主体间性概念实际上是一个交互(inter)-主体性概念,即主体之间的关系[7](118-119),而主体间世界是主体间经验的相关项,即以“移情作用”为中介的经验[8](364),回答了“我怎样才能经验另外一个主体”的问题。胡塞尔的主体间性是一种先验的社会性,自我构成了他者,客体被悬搁。海德格尔的观点与此一致,主体间性则指向存在或解释活动中的人与世界的同一性。它不是主客对立的关系,而是主体与主体之间的交往、理解关系[5](11)。二人都把交互主体性作为一种本体论论题,交互主体性由此成为自我的原初存在方式,我原初就是作为“我们”——交互主体性——而存在,就此而言,人所体验到的一切意义也都是交互主体性的[9](83)。胡塞尔还将心理学中的“共情”(empathy)概念引入现象学主体间性(即交互主体性)的研究中,认为主体间性就是纯粹的自我意识如何在自身意识经验中构造出他人[10](189)。这对机器人人工共情设计具有重要的启发意义。

三、智能机器人被动获得类主体地位与自我意识的悬搁

当前,智能机器人尚处于弱人工智能阶段。学界主流的观点认为,人工智能(或智能机器人)是没有自我意识的,包括ChatGPT,所以不能成为人工道德行为体。这是否意味着机器人伦理学就无法推进了呢?考科尔伯格(Mark Coeckelbergh)另辟蹊径提出基于经验的人类中心伦理,认为应从关注机器人内在的意识和心智转向关注机器人在人机互动中外在表现的伦理意义和关注并想象个人与机器人一起实现美好生活的可能性[11](217-221)。在这一外在主义思路下,机器人伦理研究不应将焦点放在如何实现机器人的意识上,而应重点关注机器人在我们人类的意识中是如何出现的;不应争论如何赋予机器人责任和权利,而应研究、想象和设计如何让机器人帮助人类实现美好生活。这就使得机器人可以在自我意识“悬搁”的同时仍然能够实现“向善”的目标,人工共情的设计是实现这一目标的重要手段。人工共情的设计初衷在于利用机器人的社交表现激发人类情感反应能力,是一种单向的人对机器人的共情。其中,作为使用者的人在交互时赋予了机器人主体地位,这是一种非对称共情。根据“非对称社会互动感知论”,虽然共情(empathy,原文作者译为“移情”——引者注)主体之间感知能力不对称,但依赖占据优势地位的人的先验认知能力和共情对象的行为表现,在有交互“氛围”生成的社会环境中也可能实现共情[10](191)。新近横空出世的ChatGPT 虽然号称具有惊艳的思维链推理能力,但逻辑推理的有效性并不能保证结论一定正确,正因为如此,使用者才会戏谑ChatGPT 是在“一本正经地胡说”。不过,ChatGPT 确实是目前最为优秀的大语言模型,它对使用者说话意图的准确把握和无所不知的响应让使用者误以为其已经具备和人一样的思维能力和自我意识,从而将Chat-GPT 看作聊天伙伴或者助手而不是冷冰冰的机器,赋予其主体地位。

当交互主体性成为自我的存在方式,人机融合成为新的人机关系,人机交互主体性的产生就成为必然。人机交互主体性的存在使得智能机器获得类似于人的主体地位,这种主体地位是被动获得的,是由人赋予的,因此并不必然要求智能机器人具有自我意识。智能机器人的自我意识在此时被“悬搁”,类似于胡塞尔在交互主体性中将“客体”悬搁。

四、人机融合智能的自我意识与交互主体性

1.人机融合智能自我意识的产生途径和本质

人机融合智能是一种群体智能,人机融合智能自我意识的研究必然绕不开人机融合的路径探讨。近年来,一些学者从身体与技术的相互建构来探讨人机融合的哲学基础,“他心”作为哲学中的经典问题在人机融合智能的研究热潮中再次受到重视。崔中良和王慧莉借助梅洛-庞蒂关于他心的经验基础研究,将“融合社交”作为人机交互的哲学基础,认为感知生成是人机交互的现象基础,经验沉淀为人机交互提供历时可能性,通感是实现人机交互的功能表现[12](136)。高慧琳和郑保章基于麦克卢汉“媒介是人的延伸”理论提出“人机融合”理念,并从人与机器的感知融合、行为融合和思维融合出发,探讨了人机融合的本体性、渐进性和辩证性,并号召赋予人机融合智能设备积极的意识引导和正确的价值观[13](27-32)。

科学家和工程师对人机融合提出了更具实践意义的路径,人机融合就是将人的意向性与机器的形式化进行综合,从而使得人机融合智能能够像人那样对事情发展时态及趋势进行准确预测。其中,意向性是对内在感知的描述(心理过程、目的、期望),形式化是对外在感知的描述(物理机理、反馈)[14](288)。如何构建人机两者的沟通模式呢?美国软件设计师、交互设计之父艾伦·库伯(Alan Cooper)提出的“用户画像”模型颇具探索性。用户画像可将用户所拥有的知识、价值、情感等模型转化为机器可理解的计算模型。在基于对用户理解的基础上,机器可以进一步地改变自身的行为模式来适应人的感觉方式,使得人机交互能够尽可能地根据使用者的需求,适应人的特点,形成最和谐的人机融合[14](297-300)。也就是说,在人机融合中机器主动适应人,而不是人主动适应机器,尽管人们习惯性地仍将人机融合与人机交互不加区分地使用。研究表明,当类人机器人能够对使用者产生共鸣(show empathy)和互动时,其接受度更高[15](1)。这种机器人表现出来的情感共鸣会让使用者产生共情反应,提升用户体验效果。

人机融合智能虽然可以实现人机共情,但这种群体智能的自我意识仍然是由人主导的,因为只有人的意识具有内在目的性,人的内在意识与外在世界的对象具有“适应方向”。智能机器人的意识虽然可以通过传感器的数据表现出来,但却不是内在的目的,而只是数据的传输,是外在的。因此,只有人才是人机融合智能的主体,主导着人机融合智能的自我意识和行为选择。人机融合智能的水平,表面上是依赖数据、算法、硬件的提质升级,但最终起作用的还是认知科学和相关学科的不断突破。人机融合智能的自我意识,本质上还是处于交互环境中的人的自我意识,这成为人机融合智能交互主体性产生的前提。

2.人机融合智能人机交互主体性的产生途径及本质

人机融合智能中信息的交互,一般都是人机双向或者机器与机器之间进行信息交互。这种交互除了传统的基本文本交互和图形交互外,还包括语音交互、体感交互,甚至脑机交互。为了达到更好的交互效果,算法常常投其所好,在社交机器人中加入人工共情功能的设计,使得机器的行为越来越像人。这就为人机交互主体性的产生提供了技术可能。

在人机融合或交互中,人的自主性、能动性和创造性在技术的帮助下得以增强,即技术建构了赛博主体性[16](58)。赛博主体性是在人与技术双向建构中产生的新的自主性,是人与技术的双向驯化。一方面,技术对人的生命与生活进行全面深度干预,同时参与建构着人与世界的关系,这种技术作出适应性的改变以满足人的需求,本质上是人对技术的“驯化”。但自工业革命以来,人对技术的依赖逐渐加深,诸如追求效率的技术逻辑深刻地渗透到人类的主体意识中,规约着人的主体实践,人也被技术“驯化”。主体性也在双向驯化中向外在环境(包括技术)延展。

人机融合中产生了由人主导的交互主体性,不仅因为交互主体性是自我的原初存在,也因为人机交互本质上也是一种社会交往,哈贝马斯的社会交往理论有助于理解人机交互的主体性。哈贝马斯把现实社会中的人际关系分为工具行为和交往行为,认为工具行为是主客体关系,而交往行为是主体间性行为[5](11)。随着人机交互中机器主动适应人类,以及人工共情的良好表现,人机交互已经从工具行为变成了交往行为。有学者认为,智能杂合体将人类的主体性与非人类力量的拟主体性相互嵌合、集于一身[17](38)。这实质上就是人机融合智能的交互主体性。人机融合智能的交互主体性本质上是使用者的一种功能赋予,赋予原本作为客体的智能机器人主体地位,人机交互中产生的人机关系则体现出延展的交互主体性。

五、人机融合智能交互主体性的道德后果

人机融合智能的发展对人类主体性产生了深刻影响。一方面,智能机器人的发展使人类在很多领域具有了超越自身的能力,提高了人类的生产效率和生活质量。另一方面,人机融合智能的发展也引发了人类对自身存在(包括主体性)诸多问题的反思。尽管人机融合智能的自我意识仍然是由人主导,但是人机交互主体性可能引发各种相互缠绕、错综复杂的道德后果。这种道德后果可能是积极的,也可能是消极的,还可能同时带来积极的效果和消极的后果。

1.意识经验结构的改变与自我的损耗

自从技术诞生,人与技术就开始进行社会性融合。当前,随着会聚技术的发展,人技融合从社会性融合进化到自然性或身体性融合。在人机融合智能中,处于认知环境的智能机器人,已经从影响人认知过程的环境要素逐渐成为新的重要的认知类主体,协助人类甚至代替人类进行选择和决策,对人的影响已经从器物文化层面上升到观念文化层面,深层次影响着认知主体的态度和行为。与此同时,在人机融合的大背景下,人又可能成为其他认知系统的环境要素,认知主体与环境可以相互转化。总之,人与认知环境的边界逐渐消除,人类意识与认知环境表现出“意识”深度融合。例如,以互联网为代表的智能系统,一方面拓展了人的认知宽度甚至深度,增加了认知主体的可选项,但另一方面也将数以亿计的人脑(及其创造的自我隧道)整合到全新的媒介环境或认知环境中,从而改变了人的意识经验的结构。一旦有人通过互联网或利用新媒体来争夺认知主体有限的注意力以实现商业利益或其他目的,就可能导致自我损耗(self-depletion),自我控制的能力也随着注意力的消耗而降低[18](300-301)。

2.机器依赖与虚拟亲密关系的建立

当前,基于互联网组织架构的人机融合智能比较常见,互联网的平台效应使得人机融合智能在某些问题上实现了1+1>2,有助于人的认知增强,并由此赢得使用者的信任。由于人机交互体验的提升,机器人的“善解人意”可能让使用者产生依赖,甚至与智能机器人产生亲密关系。已经有心理学研究表明,ChatGPT 可以产生适当的情感意识(emotional awareness,EA)响应,并且在情感意识评估中超越一般人群,预计随着使用时间的增加,其性能可能还会显著提高,因此,ChatGPT 可以用于EA损伤临床患者的认知训练以促进患者心理健康。但这种虚拟的亲密关系也可能带来负面影响,一旦交互中的智能机器人给出虚假的信息,使用者也可能不加反思而接受[19](1-7)。《人类简史》的作者尤瓦尔·赫拉利(Yuval Noah Harari)因此对人类发出警告,人工智能或智能机器人无需意识就能威胁人类文明,因为人工智能虽然没有感觉和意识,但却能激发人类的感觉,让人类依附于它。通过对语言的掌握,人工智能可以与人建立虚假的亲密关系,并利用亲密的力量来影响人类的观点和世界观[20],从而对人类文明的发展产生重要影响。

3.隐私安全与远程受控的风险加剧

人机融合技术涉及人类身体和自身智能水平的提升和替代,因而其一旦失控,将对个人的身体安全和隐私安全带来双重风险。人机通过信息或数据进行交互,人的身体和周围的一切对象和活动都被数据化,智能化的数据已经作为人类的第二肉身被储存在网络和电脑中,个人变成了数据主体。如何保证数据主体对个人信息进行有效控制就成了数据时代保证个人隐私安全和自主性的关键[21](30)。例如,脑机接口技术一方面能让大脑中某些脑区失去意识的患者重新建立与身体的连接,但是仍然需要让脑与身体通过有监督的训练提高准确率,而且二者通过网络连接保持交流,网络攻击或者技术上的不稳定将会给人脑造成直接伤害。隐私方面,过去使用者在互联网上留下的痕迹可以让他人回溯并以推断的方式来窥视他的思想,而新兴的脑机接口技术将会进一步加剧这一问题,让人类的思想变得可读,从而使人处于一种身心透明化的状态。而对于具有自主性的人工机器群体,远程失控的危害则更大,受到伤害的无辜群体人数会更多。对于这样的危害,赵汀阳提出关键性措施积极应对,一是禁止研发能说“不”的机器人;二是形成全球伦理,共同维护全球正义[22](12)。

4.人格同一性变化及责任归属困难

人机融合智能是一个群体智能,也是一个赛博格,因此在人机交互中智能机器人的自我意识(虽然只是功能性的)必然与人的自我意识相互作用,这就带来了人格同一性变化的风险,而人格同一性又与责任、权利等概念紧密相关,因此不容忽视。尽管如此,对于增强型人机融合智能,尤其是脑机接口这类与人脑直接相连的人工智能,使用增强技术是否影响人格同一性呢?有研究表明,深度脑部刺激技术使用后可能带来人格特征和行动能力的改变,由此引发不良后果,那么这样的后果应该由谁来负责呢?人格同一性是否改变涉及个人同一性的界定标准?当代关于个人同一性标准的讨论从实在论转向了功能主义,动态的自我叙事时刻在构建个人同一性,能够被自我所体验、理解和认可的新意识内容都会通过意识的解释机制整合进个人的叙事同一性之中[23](67)。如果人机增强智能使用前后的变化都是得到使用者认可的,那么由于增强效果产生的特征就应该被纳入个人同一性之中,个人必须为增强后造成的过失负责。但如果使用者不认同其由于手术改变了的性情或价值观,那么这个主体就没有完全的责任[24](116)。在这种情况下,使用者可能陷入两难,要么放弃增强(或者治疗)避免人格特征或心理特征的改变,要么接受增强带来的改变并对行为后果负责。

结论

交互主体性是人的自我的原初存在。人机融合智能使得人机交互从人主动适应机器,转变为机器主动适应人,人机产生了交互主体性。人机的交互主体性源于人的交互主体性赋予了智能机器人类主体地位,智能机器人的自我意识被“悬搁”。机器人的伦理意义不必再依赖意识和思维,而是依据其在人机互动中的外在表现。这就是人机互动伦理的核心要义。社交机器人人工共情的设计就是这一理念的实际应用。

猜你喜欢
人机共情使用者
网红会和打工人共情吗
“法定许可”情况下使用者是否需要付费
人机“翻译员”
发现高潜人才:共情与谦卑
商业评论(2022年4期)2022-05-05 23:01:30
共识 共进 共情 共学:让“沟通之花”绽放
从内到外,看懂无人机
南都周刊(2021年3期)2021-04-22 16:43:49
幼儿共情能力培养中存在的问题及对策
甘肃教育(2020年17期)2020-10-28 09:02:26
新型拼插休闲椅,让人与人的距离更近
好日子(2018年5期)2018-05-30 16:24:04
“人机大战”人类智慧遭遇强敌
海外星云(2016年7期)2016-12-01 04:17:50
抓拍神器