人工智能情感的伦理风险及其应对

2024-05-21 18:07王潇毅
伦理学研究 2024年1期
关键词:伦理人工智能人类

谢 瑜 王潇毅

决策研究在20 世纪90 年代以前,一直以认知为中心,强调思考的能力,但从20 世纪90 年代起,越来越多地纳入了情感的作用,强调感受的能力。人工智能作为高效的计算工具,已经在很大程度上模拟了人的理性思考过程,但是只有理性没有情感,是否能被称为真正的智能呢?1994 年,神经科学家安东尼奥·达马西奥(Antonio Damasio)证明太少或缺乏情绪会影响判断决策的准确性,引发了新一轮的热议。人工智能领域逐步将“情感”划为重点研究方向,旨在研发“既有理智又有情感的系统”。

情感化已经成为当下人工智能技术发展最重要的趋势之一。百度、小米、苹果、微软等老牌公司,以及试图开拓市场的新锐公司(如太古计算、竹间智能、Sensing Feeling 和Affectiva)都对人工智能情感颇有兴趣。小度、小爱同学、Siri、微软小冰等以“情商”为卖点的社交机器人爆火,机器开始呈现出“具有情感”的一面。2016 年,就职于Affectiva 的加比·齐德维尔德(Gabi Zijderveld)在接受采访时谈道,“也许五年后,这项技术在未来会无处不在;我们会看到很多每天都在用情感与之互动的科技”[1](6-7)。

人工智能情感是指试图将情感赋予人工智能的科技活动过程及产品,是对人类情感进行模拟的产物,主要表现为对人类情感识别、表达和应答功能的模拟,人工情感、情感计算、情感人工智能、情感机器人等都是其具体的技术样态。人工智能情感以提升机器智能、促进人机和谐交互和深化情感研究为目标,在教育、医疗、社会服务等领域有广泛的应用空间。值得深思的是,人工智能情感与传统意义上的情感有何不同,又如何影响人类生活。具体而言,应如何看待情感数据的使用?是否造成隐私被侵犯?人工智能情感是否会带来新的欺骗与控制?人工智能实现的情感是否有其价值?人工智能情感能否真正给予人心灵的慰藉,从而替代人际情感交往?事实上,人工智能情感技术的发展深刻影响着人类社会,在带来效用的同时催生出诸多伦理风险。

一、人工智能情感的伦理风险类别

人工智能开始显现出具有“情感”,使得人机情感交互成为可能,似乎能够破解现代社会面临的情感冷漠、疏离的困境。然而现实是,人工智能情感技术的发展与应用非但没能纾解这些困境,反而对情感的私密性、真实性、体验感、意义感造成冲击,加剧了情感生活的数据化、工具化、机械化,带来了情感隐私泄露、情感欺骗盛行、情感控制加剧和情感能力退化等伦理风险。人机情感的进攻使得人际情感的空间被进一步挤占,情感的疏离与冷漠更甚。

1.情感隐私泄露

人工智能情感的实现必须大量采集数字化的情感情绪信息,并以此训练模型。既然情感数据是实现人工智能情感必不可少的关键,情感隐私泄露的风险就难以避免。情感基于人的身份、个性和人类亲密关系而存在。个人情感昭示着个人生活空间的存在,具有高度私密化的特征。隐私不仅是一项个人权利,而且是一项群体权利。尊重情感隐私不仅是对情感数据的保护,还是对个人尊严与价值的尊重。个性化与隐私之间的悖论使得用户很难获得既满足体验需求又不侵犯情感隐私的个性化服务。鉴于用户在数据的采集、使用、共享、销毁环节缺乏对数据的控制、监督和知情,行业也缺乏相应的统一标准和规范限制,用户很可能会对自己的隐私数据完全失去控制力[2](248-249)。任何关于人工智能情感识别及表达的研究必须经过个人明确许可,否则就可能造成对隐私的侵犯。如果将模型训练中的情感数据用于判断个人身份,则会引发更严重的伦理问题[3](83)。

人工智能情感技术已经造成了情感隐私泄露的现实问题。教育科技(EdTech)公司正在部署情感人工智能来量化社交和情感学习,使用计算机视觉和算法来查看、识别、分类整理和学习面部表情中的情感[4](1)。评估发现,挖掘儿童的情感生活是不符合规范的,当技术并非旨在造福这些儿童时尤其如此[4](12)。此外,人工智能情感的使用有可能引发代际不公平的问题,长期收集情绪数据也不利于孩子的成长和自我认同。父母未经同意对子女情感数据的采集使用使得孩子们几乎无法控制他们童年的数据化,“当你自己的感觉和情绪不再是你的,而是被解析和分享给别人,即使你还没有准备好分享它们——我认为我们已经极大地伤害了这些孩子”[5](4)。

2.情感欺骗盛行

目前的人工智能情感技术还停留在功能模仿阶段,与真实的人类情感存在显著差别,可能带来情感欺骗的风险。真实情感是自然生发的,不需要经过系统学习与训练。在约定俗成的适宜范围内,“真情流露”往往令人欣赏,而“虚情假意”则令人厌恶。人工智能的情感表达越来越逼真,但由于缺乏人的生理心理机制和社会生活阅历,技术很难在复杂的现实情境中产生真实情感。人工智能情感非真实性带来的欺骗可分为两种情形,一种是人类事先对机器人身份知情,但因需要这种“陪伴”而沉湎于虚拟情感;另一种是在人类不知情的情况下,机器人蓄意欺骗[6](10)。随着技术日益发展成熟,前者逐步向后者过渡。当人们把人工智能的“善解人意”当真,将情感投射到情感智能体上时,由于没有认识到人工智能的情感是人在机器中写入运算法则所赋予的,物性遮蔽、否定了人的现实性,就有危及人的生命体存在与繁衍的可能。当人工智能发展到越来越能解决情感问题、越来越能超越传统时空界限的时候,其虚假性将更难识别[7](63-64)。

人工智能情感的非真实性已经对使用者的正常生活造成了影响。索尼公司的人工智能机器狗(AIBO)是作为娱乐机器人开发的,可以通过身体动作、眼睛的颜色和形状来表达高兴、愤怒、恐惧、悲伤、惊讶和厌恶这六种情绪。索尼停止对“AIBO 机器狗”进行技术更新后,僧侣们在日本的兴福寺给114 个“去世”的老一代“AIBO 机器狗”举行了纪念仪式[8]。可以窥见,无论机器人制造商或设计师是否意在欺骗,只要人工智能情感技术能够影响人类情感,就有可能成为情感欺骗的工具与手段。玩偶可以用于痴呆患者的治疗,但在玩偶疗法的实际使用中,许多客户开始相信他们的玩偶是一个真实的婴儿。他们试图喂养它们,甚至准备好自己的床让玩偶睡个好觉[9](1093-1097)。在照顾老年人的过程中使用辅助机器人这种基于应用程序的“物”来构建具有情感维度的护理关系,可能潜藏着使用者蓄意欺骗、削弱护理关系意义的风险[10](35)。

3.情感控制加剧

在传统意义上,情感强调体验感与纯粹性。但当情感因素进入经济领域后,劳动者需要对自身情感进行适当管理,即“为了保持恰当的表情而诱发或抑制自己的感受,以在他人身上产生适宜的心理状态”[11](21)。人工智能情感本应能够将人从情感控制中“解放”出来,解决情感劳动中的情感失调、情感枯竭以及职业倦怠等问题,但这些困境并未被解决,情感被控制、被操纵的风险也在增高。人工智能情感具有成瘾性、单向性,暗藏情感控制加剧的伦理风险。一则,利用社交机器人与人之间亲密、信任的依赖关系可以对使用者造成情感绑架,甚至导致主从关系的变异或颠倒[12](106)。二则,社交机器人的“单向度情感”缺陷本身就会导致情感控制,这是因为面对人类的情感表达,机器人无法提供同等、丰富、深刻的情感反馈[13](57)。

情感控制加剧的风险已经初步显现在人工智能情感的具体应用中。阿米莉亚·万斯(Amelia Vance)在未来隐私论坛上发言,她认为影响情绪的技术“正在推动转向彻底的操纵”。操纵性营销策略利用人工智能算法检测到的人类偏好,为在线商品消费制定个性化成瘾策略,或者利用个人情绪的脆弱状态来推广与他们当下情绪匹配的产品和服务[14]。情绪识别工具将与工人思想、行为相关的内在情感暴露出来,以鼓励他们提高生产力、遵守规则,这实际上是一种情感监视与控制手段,造成更具侵入性的纪律性凝视;如果不加以规范,就会造成算法偏见、决策不透明和雇佣关系的侵蚀,使劳动关系更为紧张[15](97)。

4.情感能力退化

“人是意义动物,我们不是为了追求真理而来到这个世界的,但没有谁不追求意义。”[16](402)人文情感的可贵之处在于其蕴含意义与价值。人工智能情感可能消解情感的本真意义,导致人类情感能力退化。一则,人工智能情感是数字化的情感,是对情感的简化理解与机械化解读,潜藏情感能力退化的风险。这是因为人工智能与人类意识存在本质不同:以数学为基础的自然科学由因果论主导,人工智能、人工情感追求确定性、唯一性、必然性;人类意识以时间性为本质而存在,遵循目的论式存在,与数学的追求相异[17](434)。二则,人工智能情感会影响人们对情感交往价值重要性的判断。交往在发现价值、认识价值、创造价值、实现价值中具有重要作用。物质的、精神的、社会的价值创造和实现都离不开交往,情感的价值生成和实现同样离不开交往。在交往实践中将人工智能情感与人类情感类同,可能引发人们对情感交往价值的怀疑,进而削弱人际交往,造成人类情感能力的退化。

人工智能情感技术在优化人们情感体验的同时,确实存在削弱人类情感能力、淡化人际情感交往的风险。研究发现,构建人机关系会减少建立更有意义的人际关系的机会[18](402)。社会中最年轻的成员——婴儿——有着强烈的好奇心,渴望参与社会互动,但他们的抚育者由于工作等各种原因,缺乏时间,选择让机器人陪伴在婴儿身边,这不仅可能会减少婴儿与人类照顾者相处的时间,还会妨碍婴儿社交、情感和语言能力的发展,阻碍他们理解人际情感及其价值[19](36-37)。如果孩子们开始认为机器人是有生命的,他们可能会以更机械的方式来思考人类和动物,较少考虑其道德地位。商业活动中有商家展示和销售人形机器人,以此鼓励人们与人工智能建立情感关系。考虑到人类的行为是受经验影响的,人与机器人朝夕相处,长此以往,人类也可能会被“训练”得以对待人形机器人的方式与他人互动,造成情感能力退化。使用机器人照顾老人会导致老人的社会互动水平下降,因为其他人会认为老人能够由机器人来照顾,其社会需求也能同时得到满足。

二、人工智能情感的伦理风险归因

人工智能情感伦理既应遵循人工智能伦理的一般共性,也应符合情感伦理的特殊要求。剖析成因是合理应对人工智能情感伦理风险的关键前提。人工智能情感的伦理风险生成原因是复杂多元的:从技术因素看,情感算法在理论与实践上的局限性难以避免;从社会因素看,伦理观念的相对滞后以及工具理性的泛滥助推了伦理风险的生成。社会因素与技术因素交错盘绕,最大的幕后推手实际上是资本逻辑的驱动。

1.资本逻辑驱动

资本逻辑是资本永无止境地追求自身利润最大化与价值无限增殖的趋势和规律,“体现出‘利己性’‘逐利性’和‘贪婪性’的不道德消极属性”[20](123)。人工智能情感技术发展中的资本逻辑驱动首先体现为虚假需要的创设。人的需要包括真实需要和虚假需要。真实需要是“那些无条件地要求满足的需要”,是“生命攸关的需要——即在可达到的物质水平上的衣、食、住”;虚假需要则是“为了特定的社会利益而从外部强加在个人身上的那些需要”[21](6)。消费社会努力生产出虚假需要的目的在于推动消费,背后是资本扩张的需求。人工智能情感化未必是人最真实的需要,但一定符合资本扩张的需求。人工智能情感技术创新发展的速度远远赶不上其推广营销速度,人工智能的“一颦一笑”都被极度夸张放大到营销海报、宣传视频里——人工智能或许“情非得已”“表里不一”,但资本家确是“难掩笑意”“满面春风”。

人工智能情感的商业价值不容忽视。人工智能情感化趋势是符合社会发展需要的,在现阶段表现为服从效益逻辑。能够取得经济效益是技术研发者、生产者必须考虑的重要因素。“资本的逻辑是求利的逻辑,技术内在追求利益和利益最大化的特点和资本追求增殖本性形成内在的共契,甚至可以说是共谋。”[22](64)纯粹的技术发明本身无所谓善恶,但技术的资本逻辑操纵是造成诸多伦理风险的根本原因。如果不对资本逻辑加以规制,人工智能情感作为一种新的生产杠杆很可能成为资本压榨人类劳动的新手段,即“生产资料奴役生产者的新手段”,导致人机关系进一步异化。逐利者若只看到人工智能情感带来的经济效益与广阔市场,忽视人的真实感受与需要,背离以人为本的科技伦理原则,就会一步步走向不为人的技术发展。人工智能不仅并未彻底消解“情感劳动”异化,还衍生出了情感真实性疑虑、人格同一性威胁、情感同质化等新的异化,其深层根源在于资本主义生产关系和社会制度[23](20)。

2.情感算法局限

人工智能情感的技术核心是算法,其伦理风险生成与情感算法本身的局限性有关。它首先与算法理论上的不完善不成熟相关。由于情感的复杂性、情感外在表达与内在实质关联的不确定性、机器缺乏人生社会体验机制与对情感的真正理解等,算法能够实现的“情感”还不具备真实感,人工智能情感与人类情感存在着质的差别。这种差别是技术实现上的,也受制于科学理论的发展。由于人类情感机制的复杂性、神秘性,无论技术如何进步,技术实现的人工情感如何逼真,始终难以达到人类情感的诚恳、真切、自然。从这个意义上讲,人工智能情感化是技术发展的一个重要趋势,会持续呈现出正在发展、正在进行的状态。这种趋势化与不确定性给了营销者“阐释”的可能与空间,而消费者却无法完全把握人工智能情感的真假与表现程度,这带来了不可预估的伦理风险。

除了情感算法理论上的不完备给了不良商家钻空子的机会,风险的生成也与算法运行机制中的局限有关,如“算法霸权”与“大数据鸿沟”带来的信息不对称。“算法霸权”造成了情感算法的使用者和使用对象之间的信息不对称。算法的保密性、技术盲点、复杂性以及算法使用者的刻意隐瞒,使大多数人无法了解算法的工作原理。算法的使用者在可解释性上占据主导地位,形成“算法霸权”。情感算法的使用者与使用对象之间存在信息的严重不对称——在现实生活中“知情同意”机制往往不能起到应有的作用,用户并不十分清楚点击“允许”按钮意味着什么。“大数据鸿沟”造成了情感数据的生产者和处理者之间的信息不对称。情感算法的运行离不开数据。数据的生产者和数据的收集、存储、分类者在数据拥有量、数据分析能力和数据思维等方面存在巨大差异。“一方面,个人生产大量原始数据,却不掌控数据使用对生活、生产带来的颠覆性影响,甚至不了解大数据对个人私生活、私领域的偷窥与再处理;另一方面,掌握海量数据的处理者具有前所未有的权力,利用数据影响公共生活乃至私人生活,大数据在个体与组织机构间形成大数据鸿沟。”[24](69)“算法霸权”与“大数据鸿沟”叠加,情感算法的使用者和使用对象、情感数据的生产者和处理者之间存在严重的信息不对称,造成了情感隐私的泄露、情感欺骗与控制等伦理风险。

3.伦理观念滞后

人类社会的道德标准与价值判断具有相对的稳定性,在飞速发展的新兴技术面前难免具有一定的滞后性与局限性。首先,人工智能情感这种新兴技术是在机器主体性的传统伦理问题没能解决的基础上发展起来的。人工智能的技术飞跃或者所谓“智能大爆发”带来的应用伦理问题是一系列老问题的叠加[25](22)。由于人类中心主义知识的可及性和适用性、解释和理解其他代理行为的动机以及社会接触和建立联系的愿望,人类一直有将非人类主体拟人化的倾向[26](864)。人工智能情感技术引发了学界新一轮的争论:能够模拟人类情感的人工智能是否应当具有主体性,又是否能够成为道德代理?如果将具有情感功能的人工智能视为主体,那么人机关系就应被视作人际关系的新形态。尚且不说情感功能能否等同于情感,协调人机在工作、社交等方面的公平公正已经十分困难。如果将人工智能视为客体,那么如何理解它们类似于人的情感表达;如果冷漠对待机器的情感表达,长此以往会不会迁移到人身上,加剧人际的情感冷漠?既然前面两条路都行不通,赋予人工智能特殊主体地位似乎成了不二之选。但是,这种特殊地位由谁赋予、怎么赋予?出了问题又由谁来负责?关于机器主体性的传统争论横亘在人工智能情感技术面前,长期没有较为一致的说法,也就未能形成有效的规约机制。相对局限的伦理观念与技术的新发展叠加衍生出了新的伦理风险。

其次,伦理观念的建构相对于科技活动的创新存在滞后性。“科林格里奇困境”揭示了技术控制可能陷入的两难困境,即在技术发展早期阶段,这时控制其风险是较为容易的,但是对其有害社会后果的了解还不够充分,因此没有理由控制它的发展。当后期这些后果显而易见时,控制已变得代价高昂和缓慢。为此,科技创新和风险防范之间总是相互掣肘、难以两全:针对人工智能情感进行有效的伦理设计需要对技术的潜在风险和危害有透彻的理解,而深刻把握技术本质及其伦理风险又需要科技的充分发展。伦理观念较为稳定的特性导致了其更迭不会像技术更新那么迅速,在新的伦理观念尚未建构起来时,新兴技术与传统观念之间的张力会引发新的伦理风险。

4.工具理性泛滥

在韦伯以“理性化”为核心建立的现代化理论中,人类的理性可以区分成工具理性和价值理性两类。工具理性强调手段与目的的实现,具有鲜明的功利导向;价值理性强调信仰而非目的,看重过程中的价值。当工具理性在程度与范围上急剧扩张,便造成工具理性泛滥。工具理性泛滥挤占了价值理性的空间——技术的发展“不问目的只求实现”,还要“尽快地侵占”“尽可能多的实现”。这种效率至上、具有明确目的导向的思维助推人工智能情感技术迅速发展,不可避免地催生出新的伦理风险。

人工智能情感是一种技术对情感的控制。人们对情感运行机制的认知有限,因而人工智能对情感的模拟只能从有限的情感表征入手,比如模仿人类情感表达的面部表情、声音效果、肢体状态。人工智能可以用仿生的面部五官表达喜悦、用柔和的合成声线表达安慰、用机械手臂环抱人体表达友好。从技术实现的角度讲,人工智能情感的实现过程就是将情感表征量化转换为计算机能够操控处理的数据符号,然后再将其通过程序在人工智能体上复刻实现。这一过程充斥着将万事万物控制计算、量化还原的工具理性主义思维。从技术效益的角度讲,人工智能情感不一定是一个合理的技术目的,但一定是一项令人惊叹的技术手段。令无数研究者前赴后继的,也不一定是真正情感的人工实现,人工智能情感理念中的商业价值本身就足以让主张利益至上的工具理性主义者兴奋了。

三、人工智能情感的伦理风险应对

由于情感的复杂性与内在性,人工智能情感以较为隐蔽的形式潜移默化地侵入人类社会,影响人类生活;又由于技术背后操纵者——资本的逐利性,这类技术实质上猛烈、无孔不入地侵蚀着人类情感。加强人工智能情感伦理风险应对的相关研究,从根源上说需要规制资本的无序扩张,推动科技向善,将伦理观念融入技术设计。在科技发展方面,应当坚持敏捷治理,以人的价值与真实需要为尺度规制算法;在伦理建构方面,应当坚持以伦理先行的要求逐步健全人工智能情感相关的伦理法规;在观念引导方面,应当深化对技术的人文反思,以价值理性思考人工智能情感技术的发展,警惕情感工具化。

1.推动科技向善

面对资本无序扩张导致人工智能情感带来的种种风险,需发挥社会主义市场经济在市场统一有序、资源合理配置、发展集中力量等方面的显著优势,规范和引导资本健康发展,推动科技向善。从“承认资本、利用资本、发展资本”的角度讲,应当激发资本作为生产要素的经济活力,引导资本在合法与合道德的限度内进行人工智能技术的情感赋值,合理地利用和把握情感数据,满足人们的情感需要,促进人工智能情感技术向善发展。从“驾驭资本、规范资本、超越资本”的角度讲,应当为资本发展设置底线,避免商家利用情感算法不当得利,进而引发情感异化和科技异化等伦理风险。摆脱资本桎梏的人工智能情感技术,将成为全体人民共有的社会财富。

将价值理念融入技术设计能够为人工智能注入一颗“良芯”,有利于人工智能情感技术向善发展。好的技术设计不仅能够为相关利益者的诉求服务,也能促进相关制度规范的完善,引导技术实现升级和优化。根据费雷德曼提出的“价值敏感设计”,应将具体的价值原则嵌入到人工智能技术的结构之中,使技术拥有一定的价值倾向。在技术设计的过程中植入尊重人的主体性的伦理观念,能够有效避免“主仆异位”现象的发生。只有合乎伦理观念的技术设计才能够促进人机交互的和谐性,推动科技向善发展。运用辅助AI 系统进行情绪识别和疼痛监测具有光明前景,但是要使AI 助手有利于人机交互,就需要确保AI 疼痛识别和类人共情表达是以一种合乎伦理的方式发展起来的。具体而言,不仅需要考虑个人数据的隐私性和安全性,让创造者和用户都充分知晓信息的变化、可能的健康问题,而且面对人工智能系统的局限性,比如有偏见的数据造成的算法偏见,需要建立用户对人工智能局限性的信任和理解[27](15)。

2.实行敏捷治理

《新一代人工智能治理原则——发展负责任的人工智能》对敏捷治理作出阐释,即“尊重人工智能发展规律,在推动人工智能创新发展、有序发展的同时,及时发现和解决可能引发的风险”[28]。要兼顾人工智能情感在技术发展与伦理治理方面的平衡,敏捷治理是必然选择。不断加强、调整对伦理、规范和治理方面的认识,根据不同部署和相关法律要求设计情感人工智能(EAI)系统,将公共标准应用于人们日常生活中使用的私人网络,有利于应对人工智能情感对个人空间边界和身体完整性边界造成的考验[29](10)。敏捷治理要求既避免规约不足导致社会问题频发,也避免过度监管阻碍技术发展,及时开展系统的风险监测和评估,调整治理策略。一方面,准确识别具体情境中的情感,理解和分析情感,进而作出能够改善人机交互的合理回应,需要以准确把握情感的本质与规律为基础。攻关情感科学的基础理论研究,进行负责任的科技创新有利于解决情感算法的局限性问题。

另一方面,为敏捷应对情感算法的局限性导致的伦理风险,需要从数据或算法方面对情感算法加以规制。从数据层面进行规制能够避免资本对情感数据的私人占有,消弭因对情感数据掌握程度不同带来的“大数据鸿沟”,促进公平公正。比如,如果将人脸情绪数据界定为《个人信息保护法》下的“个人信息”,那么人脸情绪数据的处理就会受到相应调整,这将最终影响人脸情绪识别算法的实际运转[30](43-44)。从算法层面进行规制能够让情感算法在适宜的范围内发挥作用,避免滥用、误用情感算法造成“算法霸权”。比如,面对科学界关于人工智能是否能检测情感的严重分歧以及未经严格把关的情感识别技术的迅速使用,应当在教育、保健、就业和刑事司法等所有领域采取保护措施,监管能够解读人类情感的人工智能,防止这些工具未经审查的使用[31](167)。

3.健全伦理法规

人工智能情感技术在发展成熟后带来的风险挑战很可能是具备威胁性、易失控的,因此逐步完善人工智能情感技术相关的伦理规范十分必要。伦理研究已经介入科技治理的各个环节,对人工智能科技发展起着引领性、支撑性和规范性作用。为避免伦理观念滞后带来的伦理风险,应当坚持“伦理先行”。一方面,应不断深化人工智能伦理基础理论研究与问题探究,推动人工智能情感相关的科技伦理共识的形成,加强科技伦理宣传与教育。另一方面,应不断完善人工智能伦理相关制度规范,制定人工智能情感相关的伦理原则、规范和政策,引导良好社会伦理观念的形成。以伦理规范制约情感信息识别与情感算法使用,能够从源头上确保人工智能情感技术不侵犯人的隐私权、知情权、安全权,保障人最基本的权利。如,按照科技部、教育部等牵头印发的《科技伦理审查办法(试行)》,人工智能情感科技活动在研发过程中涉及个人情感信息的使用,使用过程中可能影响人类心理情绪,必须严格依规进行科技伦理审查与伦理复核。依规审查有利于规范人工智能情感的科技活动,强化科技伦理风险防控,促进负责任创新。

伦理观念的建构需要加强底线思维,科技伦理规范的实施也需要完善相应的法律法规作为强制力保障。中共中央办公厅、国务院办公厅在2022 年3 月印发的《关于加强科技伦理治理的意见》中明确指出,“‘十四五’期间,重点加强生命科学、医学、人工智能等领域的科技伦理立法研究,及时推动将重要的科技伦理规范上升为国家法律法规”[32]。面对技术发展带来的严峻挑战,制度化、法律化地解决人工智能情感带来的伦理问题,以立法保障科技伦理规范的实施十分必要。一方面,新兴人工智能情感技术的伦理共识形成有一个必经的过程,在此期间加强立法能够有效保障公众权益。另一方面,对于威胁人的主体性、侵犯人的尊严的情感算法,必须积极立法进行强硬规制。

4.深化人文反思

应对人工智能情感的伦理风险,需要深化对技术的人文反思。首先,应当以价值理性引导人工智能情感技术发展,兼顾技术可行与价值认可,深入思考“为什么要发展人工智能情感技术”。部分学者认为技术发展带来的问题最终必须靠技术的进一步发展来解决,主张通过赋予不同级别的情感机器人以不同程度的情感来解决人工智能情感产生的伦理问题。实际上,这或许只是工具理性主义者的一厢情愿,难道逼真到一定程度的人工智能情感就应当与人享有对等的权利、义务和尊严了吗?回归价值理性的维度进行思考,人工智能情感不只是技术实现层面“能不能成”“如何做成”的问题,更是伦理反思层面“应不应该”“为了什么”的问题。

其次,应把握“人机情感”的尺度,警惕情感工具化。人的情感是自然生发的,是与人的认知、意识、行为相通的,与人的经验、经历和当下的内心状态相匹配。人工智能情感是对人类情感的技术模拟,将情感推向技术,情感与人身脱离后被赋予“无心”的机器。理念中过度的工具理性思维可能带来情感工具化的风险。一方面,从事人工智能管理、研发、供应、使用等相关活动的人员应当随时保持对情感工具化的警惕,对人工智能情感的技术本质进行充分的说明,把握技术模拟、影响情感的尺度。另一方面,面对人工物的情感表达,公众应当保持审慎思考。近期机器人心理学在实证调查中发现,赋予人工智能情感产生的一系列伦理问题根源在于人会有意识地将情感“植入”人工实体(如机器人)中[33](621)。应引导人们遵从人机情感伦理规范,在强人工智能时代来临之前使公众知晓如何与其相处,把握“人机情感”“人机共生”的尺度[34](122)。比如,当涉及制造性爱机器人以及在此类机器中输入模拟爱情、人类恋爱心理的程序时,应该认识到爱情关系不只是为了满足身体欲望,使用者不要把拟像之爱误当成真实之爱[35](408)。

人工智能情感技术的发展推动了人们对“人类情感究竟是什么,又有何特殊”这一亘古不变又常谈常新的话题的再审视。人工智能情感技术的发展在技术情感化的同时导致了情感技术化。我们在追求科技进步的同时需要加强对技术发展所引发的伦理风险的反思。而要从源头上规约人工智能情感的伦理风险,须得从资本逻辑驱动下人与技术的关系入手,深入分析人工智能情感的生发机理。

猜你喜欢
伦理人工智能人类
《心之死》的趣味与伦理焦虑
人类能否一觉到未来?
人类第一杀手
护生眼中的伦理修养
1100亿个人类的清明
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
人类正在消灭自然