谢 小 飞,吴 家 华
(安徽大学 马克思主义学院,合肥 230601)
情绪识别(Emotion Recognition)是一种利用公众个体的面部表情、身体姿态、语音语调等特征来进行心理活动监测的新技术,它能够捕捉到人类难以察觉的细微变化,计算出人的压力、焦虑度、侵略性等参数,进而通过算法完成“情绪理解”。面对情绪识别技术逐步嵌入经济社会生活的新情况,如何审视情绪识别技术催生的伦理风险危机,诠释其伦理风险的生成原因,并在此基础上提出规避伦理风险的实践方案,便成为我们在人工智能时代亟须回应的焦点议题。
德国著名社会学家乌尔里希·贝克指出:“风险是不可见的。暗含的因果关系常常维持着或多或少的不确定性和暂时性。”[1]这就意味着,我们只有在明确技术可行性的基础之上,才能够进一步探讨技术的伦理可接受性。因此,我们想要将情绪识别技术置于伦理层面来予以诠释,就必须首先明晰情绪识别技术的应用价值和最新进展。就其应用的最新进展情况来看,情绪识别技术应用领域十分广泛,对于经济社会发展具有重要价值。
一是在刑事审讯场景中,情绪识别技术能够帮助工作人员实时掌握犯罪嫌疑人的情绪变化,显著提高审讯效率。目前,一些审讯机关已经推出了智慧警务系统,搭建起以情绪识别技术为核心的智能分析平台。例如,江苏省宜兴市人民检察院早在2014年就开设了微反应实验室,多次凭借情绪识别技术取得了案件的突破性进展[2]。
二是在交通出行场景中,情绪识别技术能够在驾驶员出现异常情绪时发出实时提醒,辅助人们安全出行。目前已有汽车厂商在车上配置了情绪感知功能[3],一旦驾驶员出现疲劳、激动、愤怒等异常情绪,这种汽车就会在第一时间发出警报来加以提醒,从而在一定程度上规避险情的发生。
三是在舆论监测场景中,情绪识别技术能够协助工作人员实时“阅读”人们的情绪变化,及时发现舆情风险。当前,情绪识别技术日趋智能化、微型化、远程化,在网络意识形态安全维护中发挥着重要作用。
情绪识别技术可以实时监测教学参与者的情绪状态,对人的心理压力和学习强度进行总体性评估,反馈出教育教学的专注度和活跃度。当前,情绪识别技术主要以“智能助教系统”“课堂呵护系统”“教学质量监测系统”等名目介入教育教学实践。一是“智能助教系统”。情绪识别技术能够直观揭示学生的情绪状态,帮助教师及时调整教学进度以及教学方案,进而显著提升教学效率。二是“课堂呵护系统”。情绪识别技术能够帮助教育者提高自身的情感连接能力,促使师生之间建立起情感依赖,进而充分激发受教育者的想象力和创造力。三是“教学质量监测系统”。“竹间智能已经推出了一款用于监测老师行为的新产品,通过分析老师的影像,计算正向情绪占比与细分指数”[4],这表明,情绪识别技术不仅可以用来监测学生的学习状态,还可为教学管理者监管教师教学质量提供技术支持,给教育者提供科学的教学建议。
情绪识别技术在商业决策、商业生产、商业营销环节均已成功应用。在商业决策环节,商业公司可以凭借情绪识别技术,尽可能地掌握潜在客户的情绪波动,进而根据精准的信息数据作出明智的商业决策。在商业生产环节,情绪识别技术不仅能够帮助生产者获得更多的商业信息,提供精准的生产计划,还可以实时监管产业工人的情绪状态,提高生产效率。在商业营销环节,商业公司可根据消费者的不同情绪状态,及时调整营销手段,以巧妙的营销策略激发潜在客户的消费欲望,实现精准营销。当前,包括微软(Microsoft)、亚马逊(Amazon)在内的一些科技公司已在积极推广情绪识别技术,据估计,情绪识别技术行业的市场价值将会高达数百亿美元。[5]
在医疗卫生领域,情绪识别技术可以帮助医生实时监测患者的情绪状态,进而根据患者的情绪变化为其提供相应的医疗帮助。例如,一些抑郁症、焦虑症患者会对心电、脑电等传感设备产生心理抗拒,不利于医生进行疾病诊疗。而情绪识别技术能够在不用患者配合的情况下悄然判断患者的情绪状态,从而能让患者在较为放松的状态下接受诊疗。此外,情绪识别技术还可为保持人的身心健康提供技术支持。例如,用户可以通过情绪识别技术了解自身的焦虑水平和压力指数,在第一时间调节自身的情绪状态,逐渐养成科学健康的生活习惯。
辩证地看,作为一种技术创新,情绪识别技术的广泛应用在给人类社会带来发展机遇的同时,也会给人们的社会生活带来诸多风险和挑战。以人工智能为代表的技术发展与人类生存的伦理审思是现代伦理学关注的核心议题,这在科学急速发展的智能社会显得更为突出。[6]因此,在情绪识别技术方兴未艾的当下,对其可能带来的伦理风险加以必要的审视和反思,已经刻不容缓。
正如康德所言,“人,实则一切有理性者……在他的一切行为上,总要把人认为目的”[7]。任何技术的创新和应用都应充分考虑人的尊严和价值,既不可给人的社会生活造成负面影响,也不可把人当工具看待。然而,不难预见,情绪识别技术的无序发展必然会影响人与人之间的伦理关系,给人的社会交往带来消极影响。
其一,情绪识别技术涉嫌侵犯人的自主性。社会实践深刻地证明,基于外部技术而建构的社会关系未必是真正富有自主性的伦理关系,完全掌控他人情绪的社会交往行为也未必是完美的社会交往实践。情绪识别技术运用于人,意味着要在一段时间内对人进行不停歇的监测。这不仅会使被监测者感到不被信任、不被尊重,还会抑制交往主体真实地表达自我的意愿和勇气,导致伦理关系中人的自主性缺失。用情绪识别技术来计算和理解交往对象的潜在心理状态,会生成一个以精准识别为起点的技术主义陷阱,使本该自由而亲密的人际伦理关系异化为压抑而冰冷的科技伦理关系。
其二,情绪识别技术危及人的主体尊严。人作为拥有思维能力和沟通能力的理性存在者,理所当然应当是科学技术的服务对象,而不该成为技术压制之下他人的监测对象或逐利工具。情绪识别技术只是人类的智慧结晶,但如果人类真赋予人工智能机器理解情绪的能力,使人的情绪变化在人工智能机器面前暴露无遗,那么人的主体尊严和个性发展必然会受到挤压。人的主体尊严原本一直建构在人与人之间天然而固定的伦理关系之上,而今,情绪识别技术的介入使人的情绪信息变成了“二进制代码”,维护人的主体尊严便成为一个崭新的伦理关系难题。
其三,情绪识别技术容易诱发人的社交恐惧。情绪识别技术所造成的社交恐惧主要源于这一新兴技术的潜在性和透视性。情绪识别技术的潜在性主要体现为这一技术能够悄无声息地搜集和分析人的情绪信息,这会使被监测者产生强烈的恐惧感。而情绪识别技术的透视性则是指这一技术能够直抵人的内心深处,使人产生困惑感、迷失感以及深深的焦虑感。
情绪识别技术把人的情绪信息作为激活本技术的关键,使技术介入了人本身,改变了人与技术之间边界分明的“操作与被操作”关系,颠覆了人与人、人与社会之间的传统道德,给人类社会带来了伦理规范失控风险。
一方面是对知情同意原则的挑战。《中华人民共和国个人信息保护法》明确规定,信息处理者处理个人信息时,首先需要“取得个人的同意”。可见,知情同意作为一种伦理规范,因充分尊重人的自主权利而得到了人们的普遍认可。情绪识别技术使人的情绪信息公开化,理应严格遵循知情同意原则。然而,情绪识别技术能够悄然搜集和汇总人的情绪信息,并将人的情绪信息置于数据库中进行比对和分析,使被监测者难以知晓自己的情绪信息被用于何事。这种技术目的的不确定性不仅使被监测者的自主性难以得到尊重,还造成了对知情同意原则的严重挑战。
另一方面是责任归属困境。传统的责任伦理主张根据行为后果来锁定责任主体,并在此基础上开展“对与错”的责任追究。然而,情绪识别技术颠覆了传统的责任伦理规则,使责任规避和责任转嫁有了更为广阔的生成空间。究其原因,主要是情绪识别技术的可应用领域极其广泛,技术的研发者、投资者和实际运用者之间存在着复杂的利益纠葛,任一行为主体都难以确保这一技术在实际应用中作出最有利于人类的选择,这就导致了后续的责任追溯难以锁定明确的责任对象。
科学技术的不均衡发展会引发伦理价值的失衡,危及人类社会的公平正义。就最新进展来看,情绪识别技术虽然应用领域广泛,但其核心技术仍然掌握在少数人手中,这就导致技术优势群体有可能压迫和威胁到技术劣势群体。在数字鸿沟加大的人工智能时代,情绪识别技术极易对社会弱势群体造成负面影响,我们必须高度重视其潜藏的伦理价值风险。
第一,情绪识别技术所导致的伦理价值失衡首先表现为技术垄断。凭借情绪识别技术,相关的资本占有者会将自身的资本优势转化为技术优势,赋予社会其他成员一种“科学”的情绪标签。而这无疑为算法偏见创造了寻租空间,性别歧视、种族歧视、年龄歧视等一系列算法偏见被包装成技术推算的“科学”结果。技术的不对称性造成了巨大的权利不对称,严重损害了社会公平正义。
第二,情绪识别技术导致伦理价值失衡的另一表现是市场垄断。在情绪识别技术运行过程中,情绪信息的生产者是每一位提供情绪信息的被监测者。然而,由于被监测者数量庞大,对于数据库整体而言,单个的被监测者所提供的情绪信息并不具有很大的边际贡献。因此,被监测者通常不会去追究情绪信息的所有权、使用权问题。这当中的伦理价值冲突主要体现在,情绪信息由被监测者生产,但是单个被监测者没有能力去使用情绪数据库资料。而当技术优势群体全盘接管了情绪数据库之后,该群体就会在资本增殖的利益驱动之下想方设法地实现自身利益的最大化,将技术垄断转变为市场垄断,严重破坏市场竞争的公平性。
第三,情绪识别技术所导致的伦理价值失衡还表现为社会控制的加剧。随着情绪识别技术的迅猛发展,在不久的将来,人的一切情绪变化都可能会被当作数据信息,接受他人的搜集、汇总和分析,这也就意味着德勒兹所预言的“控制社会”[8]加速成为现实。试想,当人们置身于个体情绪完全透明化的“解析社会”之中时,人的注意力以及个体欲望必然难以摆脱技术的捕捉和调制,人的自主性也就难以避免地成为他者加强社会控制的牺牲品。
美国技术哲学家唐·伊德开创的后现象学技术哲学深入讨论了人、技术、世界三者之间的四种关系,即“具身关系”“解释关系”“它异关系”“背景关系”[9],能够为我们深入探讨情绪识别技术的伦理风险提供理论借鉴。
从“具身关系”看,情绪识别技术改变了人们参与世界的方式,在一定程度上会干扰人的伦理判断。当人们通过身体器官来理解他人情绪时,人们通常会基于自己的生活经验和知识水平来作出相对独立的伦理判断。而情绪识别技术改变了理解情绪的常规方式,拓宽了人的情绪理解渠道,使人与人之间的情感交流走向间接化,这就可能导致人在技术的支配下逐渐失去理性思考能力而作出缺乏批判性的伦理行为。
从“解释关系”看,当人们根据情绪识别技术呈现出的数据结果来间接地理解他人情绪时,人可能会陷入一种隐蔽的被操纵状态。在情绪识别技术运行过程中,情绪识别机器成为人类情绪的解构者,它向人们展现的是一种经过数据处理的表象。换言之,人通过情绪识别技术而觉察到的并不是情绪本身,而是一种间接性结果。这就导致技术使用者随时可能陷入一种隐蔽的被操控状态,技术研发者、投资者甚至被监测者都有机会利用情绪识别技术来展现出自己想要表达的“情绪信息”。
从“它异关系”看,情绪识别技术在运行过程中能够“摆置”人的伦理行为。“座架把人汇集到技术展现中,即唤起他的限定方式的全部思想、追求和努力,并使它们只集中在这一种方式的展现上……在我们的时代,不仅仅人,而且所有的存在者,自然和历史,鉴于他们的存在,都处于某种要求之下。”[10]在海德格尔看来,人在技术的支配下将逐渐成为异化的人。情绪识别技术使人成为技术的对象物,让人的情绪成为一种象征着财富的信息资源,正在使海德格尔的忧虑部分地成为现实。
从“背景关系”看,情绪识别技术通常会以“不在场”的幕后状态存在,对人的伦理行为产生隐性的影响。情绪识别机器在接受指令之后会自主识别被监测者的情绪状态,这日益成为人类不自觉的技术背景。然而,情绪识别技术越是隐性化,就越容易削弱人的知觉和判断,使人日益陷入“技术茧房”之中。
情绪识别技术伦理风险的生成原因是复杂而多元的,其中既包括情绪识别技术本身的内在因素,又包括社会伦理环境等外在因素。具体而言,情绪识别技术的伦理风险成因主要包括以下几个方面:
英国社会学家安东尼·吉登斯指出:“科学也造成新的不确定性——其中许多具有全球性。对这些捉摸不定的因素,我们基本上无法用以往的经验来消除。”[11]在全球风险时代,情绪识别技术引发的伦理风险极有可能引发“蝴蝶效应”,给人类社会造成不可预见的后果。然而,从时间维度看,人类社会的道德标准和价值判断通常具有恒久的持续性、稳定性,很难在较短时间内作出改变来适应新兴技术的飞速发展。因此,在情绪识别技术面前,传统伦理资源所提供的根深蒂固的伦理观念自然会展现出一定的滞后性和局限性,以致人们对情绪识别技术的伦理风险往往缺乏足够的警觉性和敏感度。此外,从空间维度看,“全球风险社会”使得情绪识别技术的伦理风险极可能演变为一种全球性问题,这就导致传统的区域性伦理观念遭遇了很大的挑战。总之,情绪识别技术与传统伦理观念之间的不对等关系导致了人们伦理观念的相对滞后,加大了情绪识别技术伦理风险爆发和扩散的机会。
情绪识别技术原本是为了满足人的美好生活需要而诞生的新兴工具手段,但是这种技术一旦被逐利者掌握,就会演变为服务于资本增殖的技术工具。“资本的逻辑是求利的逻辑,技术内在追求利益和利益最大化的特点和资本追求增殖本性形成内在的共契,甚至可以说是共谋。”[12]在市场经济中,能否取得经济效益是技术研发者所要考虑的首要因素。可以说,正是由于情绪识别技术本身所具有的经济价值决定了这项技术的存活发展。然而,“技术的胜利,似乎是以道德的败坏为代价换来的”[13]。情绪识别技术一旦蜕化为资本的附庸,就会按照资本的逻辑来运行,忘却其本应服务于人类的伦理价值。如果单纯把情绪识别技术看作一种获取经济利益的工具,那么即便这种技术引发巨大的伦理风险,在一些逐利者看来也在所不惜。优化情绪识别技术的用户体验,使这一技术占据更广阔的市场并创造更多的经济效益,才是逐利者眼中最重要的事情。这无疑会使情绪识别技术的伦理风险遭到忽视,使情绪识别技术在开发和应用过程中逐渐背离以人为本的科技伦理原则,引发一系列伦理风险。
情绪识别技术的广泛运用让人类理解他人情绪的方式方法有了更多的可能性。但是,情绪识别技术需要多种人工智能技术的支撑,其中主要包括人脸识别技术、语音监测技术、数据处理技术等。每一项相关技术都成熟运用,才能确保情绪识别技术的安全性和可靠性。多种技术的交互运用显著地增加了情绪识别技术本身的不确定性。而不确定性正是引发伦理风险的主要原因之一。可以说,情绪识别技术伦理风险的产生与该技术本身的不确定性有着千丝万缕的联系。在运用技术手段来完成对人的情绪理解之后,我们仍然需要在诸多不确定因素中面对各种风险。例如:情绪识别的技术结果是否具有客观性?监测结果能否得到科学运用?这些不确定性的存在无疑加大了情绪识别技术伦理风险的可能性。此外,情绪识别技术使用者的自律问题也是影响情绪识别技术伦理风险的主要因素之一。面对可能带来巨额收益的情绪识别技术,逐利者通常会逐渐放松道德伦理层面的自我约束。这就进一步增强了情绪识别技术的不确定性,使其伦理风险有了更大的生长空间。
伦理规约在技术发展过程中扮演着重要的角色,能够促使技术更好地服务于人,引导技术走向可持续发展。但是,由于情绪识别技术本身的不确定性,与该技术相关的伦理规约往往存在着难以避免的制度缺陷。以个人信息保护为例,应该说,现有的伦理规范较好地保障了人的信息安全,近期更是通过立法的方式构建起大数据时代背景下个人信息保护的制度里程碑。但是,面对情绪识别技术这一新兴技术,仍有诸多疑问亟待现有的伦理规约作出进一步回应。例如:人的情绪是否属于个人信息?人的情绪泄露是否应该维权?情绪泄露造成的损失又该如何衡量?此外,由于情绪识别技术本身的复杂性和专业性,这一技术的运行过程不可能像传统的简单技术那样由单一的社会成员就能够完成,而是必须通过多人开展团队合作才能完成。因此,在情绪识别技术的开发、测试和应用过程中,每一位技术研发者都只不过是整个技术运转链条上的一环而已。这就意味着,每一位技术研发者都是情绪识别技术伦理风险的制造者,但又都不用承担全部的伦理风险责任,甚至不构成独立的责任者。这就给情绪识别技术的伦理规约带来了责任追究的难题,导致了伦理风险的扩大。
为了廓除情绪识别技术的伦理风险,既要更新知情同意机制,也要提高伦理失范成本,更要合理架构法律体系,从公众观念、责任伦理、制度规约等方面同向推进,形成有效防控情绪识别技术伦理风险的多维合力。
情绪识别技术所构建的情绪理解模式让技术使用者自以为掌握了情绪的解锁密匙,但人类真实而复杂的情绪并不能完全转化为数据符号,人与人之间的社会交往也并不一定需要完全透明化的情绪表达。公众只有保持这种伦理风险感知能力,对情绪识别技术慎思明辨,才能为情绪识别技术的未来发展开辟一条澄明之路。相反,倘若公众对情绪识别技术伦理风险认知较少甚至存在盲区,轻则可能产生技术恐慌,重则可能导致情绪识别技术伦理风险的加剧。因此,更新知情同意机制,革新社会伦理观念,提高公众的伦理风险感知能力,有助于情绪识别技术的伦理风险防控。
首先,情绪识别技术研发者一定要遵循公开透明原则,在情绪识别程序启动时明确告知被监测者即将与具备情绪识别能力的系统进行交互。就好比某些通话会提醒“本次通话可能被录音”一样,在涉及情绪识别时,提示用户“本次程序运行过程中您的情绪可能被监测”。
其次,在情绪识别技术运行过程中,情绪识别程序要采取语音、图像等多种方式,引导公众尊重人的主观能动性和主体价值性,让技术使用者深刻地意识到,情绪识别技术意图通过算法归纳、数据库对比来开展情绪理解,仅仅是对人类情绪的简单化、低层次的复现。
最后,在情绪识别完成后,情绪识别程序要充分尊重被监测者的知情同意权利,除了要明确、醒目地告知被监测者情绪识别结果的用途,还应当向被监测者披露情绪识别技术数据处理的基础逻辑以及程序运行可能给被监测者造成的影响,将情绪识别结果的数据处置权完全赋予被监测者本人,增进公众对于情绪识别技术不确定性和复杂性的理性认识,尽可能地获取公众的支持和理解。
情绪识别技术研发者的伦理行为是由其利益动机所决定的。因此,可通过提高伦理失范成本来强化情绪识别技术研发者的风险防控意识。
第一,要完善情绪识别技术相关行业的准入和退出机制,以此来提高情绪识别技术研发者的伦理失范成本,维护情绪识别技术应用市场的良性竞争环境。完善情绪识别技术相关行业的准入机制一方面是要支持和鼓励具有创新能力的情绪识别技术研发机构进入市场,另一方面则是要提高情绪识别技术相关行业的准入门槛,加大资格审查力度,将遵循伦理规范作为情绪识别技术应用的前提条件,严把情绪识别技术相关行业的市场准入关。完善情绪识别技术相关行业的退出机制一方面是要明确情绪识别技术相关行业退出的程序和标准,形成规范化、制度化的行业退出机制,另一方面则是要充分发挥市场在情绪识别技术相关行业资源配置中的决定性作用,实现情绪识别技术应用市场生态的自我净化。
第二,要针对情绪识别技术而建立专门的伦理审查机构,实施严格的伦理审查制度,明确告知情绪识别技术研发者可能担负的伦理风险。基于国内外新兴技术伦理风险防控的成功经验,我国有必要自上而下地建立起新兴技术伦理审查机构,通过建立常态化的监管机构来告知和督促情绪识别技术研发者遵从技术研发的伦理规范。
第三,要通过提倡职业道德、加强社会监督来提高情绪识别技术伦理失范成本。除了加强对专业机构的审查工作,我们还要大力宣传科技伦理对技术研发者个人职业生涯发展和技术高质量发展的正负面影响,将与情绪识别技术伦理问题类似的典型科技伦理失范案例编纂成册并出版发行,以此来警示情绪识别技术研发者,切实强化他们的伦理风险防控意识。
加强伦理道德建设是增强情绪识别技术道德底蕴、促进该技术健康发展的重要渠道,但是我们也不能因此而忽视情绪识别技术发展的法治环境。而优化法治环境,首先就是要合理架构与情绪识别技术最新应用进展相匹配的法律体系。我国虽然已于2021年11月1日起正式施行了《个人信息保护法》,但就情绪识别技术的最新应用进展而言,我国针对这一领域的立法仍然相对滞后。情绪识别技术直接面向公民的个人敏感信息,其引发的伦理新挑战已然在一定程度上打破了传统的法律假设。因此,当前我国需要加大力度,合理架构适应情绪识别技术最新应用进展的法律体系,针对情绪识别技术的具体细分领域而灵活地调整治理策略,以明确的法律规定来应对情绪识别技术的不确定性。
第一,应当坚持禁止性规定与赋权性规定之间的并存和联动。情绪识别技术本身具有极强的专业性和复杂性,坚持禁止性规定与赋权性规定之间的并存和联动有利于增强司法实践中的可操作性。对于情绪识别技术运行过程中的被监测者,法律应当作出赋权性规定,充分保障被监测者的知情同意权利、信息支配权利以及自由自主权利。对于情绪识别技术的开发者和实施者,法律应当作出相应的禁止性规定,明确情绪识别技术运行过程中的责任主体。
第二,应当坚持公私法律制度之间的内在协调和互补。我国针对情绪识别技术这一领域进行立法时,应当做到公私兼顾,一方面凭借行政执法来维护社会群体的公共权利,另一方面通过民事法律的介入来实现私权保障,对情绪识别技术运行中的被监测者给予民事权利保护和救济。在明确被监测者的权利内容之外,还应当就情绪识别技术应用纷争的诉讼时效、诉讼主体、过错举证责任等内容作出明确规定,力求实现内容科学、体系完备的法律安排。