张容南
随着老龄化程度的加深,高龄老人比重的增大,如何赡养和照顾老人成为许多家庭面临的现实难题之一。由于年轻一代在工作和育儿等事务上耗费了大量的时间,要求他们长时间看护老人将是难以承受的重担。在此情况下,一些人将视线投向了智能领域和机器人产业。随着越来越多不同类型的机器人进入人类生活,我们是否可以期待AI(人工智能)护理机器人参与并重塑老年护理的新图景呢?在护理行业引入AI机器人会带来哪些伦理问题呢?在这篇文章中,我将基于技术的新进展探讨AI护理机器人引发的伦理问题,指出让AI护理机器人与人类合作而非替代人类的模式才是我们应当推进的正确方向。我赞成埃齐奥尼等人提出的由“比较优势”原则作为确定机器人与人类合作的技术性原则,但我认为仅有这种技术性原则来指导分工是不充分的,我们还应根据关怀伦理学的思路来确定合作的伦理原则。唯有如此,我们才能让AI护理机器人更好地服务于人类生活。
随着人口老龄化问题不断凸显,使用AI护理机器人已成为缓解养老压力的重要手段之一。在此情况下,我们迫切需要考虑应该运用哪些规范性原则来指导AI护理机器人在护理领域的使用。AI护理机器人属于智能服务机器人①根据国际机器人联合会的提法,服务机器人是一种半自主或全自主工作的机器人,它能完成有益于人类健康的服务工作,但不包括从事生产的设备。参见腾讯研究院、中国信息通信研究院互联网法律研究中心等著:《人工智能:国家人工智能战略行动抓手》,北京:中国人民大学出版社2017年版,第92页。中的一类,它的功能主要是监测、陪伴和护理有独特需求的人类,帮助人类实现某项功能或满足某些需要。目前,AI护理机器人越来越多地用于儿童保育、老人护理、心理治疗和其他类型的医疗保健。这些护理机器人的一个共同特征是,它们表现出模拟人的情绪。这种情绪的展示被认为是必要的,可以使机器人与人类主体建立联系,从而让人类对这些机器人产生情感上的投入,信任和接纳它们。由于护理工作传统上主要是由人来完成的,因此护理机器人替代人类完成以上任务就面临一系列的伦理问题。这里的替代有两种不同的形式:一是替代使用者本人完成其日常生活任务;二是替代使用者的护理者实现对他的护理和陪伴。替代使用者本人完成一些身体功能,不管是汽车、轮椅还是导航系统,已经在人类生活中广泛使用,它们所引起的伦理争议相对较小;但替代人类护理者实现对使用者的关怀与照料,在一定程度上挑战了传统的人际关系乃至人伦关系,引发的争议较大。
接下来,本文将聚焦于AI护理机器人在养老护理领域的发展和应用,就其引发的伦理争议展开讨论。近年来,养老领域的AI护理机器人发展迅猛,德国的Liectroux机器人可以检测老人的健康状况、辅助老人行走、移动老人的身体等。澳大利亚研发的Zora机器人可以跳舞、读书、讲笑话,并基于语音识别技术与老年人进行语言交流。夏普制造的迷你型RoBoHon机器人,可以帮助老人通话、上网、发短信、自拍,还能行走、跳舞以及与人交流。美国Luvozo公司的SAM看门机器人能够通过自动导航、远程监控和摔跤风险检测系统,为老年住户长期提供频繁的查房以及非药物类的护理服务。在新冠疫情肆虐期间,由SingularityNET(SNET)和汉森机器人公司(Hanson robotics)两家机器人公司合资成立的觉醒健康有限公司(AHL)推出了格蕾丝(Grace)——第一个拥有逼真人类外观的医疗机器人。格蕾丝通过让病人参与治疗互动、接受认知刺激以及收集和管理病人数据,来提供急性医疗和老年护理。她是在世界各地的医院和老年护理机构工作的、日益增多的机器人护理人员中的一员。格蕾丝的上线被很多人看作应对全球日益加深的老龄化危机和由新冠肺炎带来的社会隔离下的安全良方。①安娜·罗米娜·格瓦拉:《疫情下的机器人护理问题:算法中的种族与性别歧视》,龚思量译,http://m.thepaper.cn/quickApp_jump.jsp?contid=13996582。
能够使用工具,进而能够开发技术,被看作是人类超越于其他物种的关键手段。人与动物的一个核心区别就在于人可以利用技术来完成仅靠身体无法达成的目标。随着AI技术的应用,这一隐喻在现代社会中实现得更为彻底,人类在现实生活中越来越多地依赖于AI技术完成物理的(自动驾驶)或认知的(路线导航)目标,甚至有人提出AI技术构成了人类延展的(extended)心灵和身体②Andy Clark and David Chalmers,“ The Extended Mind”, Analysis,Vol. 58, No. 1, 1998, pp. 10—23.,帮助人类突破了仅靠人类身体活动可以掌控的界限。将AI技术应用到护理行业在全球范围内都是一个大趋势,一方面,很多社会老龄化的速度之快,导致对护理专业人士的需求缺口非常之大,另一方面,人们对AI护理技术发展的期待在于它的“人化”,即希望AI护理机器人能够越来越像人,从而替代人完成人际间的交往活动。然而,一旦AI护理机器人具备的人类属性越多,对传统的家庭伦理、婚姻制度等产生的影响就越大。人类视AI护理机器人为工具、伴侣、朋友、仆人或者其他身份时,就会产生相应的伦理问题。
目前,AI护理机器人可用于老年人护理的三种主要方式是:(1)协助老年人或护理人员帮助老年人完成日常生活护理;(2)帮助监控他们的行为和健康;(3)提供陪伴。在这些领域中的每一个领域,都有人担心机器人的介入会降低老年人的生活质量。但也有人认为这种影响并非不可避免,如果引入适当的AI护理机器人和机器人技术,可以解决老年人面临的一些生活难题。日常生活护理包括个人起居、饮食、排泄、睡眠、沐浴以及室内清洁和护理。医疗健康的监控包括身体健康指标的监测,提醒老人用药、康复肢体辅助等。提供陪伴的服务则更加多样:可以陪伴聊天、唱歌、跳舞、下棋、打球等。由此可见,AI护理机器人的服务内容已经相当多元化。相比传统的人类护理人员,AI护理机器人具有以下优势:它可以提供24小时的服务;可以根据老年人的个人喜好和需求量身定制服务;作为机器人,它具有透明性和可预测性,从而便于使用者对其加以管理和监控。③张颖:《“AI—阿铁”可以行孝吗?——机器人护理对医学/生命伦理学的挑战》,载《中国医学伦理学》2020年第7期。
在机器人伦理学(roboethics)这个新兴的门类中,护理机器人引发的伦理问题属于机器人应用伦理学,即对开发和应用智能机器人过程中产生的特定问题(如人的安全、尊严、隐私和自由等)进行反思。①林津如:《机器人伦理学的研究进程——基于英语文献的分析》,载《东南大学学报》2021年第1期。对于使用护理机器人护理老人,当前最大的争议是关于安全性的,即它们是否足够安全,以至于在功能上能逐渐替代甚至超越人类护理人员。随着技术的改进,安全性和护理技术的可替代性也许可以逐步得以解决。因此,更重要的问题可能是,护理机器人是否可以在情感上替代人类,例如,替代医护人员对病人的护理,或替代子女对父母的照顾。
在我们进入具体的伦理论争之前,请先想象一下,你或你的家人出于健康原因需要进入一个由AI护理机器人主导的医疗机构。AI机器人完美地执行所有护理任务,甚至比人类同行做得更好。你得到了无可挑剔的诊断,你的生命体征得到完美的监控,它愿意为你提供所需的一切舒适体验。你可以选择你喜欢的护理机器人的个性。当你饿了时,护理机器人会向你送上私人定制的餐食,它不仅可以满足你的营养需求,还可以满足你味觉的偏好。护理机器人为你洗澡,按时为你送药,为你更换衣物并喂食。当你感到无聊时,你可以在全息投影仪上观看你喜爱的电影和电视节目。你喜欢这样的AI护理机器人吗,或者说,你愿意接受它提供的护理服务吗?在这个假想的机构中,我们的护理需求似乎得到了很好的满足,所有任务都完美地执行。但我们大多数人有一种模糊的直觉,我们认为其中缺少了某些东西:护理不仅仅是任务的集合。护理涉及关怀。换言之,AI护理机器人也许可以履行监测、陪伴和护理等相关任务,却难以像人类那样以关怀的态度来完成相关任务。因为关怀通常不仅指一项特定的任务,而且关涉完成任务的方式,以及伴随着这一过程需要某些道德能力的内在态度和性格。
对AI护理机器人进入护理领域持反对意见的人认为,AI护理机器人虽然能够帮助人类提供一些护理方面的服务,但它终究无法取代人类。凭借没有灵魂的算法,AI技术专家能使机器人眨眼、唱歌,做出各种不同的智能动作。然而无论我们为机器人加入再多的智能化动作、语言,人们也只能从中得到略显怪诞的“关怀”。诺埃尔·夏基(Noel Sharkey)和阿曼达·夏基(Amanda Sharkey)在他们的研究论文中提出了六个涉及护理机器人的伦理担忧:(1)担心机器陪伴将减少人类陪伴的潜在可能性;(2)担心机器护理让被护理者产生客体化和失控的感觉;(3)担心护理机器人让人类失去隐私;(4)担心护理机器人导致被护理者丧失人身自由;(5)担心护理机器人欺骗被护理人或导致其婴儿化;(6)不确定在何种情况下被护理者可以控制护理机器人。②Amanda Sharkey and Noel Sharkey,“ Granny and the Robots: Ethical Issues in Robot Care for the Elderly”,Ethics and Information Technology, Vol. 14, No. 1,2012,pp. 27—40.
在这六个担忧中,他们最主要的两个伦理担忧的是:第一,使用AI护理机器人可能会减少老年人与其他人的接触。第二,如果使用不当,它可能会令老年人客体化,丧失对生活的控制感。①Amanda Sharkey and Noel Sharkey,“ Granny and the Robots: Ethical Issues in Robot Care for the Elderly”p. 29.他们承认机器人能够完成诸如移动、喂食、清洁老人的活动,但认为完全将这些劳动交给AI护理机器人,将减少细致的和关怀的人际交往的机会。他们还指出,人际间的交往与互动可以降低一个人的压力水平,从而延缓其衰老程度,降低一个人患上认知症的几率,而这些优势不是把老人交给AI护理机器人可以获得的。此外,对于认知症患者等老年特殊群体,如果完全交给AI护理机器人照顾,可能会加剧他们被客体化的风险。如果护理机器人像对待物体那样抬起和移动老年人,那么这些老年人的幸福感可能会降低。不过两位研究者也承认,带来人际接触的减少和增加客体化的风险是AI护理机器人可能对老年人生活产生负面影响的例子。如果使用得当,机器人技术仍有可能被用于改善老年人的生活。毕竟,不尊重老年人人格的人类护理者比比皆是。
反对者将AI护理机器人视为“工具”,认为人机互动劣于人际互动。他们更担心的是,护理机器人无法满足老年人的社交和情感需求,使用护理机器人会大大减少老年人与真实的人类接触的机会,而这不利于老年人的福祉。②Robert Sparrow R. and Linda Sparrow,“ In the Hands of Machines? The Future of Aged Care”, Minds and Machines, Vol. 16, No. 2, 2006, p. 141.但在支持者的眼中,AI护理机器人不仅能更好地完成大部分物理护理工作(如提供认知辅助、生命体征监控、远程实时医疗等),在提供情感支持上也有其独特优势。护理机器人虽然无法与老人进行类似于人与人之间的那种情感交流,但护理机器人不会疲惫、丧失耐心和失控。在面临老人出现种种尴尬的情况时,如口角流涎,咽不下饭食,排不出粪便,情绪不稳时,即便是亲人,也可能会崩溃,更不用说是雇佣来的护理人员。这时候,护理机器人的优越性就显露出来。机器人不会计较老人的不良情绪,也不会嫌弃老人异常的生理状况,它们会基于程序设定一如既往任劳任怨地护理老人,不会生气,也不会有情绪反应,更不会讨厌这份工作。这就使得护理机器人变得更加可靠,且无需考虑护理机器人自身不堪重负所引发的情绪问题。当护理机器人在事先设定的指示下监督老人用药、辅助他们行走、陪伴他们聊天时,老人无需承受人际交往的压力而可以轻松地信赖机器人。由于老年人的自尊水平并未随着其身体机能的下降而下降,不少需要照顾的老年人不愿意传统的人类护工帮助他们上洗手间、洗澡等,相比,AI护理机器人的护理可能会让他们更舒服,因为机器人不会有人类的那种评判眼光,它只关心其工作内容和目标。也就是说,护理机器人不具有“人格”,因此机器人的护理与人类的护理不同,它所提供的只是人类所需要的服务,而不涉及与人类建立关怀关系或情感关系。③张颖:《“AI—阿铁”可以行孝吗?——机器人护理对医学/生命伦理学的挑战》。也正因如此,护理机器人和老人之间的人机关系比传统的人际关系更为简单。这也许可以降低老年人由于其脆弱性而被恶意的他人欺凌的可能性。在这些技术乐观派眼中,AI护理机器人相比不合格的人类护理者反倒优势明显,也能满足体弱多疑的老年人对生活的基本需求。
对于AI护理机器人是否应该进入到传统的护理领域,正反双方的辩论主要围绕这一问题展开:对于老年人来说,到底是人格化的护理还是非人格化的护理更好?AI护理机器人不具有“人格”,机器人本身不懂得“尊重”或“不尊重”。它究竟能不能以让人感到尊重的方式对待人,取决于它的设计者是否将这一伦理原则写入其程序中,并教会它什么样的举动在人类看来是体面的,是被人类接受的。说到底它们只是被设定好的程序,能够完成一系列被人类制定的目标。在选择参照对象时,反对者将AI护理机器人与理想的人类护理者相对比;支持者则将其与糟糕的人类护理者相比较,这令双方得出了不同的结论。支持AI护理机器人进入护理领域的人看重的是机器人对人类护理劳动的替代,这在很大程度上可以减轻人类护理者的压力。AI护理机器人也确实可以克服由于不当的护理或者说糟糕的人类护理者所带来的负面效应。但AI护理机器人无法与好的人类护理者相比,因为护理不只是帮助人类实现功能或完成任务。它涉及关怀,以及由良好的关怀关系所产生的正面效应。
这就涉及如何理解护理和关怀的本质:关怀本质上反映的是人与人之间的关系,是一个人对另一个人的需求作出敏感的反应,并以尊重对方的方式来满足这些需求,提升对方的福祉。关怀伦理学家内尔·诺丁斯(Nel Noddings)认为,关怀表现为关怀关系的建立。关怀者接近被关怀者,产生动机移位(motivational displacement);关怀者以关怀为冲动产生行动或内在行动承诺;被关怀者接受关怀者的关怀并给出回应。她指出:“承诺依据被关怀者(的福祉)行事,在适当的时间跨度内对他的现实保持兴趣,以及在这段时间内不断更新承诺是从内在观点看关心的基本要素。”①Nel Noddings,Caring: A Feminine Approach to Ethics and Moral Education, Los Angeles: University of California Press,1984, p. 16.弗吉尼亚·赫尔德(Virginia Held)则强调,关怀既是一种价值,也是一种实践。关怀实践向我们展示了“如何响应需求以及我们为什么应该这样做。它不是一系列个人行为,而是一种伴随有适当态度所发展起来的实践”②Virginia Held, The Ethics of Care: Personal, Political, and Global, New York:Oxford University Press, 2006, p. 42.。从根本上说,关怀假定人们是相互关联和相互依存的存在。它需要建立一种私人关系,这种关系的建立有助于关怀者理解和响应被关怀者的需求,对其做出敏感的回应。与诺丁斯和赫尔德等人相比,琼·特朗托(Joan Tronto)虽然更强调关怀作为一种劳动而非心理机制的重要性,但她仍然指出,关怀这一实践过程需要关怀者投入专注力(attentiveness)、责任心(responsibility)、能力(competence)和响应力(responsiveness)。①Joan Tronto, Moral Boundaries: A Political Argumentfor an Ethic of Care, New York:Routledge, 1993, pp. 127—135.尽管不同的关怀理论家对什么是关怀、应当如何提供关怀有着不同的见解,但他们对于关怀有一些基本的共识。首先,关怀涉及道德主体之间的依赖关系和互惠关系。其次,关怀预设了一种道德认识论,它意味着“根据经验,并考虑到具体语境的差异,来进行自我反思并作出对情境敏感的判断。”②Tove Pettersen,“ The Ethics of Care: Normative Structures and Empirical Implications”, Health Care Analysis,Vol. 19, No. 1, 2011, p. 55.显而易见,目前的AI护理机器人几乎无法实例化这些条件。最后且最重要的是,关怀既是一种劳动和实践,又是一种价值和态度。前者可以被看作是关怀的物理部分,后者则涉及关怀的心理或情感部分。AI护理机器人目前只能替代人类完成关怀的物理部分,而难以实现关怀的心理或情感部分。
因此,正如我们所看到的,机器可以帮助人实现一些功能,例如清洁和喂食,但从根本上来讲,被视为“工具”的机器人无法替代人类给予他人温暖和呵护。(1)陪伴机器人难以解决人类的孤独。孤独是个体自身与其他生命之间无法建立有意义关联的存在感受,它体现了人与人、人与世界的分离和异化。很多老年人不愿离开家,搬到养老院,正是由于养老院无法提供让人安心的“在家感”,那种人们对自己生活的熟悉感和掌控感。(2)陪伴机器人难以让人获得有温度的关怀,它无法真正取代我们的家人。尤其是老年人希望其亲友给予他的那种关心,是带有温度的、能唤起老人对过往经历的美好记忆的那种关心。这种关心能够给予人信心、希望和温暖,让人在身体条件不断变差的情况下依然感到活着是愉快的、有价值的和有意义的。这是AI机器人不能取代人类护理者的根本原因,因为机器人的劳动无法织入人类生活世界的意义之网。此外,(3)由于老年人的性情可能会随着其身体机能的情况好坏而有所变化,要适应这种变化,让他获得安全感和信任感是一个仅仅按程序指令行事的机器人很难做到的。机器人更擅长的是在一个相对稳定的环境中完成一系列可重复的指令,它对不可预测的环境和复杂人事的应对能力相比人类是大为落后的。对那些因为疾病而性情变化的老人来说,他们最需要的关怀来自他们在生活中最信赖的那些人的关心。这种关心之所以效果最理想,是由于其关怀关系在长时间的培养和发展。基于上述原因,我们可以得出结论说,AI护理机器人目前尚不具备独立护理失智失能、或因患病生活无法自理的那部分老人的能力,它们至多能为一些相对健康的老年人提供类似于宠物的那种陪伴,或者帮助人类护理者完成一些辅助任务。
强调AI护理机器人不能完全取代人类护理者,并不是要否定将AI护理机器人引入护理领域的必要性。一方面,我们需要意识到AI护理机器人与人类护理者之间的差异,这对于我们接下来如何使用AI护理机器人至关重要。另一方面,我们需要承认,提供好的关怀与护理即便对于人类护理者来说也不是一件容易的事。我们在要求护理人有耐心、有爱心,能够满足被护理者的需求时,常常会忽略护理者也是人,也有人的基本需求要满足。但对那些长期护理失能失智老人的家属来说,诸如睡觉吃饭这些基本需求的满足都是困难的。长期陷入到护理重担中的护理者,不仅身心疲惫,也可能会加剧自身的脆弱性,令自己暴露于疾病的风险中。在替代人做一些体力和认知劳动方面,AI护理机器人的优势是不言而喻的。引入AI护理机器人可以明显改善护理者的生活,减轻他们的压力水平,令他们获得适度的休息以及获得喘息的机会,从而更有效地投入到护理患病亲人的情感活动中。换言之,如果我们能让AI护理机器人参与到人类的护理活动中,依据人类护理者的要求分担一部分护理活动,那么这将极大减轻人类护理者的压力,令他们更有效地参与到护理的关怀实践中。
阿米泰·埃齐奥尼(Amitai Etzioni)和奥伦·埃齐奥尼(Oren Etzioni)认为,我们将AI引入护理的正确模型是将AI视作合作伙伴,而不是替代者,并应当根据相对能力即比较优势原则在人类和AI护理人员之间适当分配任务。他们指出,对于使用AI护理机器人,我们产生的很多伦理担忧是将其看作人类的替代者。但如果我们只是将其看作人类的合作者,很多担忧就会自然消失。例如,当小孩跌倒摔断腿的情况下,AI护理机器人应该第一时间报告人类寻求帮助,而不是自己去处理这个问题。①Amitai Etzioni and Oren Etzioni,“ The Ethics of Robotic Caregivers”, Interaction Studies, Vol. 18, No. 2, 2017, p. 182.评估AI是否适合某项任务的正确原则是比较优势:“人们应该容忍AI护理人员的广泛使用,只要他们不逊色于任何可用的人类护理人员。”②Ibid., p. 184.这种主张指出,合作模式优于替代模式,并表明我们应该让人类和AI护理机器人各自承担他们更擅长的事情。例如,当记忆和信息检索出现问题时,AI护理机器人显然优于人类护理人员。因此,它们可以负责回忆患者服用了哪些药物,并提醒患者按时服药。它们还可以鼓励机能衰退的老年患者进行锻炼,陪伴他们定期从事康复训练。AI护理机器人在从事养老服务时,可以与人类护理者合作。它们可以单独完成一些任务(如提醒病人吃药、与他们聊天),但更多时候它们需要提醒人类护理者应对其他复杂情况(如病人独自离开了病房)。人类护理者与AI护理机器人的合作主要体现为任务的分工,它一方面有助于人类掌握主导权,履行对机器人的监督职能,另一方面有利于人类护理者提高其护理品质。
埃齐奥尼等人令人信服地指出,让AI护理机器人与人类合作完成护理实践是一个比完全由护理机器人取代人类护理者更好的选择。然而,正如费利西亚·斯托克斯(Felicia Stokes)和阿米塔巴·帕尔默(Amitabha Palmer)看到的那样,“比较优势”这个概念是不稳定的:随着护理机器人变得越来越智能,在完成指定任务这一点上,他们相对于人类护理者来说优势可能会越来越大。如果护理仅被视为技能和任务的集合,那么,最终没有什么护理劳动是机器人不能取代的。①Felicia Stokes, Amitabha Palmer,“ Artificial Intelligence and Robotics in Nursing: Ethics of Caring as a Guide to Dividing Tasks Between AI and Humans”, Nursing Philosophy, Vol. 21, No. 4, 2020, p. 6.如果你认为护理只是没有灵魂的机械劳动,你可能会得出这样的结论。然而,无论AI护理机器人在功能上变得多么强大,它始终无法表达人类护理者通过悉心照护所传达出情感意义。就像哈佛医师凯博文所说,作为一种人性活动,照护讲述着人性苦难与疗愈的道德语言,它奠定了人类共同存在的基础。②凯博文:《照护:哈佛医师和阿尔茨海默病妻子的十年》,姚灏译,潘天舒校,北京:中信出版社2020年版,第4—5页。因此,人类所渴求的这种带有情感交流的照护无法完全交给机器人去完成。
当然,这不是说“比较优势”是毫无用处的。在现阶段,AI护理机器人相比人类护理者确实存在一些明显的优势,尤其在物理护理方面。随着技术的发展,未来的护理机器人也许在“人性化”方面会做得更好。如果我们将“比较优势”原则暂时保留下来,作为现阶段确定人与机器人分工的技术性原则,那么更根本的问题在于如何确定人类护理者和AI护理机器人分工的伦理原则。因为技术性原则最终要服从于伦理原则,或者说,伦理原则相比技术性原则具有优先性。我建议我们参考关怀伦理学的思路。
(1) 关怀伦理学认为,关怀作为一种实践涉及关怀关系的确立。在此关系中,关怀者基于被关怀者的需求作出敏感的回应,他以关怀的态度去满足这些需求,从而提升被关怀者的福祉。
(2) 在关怀劳动中,AI护理机器人可以基于其比较优势帮助人类去实现一些护理目标,例如,分担护理劳动中的部分护理劳动(辅助老人行走或提醒老人定时服药)。AI护理机器人的引入将大大降低人类护理者的压力水平。因此,将这部分护理劳动外包给AI护理机器人在伦理上是一个正确的选择。
(3) 确定将哪部分护理劳动外包给AI护理机器人取决于被护理者的核心需求是什么。凡是涉及被关怀者核心需求满足的劳动,人类应尽量亲力亲为,不将其外包给AI护理机器人,因为人类相比AI护理机器人能更好地识别出什么是被护理者的核心需求,也只有人类才能与人类建立真正的关怀关系。因此,越是被护理者的核心需求,越应该由人类护理者来满足,因为护理或照护本质上是一种人性活动,而非任务的集合,它应当以关怀的态度来完成。
由于原则(2)是效能原则,原则(3)是需求原则,因此从价值排序上来讲,原则(3)应被优先满足。也就是说,我们首先要确保老人的核心需求由人类护理者来满足,再考虑根据比较优势原则将满足非核心需求的部分护理劳动外包出去。按照这样一种关怀伦理的思路去行事,AI护理机器人和人类护理者之间的分工可以是灵活多变的。从时间上来讲,白天和黑夜的划分对应于人类长久以来养成的作息规律,人类护理者可以在白天多陪伴有需求的被护理者,而在夜晚获得适当的休息,让AI护理机器人在夜间履行监护的职责。一旦AI护理机器人面临棘手的护理难题,可以拉响警报,求得人类护理者的帮助。更主要的是任务的分工。一些简单繁重的护理活动,例如帮助卧床的老人上下床、翻身、如厕,常常让人类护理者感到吃力,但这些活动对于AI护理机器人来说是相对容易的,可交由它们完成。喂食和清洁是关怀活动的典型例子,并提供了通过触摸和在场传达关怀的机会。目前已有能够给病人喂食和洗澡的AI机器人。随着技术的进步,未来它们甚至可能更高效、更安全地完成这项工作。但对于这些活动是否要完全交给AI护理机器人要考虑具体情况,尤其是被护理者的意愿,因为喂食和清洁涉及与一个人最私密的身体发生亲密的接触,并通过这种接触表达关心、爱与鼓励。对于一些身患重疾进食困难的老人来说,让其进食从而恢复体力可能就是他的核心需求,那么在此情况下人类护理者仍应尽可能在场喂食和陪伴。怀揣着儿时从母亲怀中体验到关心记忆的人类,需要被人关注、关怀和照顾,这种感觉让人意识到自己是重要的、有人在意的,而不是无足轻重的。它唤起的是我们存在的意义。
正如前文所说,关怀和照护不仅仅是通过技能完成一系列的任务,更重要的是在完成这些任务时带有关怀的态度和情感。因此,决定将哪些劳动外包出去,取决于被护理者的需求和护理者的实际情况,尤其要考虑到被护理者的情感需求。当然,在护理过程中,几乎所有的劳动都可以成为情感劳动,带有人类情感的输入。但让AI护理机器人帮助老人翻身或坐起,再由老人的家人去喂饭,这种分工仍然是可行的。如果一个老人能接受AI护理机器人喂饭,但要求一定要家人帮他洗澡,那么,后者就是他的核心需求,应该由人类来完成。如果一个老人愿意接受AI护理机器人陪伴从事康复训练,但要求家人在场时才进行医学检查,那么,家人就应当陪他做检查以满足其核心需求。可见,核心需求一方面涉及老人的核心利益,另一方面取决于老年人信任谁、依赖谁、愿意向谁敞开其脆弱性。依据老人的核心需求来进行分工合作,表面上看只是AI护理机器人和人类护理者之间的任务分工,实质上这是关怀实践的物理部分与情感部分之间的分工。
有人可能会批评说,这一方案太过保守,认为机器人只能满足人类的一些功能性需求。如此一来,发展情感型机器人似乎毫无必要。但本文并非否认AI护理机器人具有情感功能,只是认为它难以填补人与人之间的情感联系。例如,机器人海豹Paro①Paro是日本产业技术综合研讨所的柴田崇德博士于1998年研发的海豹型机器人,这款机器人有助于认知症患者的护理。Paro现已被美国、德国、丹麦等多国地方政府引入养老服务行业。可以让老人开怀大笑,享受玩耍和娱乐的机会,但它提供的情感服务与关怀关系还是有本质的区别。试想一位已经罹患重病将不久于人世的老人,他需要的是AI护理机器人24小时不间断的护理服务,还是他的亲人围坐在床前,抚摸他的双手,陪伴他走完生命的最后一程?这两种陪护对他而言可能都是有益的,但前者无法取代后者,因为只有人才可以给予人爱的希望、相互间的尊重以及信赖。人类存活的生存质量依赖于人类基本功能的实现,但人类存在的意义维度取决于人与人所建构的意义网络的维持,爱、关怀、尊重、信赖都是由人类存在和交往所生成的情感活动与意义联结。我们对亲情、友情和爱情的向往也是源自这种需求。对那些患有疾病的老年人来说,他们的情感需要相比健康的普通人更强烈。虽然科学家正在研发与人类情感接近的“情感智能”(emotion AI)或“情感机器”(emotion machine),但近期来说我们还看不到它们取代人类的可能性。
一些值得关注的当前问题是,设计AI护理机器人应该遵循哪些伦理规范?如何来教会AI护理机器人尊重人的自主性、保护人的隐私与尊严?例如,当老人拒绝AI护理机器人提供的某些服务时,机器人应当如何作出反馈,它应该尊重老人的意愿还是听从老人监护人输入的命令,抑或自身程序的指令?又或者,当老人做出伤害自己的举动时,AI护理机器人能否直接控制老人的身体?对于评估AI护理机器人的安全性和可靠性,这些问题都是非常关键的。一些老人表示愿意拥有一个护理机器人,并和它成为朋友。但也有许多老年人不喜欢机器人那装模作样的陪伴。他们害怕被监视和控制,更害怕因此失去人类的关爱。有的老人担心,使用机器人陪护会令他们受到歧视,使他们被认为不需要得到人类的陪伴,或者让他们的孩子认为有了机器人,自己的责任就被免除了。在马萨诸塞州养老院开展的机器人实验中,社会心理学家雪莉·特克尔(Sherry Turkle)发现,“当老人们可以选择是和机器人共处,还是和麻省理工学院研究团队的研究人员聊聊天时,大多数老人都充满感激地选择了后者。”②雪莉·特克尔著:《群体性孤独》,周逵、刘菁荆译,杭州:浙江人民出版社2014年版,第234页。老人们指出,“机器人行动上可以照料我们,但心理上无法关心我们”①雪莉·特克尔著:《群体性孤独》,第236页。。关怀是一项艰辛的工作,它提供的不只是对他人的帮助和照顾,它还保护着我们的人性,维护着我们最重要的人际关系。如何让AI护理机器人更好地融入到与人类护理者的合作中,才是我们应该思考的正确方向。
就此问题而言,机器人应用伦理学的推进还有赖于机器人伦理学的进展,即我们能否设计出符合人类伦理期望的机器人。汤姆·索雷尔(Tom Sorell)和希瑟·德雷珀(Heather Draper)明确提出,在设计护理机器人伦理框架时,必须促进被护理者的六个价值:自主、独立、能动性、安全、隐私和社交联系。②Tom Sorell and Heather Draper,“ Robot Carers, Ethics, and Older People”, Ethics and Information Technology,Vol. 16, No. 3,2014, pp. 183—195.目前,人类开发的很多机器人都是单一目的的,因此多种价值目标的机器人在技术上如何实现是一个大问题,当这些价值相冲突时采取何种排序又是另一个棘手的问题。毕竟,对于如何理解和促进这些价值,人类也存在巨大分歧。当研究人员将他们理解的安全条款写入机器人的程序中时,它也带入了一部分人对于安全的理解。当这种对安全的理解与使用者对自主的要求相冲突时,被护理者或其监护人要控制关闭机器人的权力。说到底,设计护理机器人的目的是要让设计框架能够保障被关怀者的利益,而只有人类才是对自身福祉最佳的判断者。因此,除了需要将伦理嵌入AI机器人的运行程序或工作逻辑,还需要人类的参与和监督,才能共同实现人工智能伦理,让安全、友好、值得人类信赖的AI护理机器人服务于人类生活。