人工智能道德增强的进路探析

2022-03-18 06:44静,骆
哈尔滨学院学报 2022年6期
关键词:道德行为动机决策

潘 静,骆 军

(苏州科技大学 马克思主义学院,江苏 苏州 215000)

“死神似乎无处不在。农民讲述着家人的疾病,城里的医生对这种突如其来的疾病深感困惑和无奈。患病的人会突然、莫名其妙地死亡。后来,不仅是成人,甚至小孩在玩耍时也会突然倒下,并在短短几个小时后死去。整个村庄弥漫在一种奇怪的寂静之中。”[1]这是蕾切尔·卡逊(Rachel Carson)在《寂静的春天》(SientSpring)开篇中描述的场景。相似的场景再现于2019年底,肆虐全球的重大突发公共卫生灾害事件——新型冠状病毒肺炎(COVID-19)亦使人们陷入一片恐惧的寂静之中,其来势之汹涌、传播之猛烈前所未见。人类抵御灾难的能力与其所遭受灾难的困难程度,在历史的推演进化中此消彼长、周而复始。反思历史可见,在“无知”境遇下做出的道德抉择尤为关键,其承担的风险不亚于远在巴西的蝴蝶轻扇翅膀所引起的风暴。

面对技术被人强化后,人为主导力量的人类世(Anthropocene),传统道德显露出捉襟见肘的生存困境。在麦金太尔(Alasdair MacIntyre)所言的道德低落沦为灾难的当代,如何使道德的应有之义不落言筌,追寻美德复归至亚里士多德时代的“好的生活”,这一伦理诉求是当代伦理学为发挥实存道义不得不回答的问题。人类忧虑技术应用带来的道德难题,但同样道德难题应当且能够使用技术来帮助解决。因此,诉诸人类道德增强(moral enhancement)来提升道德认知继而优化道德行为是20世纪以来伦理学家做出的积极探索。

从“生物医学道德增强”(Biomedical Moral Enhancement,以下简称BME)到“人工智能道德增强”(AI Moral Enhancement,以下简称AIME),对于道德增强的方案学界各抒己见,在探索与争鸣中,必须厘清与思考的基本问题是:(1)道德如何被增强?(可行性)(2)如果增强是何种意义上的增强?道德是何种意义上的道德?(现实性)(3)为解决“道德大问题”而使用的道德工具(BME或AIME)是否存在产生新的“道德大问题”的风险?(可能性)

综合分析道德增强的实践可行性、道德增强原则的现实性以及实践道德增强技术的可能性,我们试图提出一种人类道德增强的伦理新进路——动机同一的交互者。

一、从生物医学到道德感知:BME的伦理辨析

传统的西方伦理思想以人与人之间的道德关系为研究对象,伦理学(ethics)是对人类道德生活进行系统思考和研究的学科。[2]当科学技术与生物医学共同构建起“好的生活”的多样化愿景时,BME便以道德客体的形式进入了哲学研究。

英格玛·佩尔松(Ingmar Persson)和朱里安·萨夫列斯库(Julian Savulescu)是BME的支持者,他们认为高技术时代产生的核武器、生化武器,尤其是占有武器的恐怖组织采取的恐怖行动加剧了全球的不平等,再加上人类的集体活动让生态环境遭到破坏、污染,由此引发了一系列问题。在他们看来,这些问题在现代已经是关系到人类存亡的重大问题,这些关于恶的“道德大问题”(moral mega-problems)是由现代科学技术的发展和滥用造成的。[3]BME是佩尔松和萨夫列斯库基于“道德大问题”而提出的解决方案,简言之,BME相对于传统道德能更加有效地制止由现代技术放大的人类恶的行为。他们认为,如果我们想要继续生存在这个星球上,就必须要采取强制性的技术干预,即强制道德生物增强(CMBE);托马斯·道格拉斯(Thomas Douglas)从功利主义视角来论证了BME在道德上是应当的。戴维·德格拉齐亚(David DeGrazia)赞同道格拉斯的观点,认为自愿实施这些技术干预在道德上是应该的并且是被允许的,即自愿道德生物增强(VMBE)。

BME的可行途径是通过药物、非侵入性的脑刺激、基因修饰等生物医学的方式来增强人类的道德感,提升人类的道德判断能力。已经有诸多实验可以验证道德与这些途径存在一定程度的相关性。如:在“信任游戏”中,人体内产生的后叶催产素(Oxytocin)水平的高低可以影响参与者之间的信任程度。[4]实验显示,人类反社会人格的形成与单胺氧化酶A(MAOA)活性的高低相关,相较其他人而言,体内MAOA活性较低的成年人,产生反社会情绪风险的可能性更高。[5]血清素(Serotonin)可以选择性地影响人们在面对道德难题时所做的道德决定,从而提升其公平意识,使其更倾向于选择合作。在“电车难题”(trolley problem)的困境中,血清素能够影响参与者的道德判断能力。在“最后通牒博弈”游戏(ultimatum bargaining game)中,血清素增多也会提升游戏参与者对公平意识的重视,继而能按照理性人的假设,使方案得以公平通过。

尽管BME可能在三方面发挥效果:让受试者更有同理心、减少暴力攻击行为、提升道德反思能力。[6]但如果想从根本上改善受试者的道德动机,让他的道德行动趋向于更高的道德标准,进一步提升推理判断能力,道德增强显而易见地还面临着诸多的挑战。例如,道德增强是否意味着道德进化?早在达尔文创造性地提出“进化论”之前,古希腊哲学家对于生命的起源进化就有了深切的哲学思考。泰勒斯(Thales)的水起源说、阿那克西曼德(Anaximander)的“阿派朗”本原论、阿那克西米尼(Anaximenes)的气本原说等都在一定程度上启示着人们对生物进化演变的推测和思考。奥古斯丁(Saint Augustine)认为,一切生命状态的展开都经历了漫长的进化历程。现代学者胡安·恩里克斯(Juan Enriquez)提出,在未来,人类将不单单是如现在般的简单存在物,生物医学增强技术(包括基因操作、组织再生技术等)将使人类进化成新物种,他称其为“进化人”。技术可以干预人类的进化,使人接近成为完美的道德人,但同样在这一过程中,技术的批量化实施,是否将人置于了同农作物或者是牲畜般的被管制、被道德的地位。麦金泰尔认为,美德的意义来自于实践,[7]在这一意义上,技术的直接干预使美德的习得脱离了实践的土壤,卓越品质的形成缺失了道德获得的过程体验,具备了即得性。因此,生物医学技术增强之后的普遍道德只能是无根之木,难以林林成森。再者,人的道德究竟是本具有的还是可制造的,人的自由意志如何得以彰显,等等,[8]都是一些难以解释的难题,就研究现状而言,诸如此类的问题无论在何种立场上都很难获得有效辩护。

二、从决策者到辅助者:AIME的伦理辨析

经过分析,我们可以看到,BME的风险较大,颇具争议,而人工智能作为道德增强的另一条路径进入我们的视野。人工智能道德增强是通过“人工道德建议者(AMA)”“客观”的道德表征能力与强大的信息获取能力协助人类提高道德认知水平的道德增强方式。[9]在现阶段,我们的讨论主要围绕“强”人工智能与“弱”人工智能展开。

1.“彻底增强”指的是“强”人工智能视域下的道德增强技术,这一技术旨在通过将人类的道德决策权一劳永逸地交由人工智能道德决策机器来处理,以便解决存在于人类社会中的一切道德选择难题。“强”人工智能发展进化的终极目的是使人工智能机器成为完美的道德决策者。埃里克·迪特里希(Eric Dietrich)拥护“彻底增强”的人工智能技术,对人工智能产品的未来应用持乐观的态度,他认为人自身的道德本性根本而言是脆弱的,人工智能技术能够促进人类的道德进步,人类所研发的道德机器甚至可以制造一轮风暴似的“新哥白尼式革命”(Copernicus revolution)。他坚持人工智能道德决策机器是“人类本性中最好的天使”。[10]这一观点,并将这些“天使”视为“智人2.0”。就目前来看,甚至在将来的很长一段时间,这些机器的认知能力与道德判断水平都是人类自身难以企及的。道德决策机器使人类将自身的决策权外放给人工智能的算法决策系统,人类可以借助不同的应用模式做出不同的决策,甚至这些决策可以直接控制我们的行为,以致于我们不需要承受任何心理上的思虑和行为上的努力。例如,已有通过人机耦合的方式在我们的大脑中植入芯片的操作,道德决策机器通过直接或间接的方式指挥我们的道德行动。[11]

然而,理想状态的“强”人工智能也面临诸多困境。(1)面对伦理学的多元主义,其理想原初状态的道德规范以何为准则是难以确定的问题,即元伦理学一直争论不休的难题,义务论、功利主义抑或德性伦理学等,我们很难就一种方案一致拥护;(2)即便道德规范趋于统一,但在“强”人工智能进行普遍决策的过程中,人类自身德行和技能的习得过程逐渐丧失,扼杀了道德进步的可能,使道德进步陷入了固步自封的困境;(3)人工智能这一工具能否作为道德主体仍是我们尚未探索明晰的领域,完全将道德决策外包给“强”人工智能,道德主体所应承担的道德责任划分亦是我们目前无法解决的难题;(4)即便人工智能道德决策机器可以作为道德主体,但做道德决策的过程,不止包含推理与判断的程式化语言,自主的道德决策主体必定要保持自身的情感性,理性与情感都是道德主体做出道德决策时不可或缺的必要条件,系统化的道德判断缺少了非理性的情感体验。为此,我们可以怀疑道德决策机器的道德判断是否可能。

因此可以说,彻底增强很难作为道德增强较好的可行性方案。

2.“辅助增强”指的是“弱”人工智能视域下的道德增强技术。作为道德决策的辅助增强技术,它将监测影响主体做出道德推理和判断的各类因素,包括生理(体内激素水平、情绪等)、环境(气温、人群等)诸方面的因素。根据这些因素,对其恰当表达,识别影响因素中的偏见成分并且让决策者意识到偏见的存在,然后根据决策者的道德价值观推荐适合的建议。“弱”人工智能“辅助增强”在辅助人类选择最为合适的道德决策方案时,不仅可以保持道德本身所具有的价值多元性,还可以进一步促使决策者深入反思,改善决策者道德推理判断能力的不足,从而增强人类的道德自主性。[12]

道德增强技术借助于AMA实现,而对于AMA的编程有三种方式:(1)自上而下,道德原则被用做选择行动的规则,但其存在着很难为一切机器不断更新的现实任务提供一般理论的问题;(2)自下而上,寻求提供教育的环境,通过经验学习选择恰当的道德行为,但机器尚不清楚道德准则如何适用于具体的场景;(3)混合,结合以上两者。

摩尔(J.H. Moor)则将AMA的模式划分为如下三类:(1)隐性的道德代理人(Implicit moral agents,简称IMA),无法区分道德行为和不道德行为;然而,它们的设计涉及安全或关键可靠性问题,以用来避免不道德行为,如银行转移金钱的自动柜员机;(2)显性的道德代理人(Explicit moral agents,简称EMA),可以将具体伦理原则应用于具体情况,处理有关各种情况的伦理信息,并作出明确的道德判断;(3)完全的道德代理人(Full moral agents,简称FMA),像人类一样的存在,拥有意识与自由意志。

在一定意义上,我们所希望实现的AIME是混合模式的EMA,已经应用到医学伦理学领域的MeEthEx系统与此相近。该系统综合了罗尔斯(John Rawls)关于正义的反思平衡理论(reflexive equilibri-um)、罗斯(William Ross)的显见义务原则(prima facie duty)以及边沁(Jeremy Bentham)的功利主义思想。[13]我们可以在罗德里克·弗斯(Roderick Firth)著名的理想观察者(ideal observer, 简称IO)上寄予更高的厚望,他在《伦理绝对主义和理想的观察者》一书中提出“理想观察者”的设想,夏普(F.C.Sharp)也表达了对此观点的支持和认同。他们从理论上虚构了一个理想化的角色,假定其拥有最全面的知识和全部的理性,并且能做出最正确的道德判断。该模型的特征是:(1)对于非伦理事实无所不知(omniscient);(2)无所不感(omnipercipient),能通过视觉或想象等所有可能存在的方式认知这些信息;(3)不受情感左右;(4)不偏不倚;(5)始终如一;(6)其他如常。全知全能的“理想观察者”是绝对主义中的一个完美模型,为避免陷入道德专家主义的窠臼,应尝试从道德认知的观念视角出发,构建一个动机同一的交互者来作为另一种方案。

三、从合“理性”到“合理”性:AIME的愿景建构

借助IO的全知全能视角,简·德克尔(Jan Deckers)和朗西斯科·劳拉(Francisco Lara)基于人工智能的当前进展和未来发展趋势,构想了一个合“理性”的苏格拉底式的技术系统,以辅助人类做出合“理性”的道德决策。德克尔和劳拉对此系统规制了六项要求:(1)提供外在经验支持;(2)提高道德概念的清晰度;(3)理解逻辑论证的整体结构;(4)检验道德判断是否符合实际现状;(5)提高对自身局限的道德认识;(6)建议决策者如何执行最佳的道德决定。

概而言之,该系统将通过计算机、虚拟现实设备或脑机接口(Brain-Computer Interface)技术等方式,从关于科学、语言学、逻辑学以及人们如何思考和推理的数据库中接收信息。此外,它还将从伦理专家、委员会收集信息,在传感器的帮助下,它将监测道德主体的周遭环境,然后交由系统处理所有这些信息,并遵循上述六项要求,通过虚拟语音助理(类似于Discord bot maker一般的智能聊天机器人)与道德主体进行对话,其内容指向包括:为什么做这个决定?你因为什么这么想?还有其他原因吗?你说的这句话具体是什么意思?可以再详细具体地表述一遍吗?你是否知道你目前的身体状况/环境不适合做出这个决定?[11]其过程类似于苏格拉底式的助产术,智者循循善诱地展示道德决策可能产生的后果,并服务于道德决策主体,且不直接干预主体的道德决定权,确保道德主体进行了充分的道德考量后自行做出道德决策。

尽管苏格拉底式的道德增强系统尽可能全面地考虑了做出道德决策的必要条件,但却忽视了最为关键的道德动机。只有少数合“理性”的康德主义者才能契合合“理性”的苏格拉底式道德机器,而在休谟主义者看来,作为大多数的普通人,道德动机源自于人生而有之的自然欲望。当代休谟主义者运用目的原则来驳斥康德主义者的纯粹理性作为道德动机的观点,即假设人们有欲望A,并且认为道德行为B的实施可以实现欲望A,那么人们就会拥有做行为B的道德动机。

换言之,道德主体既然要产生实施道德行为的动机,其自身状态必然要处于一种在主观上被激发的情境,即要有与主体产生感性影响的情感刺激。唐纳德·戴维森(Donald Davidson)从休谟主义者的理论基点出发,创造性地对休谟式“信念(belief)—欲望(desire)”这一道德情境展开描述:“无论何时,只要某人出于欲望A实施了道德行为B,都能够表述为:(1)某人对某类特定道德行为具有认同的态度(pro-attitude);(2)某人相信自己实施的道德行为B属于那类特定道德行为。”[14]在此,(2)指的就是信念(belief),(1)是处于特定情境的心灵状态(情感、道德原则、价值标准等)。由此可见,要做出切实合理的道德判断,(1)与(2)都有着不可或缺的重要作用。

休谟主义者反对康德主义者的传统观点,认为道德动机是为了满足“自然欲望”,并非是出于对实践理性法则的服从。前者主张道德动机是“信念”与“自然欲望”的合理结合,而后者则视行为背后的价值信念是激发道德动机的实践理性源泉。[15]而面对已有的“自然欲望”,苏格拉底式道德机器是否能发挥其道德增强的功用仍未可知,为此,构建动机同一的交互者则是苏格拉底式道德机器的未来“合理”性的优化所在。例如,“严肃游戏(serious game)”作为尚未在道德领域普及开的新型学习形式,其应用或许有助于帮助道德主体习得趋于主体更高水平的道德动机,至少在医疗领域,从医疗决策支持系统(CDSS)到“严肃游戏”的发展,JDOC、GeriatriX等应用已趋于成熟。

在科技昌明的时代背景下,科技正以迅猛的态势乘时代之东风高歌猛进,人类无法回退到没有高科技的时代。面对技术衍生出的一系列现代伦理问题,我们必须要回归到技术的本身去寻求伦理答案。人文道德的价值应当在与高技术融合前行的进程中得以彰显,伦理学甚至更需要以前瞻性的视角来规避技术发展可能带来的问题。毫无疑问,人工智能站在高技术的风口满足人类的欲求,为人类谋求福祉,人工智能道德增强则是在摒弃了传统道德增强的理论基础上,使欲求与德行相适应发展的一条可能路径。在这一进路中,我们所倡导的和谐、民主、公正、诚信、友善等价值动机可借助动机同一的交互者辅助实现,尽管在技术与理论上存在着诸多困难,但我们可以预见的是,在不久的将来,“向善”的道德机器必将在各方的共同努力下建成,进而服务于人类社会,人机共生、和谐发展的未来图景需要科技工作者与人文学者共同描绘,这一道德图景亦将对我国新时代道德文化的发展建设大有助益。

猜你喜欢
道德行为动机决策
Zimbabwean students chase their dreams by learning Chinese
为可持续决策提供依据
二语动机自我系统对动机调控策略及动机行为的影响研究
动机比能力重要
决策为什么失误了
刘娟、赵玉生:自我损耗会对道德行为产生负性影响
动机不纯
远和近
论黑格尔的道德行为归责理论
基于不同视角的道德行为研究综述