尹 洁
一直以来,神经伦理和人工智能伦理关注的热点问题并不重合,前者更为关注诸如药物增强、大脑干预、神经成像等引发的伦理问题,而后者的问题则更集中在讨论诸如机器人权利、算法的透明性、人工智能系统中的偏见等。但一直以来,人工智能的历史不可避免地与神经科学的历史纠缠在一起,当代人工智能的术语更是从神经科学和心理学借鉴良多,比如人工神经网络(artificial neural networks,ANN)[1]和深度神经网络(deep neural networks,DNN)[2]等。不仅如此,当代技术发展引发的诸多伦理问题出现在这两个领域的交叉之处[3-4],例如,在临床神经科学中人工智能技术被使用来提高诊断的精确度;来自临床的数据可借助机器学习算法被灌输给人工智能,由此为精神疾病作出自动化的、更为准确的诊断;更为重要的是,一些必要的试验,可借助于人工智能技术对于大脑机制和过程的模拟,而不再需要使用动物或人类作为受试者,从而避免了一系列相关的伦理问题。
经由人工智能技术所达成的道德增强,正是神经科学和人工智能科学相关技术合并应用背景下产生的伦理问题关涉的核心。当前的精神医学中,道德增强的应用可被落实到更为具体的领域,即用于改善抑郁症、焦虑症、双相情感障碍甚至精神分裂症患者的情绪和认知。传统精神医学中基于认知行为疗法(cognitive behavioral therapy,CBT)的治疗成分被整合进入人工智能算法的设计,从而使得特定精神治疗用途的聊天机器人(chatbots)得以产生。尽管目前大部分处于商业运营阶段,尚未真正被医院或诊所等临床机构采用,但有基于实证的研究[5]表明,人工智能技术在精神医学领域的应用前景已初步显现。近期,由于人们在生活和工作上的压力增高,聊天机器人Wysa (https://www.wysa.io)的下载量一度激增到200万次,数字化和人工智能时代的人们在寻求心理帮助和支持的方式上发生了重大的变化。相较于道德生物增强的科幻式远景而言,精神医学当中的这种人工智能应用是一种在目前科技条件下较为可行且已具有初步效果的实践。与本文探讨主题相关的是,这种聊天机器人所完成的恰好是一种弱意义上的道德(信息)增强(moral info-enhancement),而非意图在改变动机上的、强意义上的道德增强。在承认这一精神医学领域的潜在应用价值基础上,本文试图探索更为一般性意义上的道德(信息)增强,尤其是基于所谓苏格拉底式助手模型的弱道德人工智能,其自身是否隐含着一个悖论,以及这个悖论是否有消除的可能。
为了更好地审视弱道德人工智能,有必要先回顾什么是一般意义上的道德增强,以及为什么在一种强意义上的道德增强面临诸多挑战。道德增强,指的是有意地对于一个人的性格、动机或行为等进行道德提升。按照这样的定义,道德增强不是一个全新的实践,在日常生活中人们也常常借助于各种方法,诸如道德模范故事的学习和领会、有意识的道德反思等来提升道德品质或行为。但近年来人们对于这一道德增强的兴趣主要源自神经科学与技术新进展带来的冲击,科学技术的发展使得大脑状态甚至功能的改变逐渐成为可能,从而给基于生物性改变的道德增强提供了新的契机。但究竟在什么意义上这种实践是可操作的却不十分明晰,Shook[6]曾写道:“没有一个所谓整合的认知系统来为道德判断的形成和实施负责,因为可分离的因素比起其他而言,本身在某种程度上更多地被用于一些类型的道德判断。”言下之意,关于大脑产生道德判断的机制究竟如何,我们还没有一个清晰的答案,而一旦我们连这一自身的生理和心理机制都所知甚少,更难以想象的是如何进行道德增强。
不可否认,当今的神经科学和技术发展连同人工智能的进展,确实为人们的未来生活新图式打开了一扇大门,但尽管人工智能和大数据技术已然在改变甚至改善人类生活,到目前为止现实中技术所处的阶段离科幻电影中描述的还很远,即便在新闻报道中一再看到各种[7]试图通过对于脑神经的刺激达到某些治疗目的的研究,但真正的临床应用却较为罕见。这不仅使得人们质疑,究竟关于新兴技术,我们是否存在某种认知上的偏差或一种盲目的乐观自信?换句话说,当我们在谈论道德生物增强的各种论证的时候,似乎多数是在谈论其本身是否可欲求(desirability),而不是在说它本身是否可行(feasibility)。谈论应该做什么和需要做什么的这一趋势的形成,主要表现为哲学家专注于讨论规范性问题,而不是聚焦于科学性问题。遗憾的是,科学细节尚未揭示出有关如何在现实中进行道德生物增强实践的有用信息。尽管Wiseman[8]相信未来可能会实现道德增强,但他认为现有主流的生物学和神经科学方法(例如采集血样或使用功能性磁共振成像等)并不能达到这个目标。他写道:“目前研究道德功能的大脑-还原方法可能本质上无法处理道德功能所涵盖的一系列复杂现象……因此,如果道德增强爱好者想在通过药物或其他手段对道德行为和判断进行神经调节上展示出一个可信的科学基础的话,这一大脑-还原的方法会是相当糟糕的一个奠基。”这意味着为了使得道德增强成为可能,我们在研究人类自身机制的方法论上都很可能还有很长的一段路要走。
在考察用于认知增强的人工智能,尤其是与道德慎思(moral deliberation)相关的那些增强技术应用的理论与实践之时,文献中常见的伦理关涉大都围绕着这样两个主要的方面:一是对于隐私侵犯的担忧,二是对于损害自主性的担忧[9]。诸如经颅磁刺激(transcranial magnetic stimulation)之类的先进神经技术的使用往往导致人们对于隐私侵犯可能性的担忧。更多的负面意见集中在讨论道德生物增强对自主性的影响。例如,Harris[10]认为,为了增强道德而使用诸如选择性血清素再吸收抑制剂之类的生物化学物质剥夺了其接受者选择堕落的自由(the freedom to fall),因而对道德行动主体本身构成了一定的威胁。Huang[11]则从不同的角度提出了相同的观点,声称道德生物增强令人反感是因为它破坏了人类的道德行动主体性,通过阻碍作为其基础的准确的自我反思和选择。这些反对理由看似各自从不同的角度出发,但共同点在于否认生物医学层面道德增强的可欲求性。
如果说道德生物增强的可行性和可欲求性面临着诸多挑战,那么道德人工智能作为试图以人工智能方式来达到增强目的的尝试,在本来已经复杂的争议之上就又多增加了一个层次上的困难。在构想道德人工智能之时会发现它本身具有极大的吸引力,但倘若考察其可行性却找得出更多反对的理由或论证,这一点在下面的论证中可窥见一斑。与生物学方式进路的增强不同的是,道德人工智能至少可在一种弱意义上来达到增强,即通过推进信息增强来间接达到道德增强的目的,而不是借由生物增强来直接操控或影响道德主体,就信息增强而言,脑科学、神经科学、医学等领域的革新起到的作用并不如计算机科学和技术层面的影响大。所谓弱道德人工智能与以往惯常谈论的道德增强手段相比,关键差别在于,传统的道德增强多主张采取生物医学手段的增强,直接作用于道德动机,而弱道德人工智能试图通过采取信息增强的方式绕过对于动机的直接影响,希望借此回避掉隐私侵犯和自主性损害的伦理隐患。
Savulescu等[12]提出了一个弱道德人工智能模型,他们认为通常那些用于针对道德增强的反驳意见并不适用于此,在他们看来,道德人工智能可以帮助道德行动主体克服其自然的心理和生理局限性,从而不仅不会减少或消解而是会更有助于确证或增强道德行动主体性(moral agency)。人类由于心理和进化机制上的局限,会倾向于发展自身群体内部的亲和力,这一自然趋势无法否认,因此即便道德发展确实如同我们预设的那样一直在进化,也并不会将其应用扩展到自身所属群体之外的人。Persson等[13]则认为,由于人类“道德上的束缚”,社会文化层面的干预并不能成为实现道德进步的唯一途径;生物医学的增强尽管可能不是唯一的途径,但却是提高道德的最重要方法之一。尽管Savulescu认为人类道德在某种程度上是“硬接连的”(hard-wired),但他也认为弱道德人工智能会很有用,即便它只是在道德慎思方面为人们提供了帮助而对动机没有太大影响。Savulescu所参与的西班牙跨学科研究项目“人工智能和道德生物增强”持有关于增强的一个类似的基本构想,它的基本假设是,由于计算机可用于增强数据的管理和处理,因此人工智能可用于增强我们的逻辑和慎思能力,基于此种假设,他声称该项目旨在探索“用道德信息增强来补充不同方式的道德生物增强之可能性,也就是说,计算机科学在道德决策中的新颖应用”[14]。
Savulescu等[12]关于道德人工智能的论点类似于Lara等[15]提出的观点。他们认为,在讨论道德增强时,动机不应是唯一要考虑的因素。如果我们可以绕过动机并使用所谓的“彻底的增强”(exhaustive enhancement),就可以把所有道德决定留给机器来做。诸如通过将计算机芯片植入大脑并告诉人体遵循指令,或者可以通过设置好人工智能系统然后让我们遵循它发出的指令,或者可以由现实的某个政治系统来强制执行那些通过人工智能系统输出的道德推荐意见。不同之处只是在于那种植入芯片的模型迫使人类根据人工智能系统的输出采取行动,但设置好人工智能系统再由人类执行则需要人类的服从。无论哪种模型,都使人成为多余的人,尽管给人们省去了花费在复杂的道德考量和因可能的错误而造成的重复、冗余和迂回的劳动,并且由于道德判断全盘“外包化”,动机被绕过,由此也避免了破坏隐私和影响自主性的问题。
相对于Savulescu这样较为彻底的方案或预想而言,Lara等[15]提出了较为“适度”的人工智能助手模型,该机器仅以苏格拉底式的方式提出问题,也就是使用者与这个苏格拉底式的道德助手一直处于对话之中,道德助手机器人在对话中可以质疑使用者的假设,或澄清使用者表达出来的概念,或通过提供最佳推理和决策所需的有用信息,或帮助使用者检验其论点的连贯性等。一言以蔽之,机器不会为代理做出决定,而只是以对话的形式帮助加强论证本身。以此方式,作为机器人的道德机器并不旨在教导或内化任何道德学说。它不同于那种本身自主的道德机器,后者可以独立运作而不依赖人类,因此不会有所谓信任上的问题,因为最终仍然是由人为主导而不是机器。事实上,如果我们对计算机是否可以提供可靠的指导来给道德论证提供支持,那么这种担心似乎是多余的,因为只要算法在技术上可行,计算机在完成分配给它的任务时一般而言比起人都更为可靠。按照这样的模型,人们通过与道德机器进行交互,学会如何以一种概念化的、能收集和吸纳尽量完整真实信息的和合乎逻辑的方式来进行自己的思考。换句话说,这像是一个认知的“净化”或“改善”过程。同样地,在精神医学咨询和治疗中使用的聊天机器人,无论是否以一种模拟人类的方式存在(即无论是否模拟人的口吻、特定人格或是仅仅作为无人格和情感偏好的对话机器),由于仅仅聚焦于信息增强,也就在一种类似的苏格拉底式助手意义上发挥作用,只不过精神医学的目的不是为了成就更好的道德判断或造就道德上更好的人,而只是达到精神治疗的特定目的,比如通过促进积极乐观的情绪和正向的思维方式来促进精神健康。
Lara等[15]认为其苏格拉底式助手模型比传统意义上必须通过动机起作用的增强要具有不少优势,最重要的原因是自主性和隐私的问题可以被很好地避免。不仅如此,由于不需要在人脑或体内植入计算机芯片或设备,它也会更安全。它还给道德行动主体做出最后的道德判断留下了空间,尊重了道德多元性。它不仅充当道德慎思的助产士,还可以作为实现道德进步的教育方法。但是,直觉上看,如果道德人工智能模型只是绕过动机的话,似乎不符合道德心理学,换言之,如何构想人类在绕过动机的情况下来直接根据道德判断采取行动呢?注意这里的问题是针对可行性而不是可欲求性,即,究竟道德人工智能助手在不影响动机的情况下是否有用,是如何起作用的?事实上这个问题导向另一个更为古老的哲学问题,即道德判断本身是否可以发挥作用而不引起任何的动机变化?
尽管Lara等[15]声称这个模型绕过了与动机相关的问题,例如对道德主体的自主和隐私的负面影响,但道德人工智能的信息增强真的能够在不影响动机的情况下起到预想的效果吗?尽管他们承认,苏格拉底式的人工智能系统也可能改变动机。通过说“不能排除人工智能的认知帮助可能间接改变道德主体的动机和情感倾向的可能性”,它们承认了可能性,但关于如何可能却语焉不详,所谓“间接改变动机和情感倾向”的含义是什么并不清楚,而我们需要知道在什么情况下可以改变动机或情感倾向。例如,我们的人类经验中到底哪些因素会导致动机和情感倾向的改变?
此外,人类的道德发展似乎也不是从自发产生的道德动机开始,而是通过被养成的道德行为开始,儿童在不完全了解道德意味着什么和要求做什么之时,被家长和社会刻意按照某些特定的、基于个别道德行为叠加起来的习惯来培养。由此可见,如果这样的道德人工智能能够以某种方式促进道德行为的培养,那么它可能会促进动机和情感倾向的改变。但是,无论是根据Savulescu等人还是Lara等人的想法,培养道德行为都不是其设计的道德人工智能的目标。但如果苏格拉底式助手的道德人工智能,如同他们原初构想的那样,仅仅旨在为行动主体提供选择上的建议的话,那么它对行动主体的影响似乎是非常外部的,因此在促成道德行为的意义上,极有可能无效。我们可以将这种情况与视频游戏的情况进行比较,例如,倘若有一个叫“我们都是道德人”的游戏,参与游戏者基于设计的特定算法而与道德机器互动,从而在游戏中扮演道德人的角色,但在现实生活中却拒绝按照算法推荐方案来行事。在大多数情况下,真正的道德要求牺牲自己的利益,事实上,由于自己的利益与道德的要求之间经常发生明显的冲突,如何理解道德动机就更是一个困难的问题。哲学家想知道道德判断和动机之间存在什么样的关系,正是因为知晓正确道德判断的主体不一定有动机去做正确的事情。这种情况是频繁出现的:不道德的人是完全理性的人,能够进行道德行为,但根本不愿意这样做。
为了理解道德判断与动机之间的关系,哲学家给出了截然不同的观点和相应的解释。在元伦理学中,有着关于道德动机的经典讨论,其中,休谟主义和反休谟主义各执一词[16]。双方讨论的目的在于知晓道德判断与道德动机之间是否存在必要的联系。用另一种方式来构想这个问题,就是在问,道德判断的存在是否会激发采取行动的动力。休谟主义者认为道德判断本身无法激发行动者采取行动,而是需要一种额外的行动,该行动可以产生欲望,或者存在预先存在的欲望状态(conative),有时被称为“赞成的-态度”(pro-attitude)。柏拉图最早提出了反休谟主义中最为激进的版本,他认为对道德观念形式的理解应该能够为行动主体的行动提供压倒一切其他因素的动力。还有一种类似的观点认为,如果道德判断没有提供足够的动机来按照自己的判断行事,那么道德判断就不能算作真正的道德判断,因此,当人们谈到道德判断时,她或他必须默认,将道德判断归于某人就已经意味着,具有这个特定道德判断的人就具有相应的道德动机。
但是,我们不必视这种观点为理所当然。关于道德判断是否能够自身提供足够动力去行动的核心争论实际上揭示了一些有关道德人工智能算法设计的洞见,因为如果休谟主义者是对的,而且我们确实需要额外的资源来产生动机,那么作为苏格拉底式助手的弱道德人工智能在产生道德行为上就起不到直接的作用,它最多只能提供合理的、第三人称意义上的道德判断。作为苏格拉底式助手的道德人工智能无法处理诸如动机或非认知元素之类的问题,但弱道德人工智能目的本身难道不就是仅仅提供道德判断吗?为什么要去苛责它不能作用于动机这一点?休谟主义与反休谟主义之间的区别似乎正好对应着弱道德人工智能与(强意义上的,或者说作用于动机的)道德增强之间的区分,然而关于道德动机的哲学论争表明,经验研究无法解决某些特定的问题,因为但凡道德心理学有了确定结论的话,就不再需要这一哲学辩论,因为彼时我们应该能够基于复杂的人类心理学知识构建出强道德人工智能,彼时算法设计也不是难题,可以借鉴关于那些被认为具有道德品质的人的心理学研究结果。话虽如此,哲学未能使我们就道德判断本身是否直接带来动机提供统一的答案,也未能告诉我们如果答案是否定的,还需要些什么。如果这仍然是一个尚未得到回答的问题,结果便是,不仅我们不知道如何达成强意义上的道德增强,即那种能产生影响道德行动主体的道德判断的,更麻烦的是,我们甚至不知道这种所谓弱道德人工智能是否达到预期。
道德机器看起来很像我们参与的那些在线测试,比如麻省理工学院媒体实验室(MIT Media Lab)那个有关驾驶的道德决策的研究[17]。其在线调查由各种设计的道德困境组成,要求测试人员选择答案。典型的问题一般是这样:是选择沿汽车的原始路线行驶并在行人线上撞到A,还是选择操纵方向盘并在道路另一侧撞到B。该测试赋予A和B各种值,例如一个老人和一个婴儿,或者一个具有较高社会经济地位的人与另一个具有较低社会经济地位的人的值的组合。这是一个经典的电车难题,大多数人会发现几乎无法找到满意的答案。但是测试的设计是迫使参与者在有价值的事物(包括人类和动物)之间进行排序。假设我们确实有关于不同人群的选择构成的详细描述,并且基于这些数据,我们能够根据生活中有价值的事物的排名来设计算法并构建交互式人工智能作为道德助手,模仿实际人类的反应。这样,我们就有可能通过以下方式与机器通讯:通过获取我们的信念和偏好输入,我们可以进行某种对话,从而提出建议。但是,目前尚不清楚这种对话是否会起到激励作用。更重要的是,甚至还不清楚,在一种道德推荐的规范性意义上,哪种答案应该被推荐。诚然,这样的实证研究并不需要就解决道德困境应采取的措施作出规范性的回答,对于它的探究可能有助于分析人类的道德心理学。然而,道德推理远比当前的经验研究告诉我们的要复杂得多。心理学家有时认为道德判断是对矛盾案例的直觉反应的一种特殊的合理化,这种观点认可了认知和情感处理的相对独立。例如,Greene等[18]认为,我们对道德困境的直观反应取决于在任何给定时间哪个子系统具有更大的作用力,但是许多哲学家认为Greene等的论点基于一个与道德无关的假设,这种假设是有问题的,因为它基于道德推理的神经生物学基础的某种可疑观点[19]。Greene等再次使用经验层面的假设去解释了经验层面的结果,并未能就人类道德行为的规范性框架告诉我们些什么,而这些关于规范性框架的知识是达到道德增强所必需的前提条件。换句话说,如果没能明确人类道德性的指向,那么所谓对于道德增强的设计也就失去了目标或方向。
然而,弱道德人工智能的捍卫者可能会回应这一点质疑,认为道德机器并不一定要把坏人变成好人,它只是教会好人或至少是比较好的人如何提高他们的道德推理能力,而这是以行动主体的意图为前提的。对于一个无意进行任何道德行为的人来说,道德人工智能肯定是毫无用处的。考虑到弱道德人工智能的目标,这似乎是正确的。这里暂时不需引入非常复杂的道德认识论来论证,但一个简单的问题是,伦理学机器是否像他们所声称的那样只是作为苏格拉底式助手发挥作用,如果是的话,这种应用在多大程度上是可行的并且值得付出代价?我们是否需要进行大量的研究来进行这种仅仅完成信息增强而不影响动机的机器?我们关于苏格拉底式道德助手的研究和设计的场景中似乎存在一个悖论,因为我们既可以像我们现在所理解的那样建造机器,也就是将它作为苏格拉底式的助手来建造,这样的话机器的应用会非常有限,或者,我们不能从技术上构建真正能够独自解决道德困境的人工智能,仅仅是因为我们没有关于道德推理的足够的经验或科学证据。换句话说,为了保障安全性同时避免影响行动主体的自主和侵犯其隐私,这个弱道德人工智能模型似乎将婴儿与洗澡水一起倒掉了。除非我们能够证明,苏格拉底式道德助手的设计是达成(强意义上的)道德增强的先决条件,也就是说,弱道德人工智能有其自身的工具性效用,但到目前为止,(强意义上的)道德增强自身的可欲求性和可行性也遭到了高度的质疑。一个可能的关于弱道德人工智能应用前景的案例仍是本文第一部分所谈到的那种,鉴于目前精神医学治疗中聊天机器人使用的趋势,我们也许可以说,即便道德增强的目的暂时无法达到,我们至少在好的方向上推进,精神疾病患者或者日常生活中饱受压力和焦虑困扰的人群,都可以受益于类似Wysa这样的在线聊天机器人,这种人工智能的使用促进了人们的精神和心理健康。尽管我们可能不知道在这一方向上能走多远,但这不妨碍当前弱道德人工智能的发展必要性。
弱道德人工智能可能没法起作用的原因在于,道德行动中的那些阻滞性的因素根本无法通过有效或合理的道德论点来消除。Persson等[13]在《道德硬接连与道德增强》中写道,由于人类道德心理学的特征,生物医学道德增强可能不是道德进步的唯一方法,但却是最重要的方法之一。针对鲍威尔和布坎南的观点,即由于社会文化手段更有效、更安全因此无需生物医学手段的这一观点,Persson等认为,尽管有些态度可以通过理解和接受更好的理性论据(例如我们在种族主义和性别歧视这种例子里面确实可以因为慢慢接受更为合理的论证而肃清原先的偏见),从而确实可以通过社会文化干预而改变,但这些很难解释乃至撼动动机性质的或非认知性质的因素。
换句话说,Persson和Savulescu所说的“道德硬接连”指的是人类在道德发展环境中几乎不变的并且对理性的说服力不敏感的那部分。与种族主义和性别歧视不同,裙带关系这种偏见不能通过社会文化干预来消除。困难部分的存在表明人类当中确实存在一些顽固的偏见,而这些偏见不容易纠正。在这种情况下,如果道德人工智能只是提供一些帮助使行动主体意识到隐藏的逻辑谬误或概念的模糊性,那么它的应用将非常有限并且最终无效。对于某些人来说,指出他们逻辑推理的不一致确实有用,因为有认知能力的情况下这些人实际上会承认此类错误,这样的话就有可能进一步影响他们的动机并可能触发道德行为。但是,这并不适用于所有人。有些人完全具有认知能力,也能够在逻辑推理中意识到自己的错,但是不会改变,或者只会坚持自己的假设,不会设身处地为他人着想,这使得任何道德的说服都无济于事,更别说道德人工智能助手了。无所谓道德的人(amoralist)也类似,只不过他们不会按照自己坚持认为的对与错的判断来行事,因为这样的道德判断对于他们没有意义。
动机之所以重要,不仅是因为我们直觉上似乎更珍视那些单纯出于道德目的而做出的行为。需要追问的是,与逻辑合理的那种道德慎思相比,我们究竟应该在什么程度上重视动机本身。将道德行为和行为者都考虑在内的道德理论也许可能有助于理解动机的重要性,以及在弱人工智能那里声称的所谓“绕过动机”(bypassing motivation)到底意味着什么。正如Coakley所写的,常见的道德理论要么只讨论道德行动主体,要么只注重行为本身。例如,在道德层面评估对象时,我们要么评估人的行为,询问诸如道德主体的行为对与错之类的问题,要么我们评估道德行动主体的道德特征或道德品格[20]。正如人们在伦理学史中所看到的那样,大部分伦理学理论要么讨论行为的道德正确性,要么讨论道德行动主体的正确性。Coakley提出了一个有趣且有意义的问题,即,假设在一种道德理论A的框架下,某些行为可以被判断为正确的行为,这个结论是否与另一种就道德主体的特征或品质做出判断的道德理论B相吻合?表面看来这个答案应该很简单,因为我们倾向于假设不同类型的道德评估之间存在一致性,但Coakley通过研究诸如结果论和道义论之类的主要理论揭示出事实上想要得到一个一致的答案是相当困难的。在他看来,为了解决这种结论难以调和的问题,动机伦理可能是替代方案,这一评价标准认为“道德行动主体越有动机去推进(整体)的善,那么他在道德意义上就越是更好的人”[20],这样才能把有关动机和行为的评估整合成为一个。尽管Stonestreet指出Coakley的理论取决于读者是否接受他将“整体善”(overall good)的概念作为道德意义上的善[21],这似乎是Coakley有必要回应的一个反驳。但是,撇开该假设,Coakley确实通过“道德主体问题”(moral agent problem)提示了:如果道德理论过分强调行动的评估,就不足以评估行动本身,从而导致道德评估的不同途径之间存在不一致的问题。我们并不一定需要接受Coakley的动机伦理理论本身,但是他建议同时考虑动机和行为这一点值得注意。对动机重要性的理论性反思表明,苏格拉底式助手的道德人工智能可能由于绕过动机而同时也使得使用者失去了接受此种道德评价的资格(eligibility)。这意味着,尽管Savulescu等和Lara等提出的模型通过绕过动机避免了来自以侵犯隐私和损害自主性为名的指责,但他们的弱点也恰恰在于他们放弃了动机这一环节。
从一种单纯的康德式义务论角度评价,动机则是更为重要甚至是评价道德价值的唯一标准。康德认为道德价值仅来自出于义务动机的行为[22],除了义务以外其他动机道德上都不正确,即使同情心也被排除在外。虽然看上去有些反常识,康德义务论却揭示了道德深层次的本质。正如Savulescu和Maslen所设想的那样,弱道德人工智能可以发挥一系列工具性的作用,诸如作为道德环境的监督者、道德组织者、道德促进者、道德顾问、保护免受不道德的影响以及可以维护道德自主性和群体层面的道德人工智能。但是,以上这些功能,无论如何精心设计,似乎都无法在使用或与此类人工智能交互的道德行动主体中产生出义务(或与之相关的,被康德称为是“敬重”的情感)。这意味着,持有强康德主义立场的话,苏格拉底式助手类型的道德人工智能将永远无法在帮助我们成为“道德”行动主体上发挥直接的作用。换句话说,如果弱道德人工智能可以按预期成功地工作,那么它最多可以提供帮助来生成较为合理的道德决策,而不是为行动主体本人做出实际决策,更不用说最后是否能导向道德行为。行动主体,无论他从所谓的道德人工智能机器中获取了多少信息,都必须最终决定自己要做什么,并实际执行他选择的行为。在这里道德人工智能会显得无效,即,如果我们确实采取动机伦理观点来评估行为主体,而不是仅仅关注行为,那么我们就会关注到这种苏格拉底式助手意义上的弱道德人工智能对动机没有任何影响。尽管它肯定会通过提供各种帮助来影响道德判断,但却不能决定行动主体的动机(按照康德的表述是“规定意志”),从一种彻底的康德义务论观点来看,任何并非纯粹出于义务动机的行为都没有道德价值。只不过,对于任何仅需要评估行动结果的情况而言这不是一个问题,例如,在用群体人工智能来做资源分配决策推荐的情况中,一般会根据集体决策而不是根据针对个体进行评估,这里可采用基于结果论或功利主义的标准,不需要一定采取动机伦理的视角。
上述论述质疑了弱道德人工智能的实际效用,即认为如果这种弱道德人工智能只能实现信息增强和在与行动主体的对话中充当苏格拉底式助手的话,这种作用并不能帮助我们成为更好的道德行动者。换句话说,弱道德人工智能作为苏格拉底式助手的应用颇为有限,这使得这一层面的信息增强处于尴尬的境地。此外需要注意的是,这仍是在我们首先悬置了另外一个问题的情况下考虑的,这个更为深层次的问题是,究竟我们能否定义什么是道德上的善,以及如何评价道德上的善。而即便撇开这个苏格拉底式助手的弱道德人工智能不考虑,单纯道德信息增强本身的可行性尚不清楚,这需要对科学事实有足够的了解才能知晓,诸如那些关于大脑如何捕获那些使功能性大脑状态符合道德目的的信号的知识,而更进一步追问什么才是真正的道德目的,也只能说是由道德行动主体所在社群共有的价值观所蕴含的。
一旦解决了可行性问题,弱人工智能可具有良好的教学应用前景,适用于那种处理大量复杂的信息来进行道德决策的场景。此外,苏格拉底式助手的道德人工智能可以提供虚拟现实体验,通过这种体验,人们可能对根本没有机会体验的事情产生同理心或同情心,这也有助于改变一个人的道德考量,并具有影响动机的可能性,这一可能性,如前所述,确实被这一模型的提出者所承认。然而,如果这行得通,似乎不再是一个弱道德人工智能了,那种声称可以绕过动机的弱道德人工智能和直接影响动机的道德增强之间的界线被模糊了。这里的关键在于,仅凭提供虚拟现实这一事实并不是区分弱和强的标准,按照提出弱道德人工智能模型的人自己给出的定义来看,并不是由一个增强手段所完成的任务来定义它究竟是弱还是强,而是看是否通过对于动机的影响来实现道德增强目的来确定其性质。
通过强调信息增强,弱道德人工智能的主张似乎暗示着一些有用的东西。道德信息增强和道德生物增强不一定彼此排斥。道德生物增强强调的是手段,即只是说使用生物医学手段来增强目的,因此,广义上来看,药物、外科手术和脑机接口等方式都可以达到生物增强的目的。道德信息增强,则强调增强的效果究竟在哪个层面完成,即被增强的维度。相反,这并不是说道德上的生物增强更可行,坦率地说,没有太多证据表明道德推理的生化基础或神经生物学基础对于我们而言更简单易得,我们碰巧发现某种可以突然使人更有同情心或无私的药物这件事的几率似乎也相当低。从这个意义上讲,道德信息增强和生物增强必须面对可行性上类似的挑战,因为它们都需要解决基本的科学问题,即如何以某种方式操纵大脑的状态,以改善人类的行为。两者之间的联系是,由于道德信息增强的侧重点在于这一增强可以在扩展信息量和提高信息处理效率方面发挥作用,因此信息增强也可以通过生物增强方法来完成。例如,通过服药或接受外科手术或与脑机接口连接,我们的大脑可以更快地工作,从而使受体变得极为敏感,我们将能够处理甚至存储大量信息。如果人的大脑和身体在生理上能够进行这种生物医学增强,那么它将与信息增强的结果并无二致。通过生物医学增强(包括药物、脑机接口和外科手术)实现信息增强的场景不仅是合理的,而且也是可取的,尤其是在非常复杂的日常生活或社交生活中,那里有大量我们没有时间和精力来熟悉和处理的信息。因此,弱道德人工智能不必仅仅针对信息增强。换句话说,信息增强这一目的,或者说作为达到道德增强的阶段性目标,既可以通过信息增强的手段来完成,也可以通过生物医学增强的方式来完成。
由于动机的重要性以及道德判断与动机之间的鸿沟,作为苏格拉底式助手的弱道德人工智能方案不具有实践上的吸引力,但弱道德人工智能的局限性并不一定意味着强意义上的道德增强一定失败(当然这里我们暂且搁置了对于它的伦理问题的主要批评意见)。尽管以信息增强形式的苏格拉底式助手弱道德人工智能功能有限,但是鉴于前面文字中对生物增强和信息增强之间的关系所作的说明,信息增强作为一种阶段性或工具性目标,当其与已经可行的强意义上的道德增强手段结合使用时,会有一定的应用空间,但这时假定强意义上的道德增强的可行就意味着至少我们已具备有关人类道德心理学和神经生物学机制等的足够知识,并具有改变精神状态(mental states)和直接影响动机的能力。考虑到我们在基因上的限制和在生理上无能力存储和处理海量信息的事实,我们也许能以某种方式将信息存储或处理的工作外包给第三方,比如说,这个第三方能在大脑和身体外部完成信息增强。
此外,当我们谈论道德增强时,也可以对其具身(embodiment)的方式再细化。如果一个人工智能可以被用于道德增强,其结果既可以是:(1)经由任何方法(包括人工智能手段和方法在内)在道德上得到了增强的道德行动主体/人,也可以是:(2)拥有超强道德推理能力的(内置了人工智能算法的)机器,一种能够在无需人工干预的情况下解决道德问题的机器。注意这两者是极为不同的选择,而在这两种选择之间,具有增强的道德能力的行动主体/人更为可行,其原因仅在于,为了使任何形式的道德增强成为可能,对人的道德心理学、生化和神经生物学机制的全面了解是必不可少的,这些知识包括诸如人脑如何捕获和处理那些具有道德重要性的信息等,因此在道德上得到增强的行动主体/人是制造出具有道德推理能力的机器的前提,即,后者的可行性取决于前者。这样,从广义上讲,这里所能得出的思路其实更接近于脑机接口(brain-computer interface)模型,在这个模型中,动机没有被轻易绕过去,更重要的是,自主性可以在一定程度上得到保留。如果强意义上的道德增强(如果在科学上可行),以已知的动机影响机制为前提,再联合信息增强手段,那么自主性和隐私的关涉就会再度出现。很有可能的是,自主性和隐私问题无法完全避免,但是如果脑机接口具有增强人类道德的潜力且能够为人类保留必要的自主性和隐私,这将是有希望的,但如何使得这些要素在一种操作层面上彼此相容仍需要进一步在经验的层面上确认。毕竟,道德增强的弱版本和强版本,无论是通过生物医学手段还是人工智能技术,都被同一个关于可行性的问题困扰,要想在真正意义上增强道德功能,就得先在生物化学和神经生物学机制以及塑造道德行为和性格的社会心理环境方面进行大量的实证性工作。
总之,作为苏格拉底式助手的弱道德人工智能的悖论在于,通过绕过动机,道德信息增强似乎可以避免侵犯隐私和损伤自主性的问题,但是,即便可行性问题先搁置,在没有对道德主体产生动机上的直接影响的情况下,仅道德信息增强似乎并不能直接为人类的道德价值奠基。然而如果我们不对未来的技术发展做独断论式的猜测,那么从目前精神医学和心理治疗中所使用的这种聊天机器人的实践和其效果来看,也许相关科学与技术对于人的认知、情绪甚至动机的影响是有希望的,它甚至可以在一种非侵入性操作(这意味着更安全)的方式下完成,正如我们在聊天机器人Wysa那里看到的,这种互动的、基于人工智能技术的、以人机对话方式进行的精神/心理治疗实践不正是一种苏格拉底式助手的实例吗?由于这一技术与实践刚刚开始,系统性的、关于市场主流心理治疗类聊天机器人的实证研究还很少[23]。目前Wysa通过了英国国民医疗服务体系(National Health Service,NHS)的临床安全标准(https://www.wysa.io/safety-and-efficacy),但其在隐私保护、保密性和临床效果上还没有确定的结论。如果说用于精神医学临床的人工智能助手其临床效果如何还拭目以待,那么究竟我们离这种由弱道德人工智能完成的道德增强还有多远似乎更难以预测,但是换个思维方式看,至少目前也没有证据表明这一事业是不可完成的,在生物化学、神经生物学、人工智能等技术那里和在社会与道德心理学之处的进展和会聚会告诉我们答案。