人工智能辅助道德增强可行吗?

2020-01-07 15:07然,
科学经济社会 2020年3期
关键词:决策主体道德

任 然, 杨 琼

(1. 弗林德斯大学 商政法学院/南开大学 经济与社会发展研究院,天津 300071;2. 云南师范大学 马克思主义学院,云南 昆明 650500)

道德培育是人类社会的一项永恒主题。传统方式,如学校教育、宗教感化、文学熏陶、冥想祷告等,往往收效缓慢。小至欺诈、诽谤,大至腐败、种族主义、谋杀等不良道德或恶性犯罪现象依旧充斥在我们的社会。有人可能会反驳,道德水平的差异是人类社会本身所携带的,无法消除。而且正是这种差异性,某种程度上造就了人格的多样性。诚然,我们并不反对这样的观点,也不奢求人人都成为道德圣人,只是希望能探索一种可行的方式辅助我们做出道德决策,间接提升人类的道德水平。我们如今面对的是一个更加多样化的世界,全球化愈加深入,科技日新月异,人类道德有限性的后果变得越发严重。面对环境危机,以及最近在基因工程、人工智能和网络技术方面的突破,更加强了人类伦理进化的必要性。道德心理发展规律通常只在小群体中保持有效性,对于许多现代问题,如气候变化和环境治理这类全球集体行动问题,人类道德还未进化到能够应对如此大规模的社会挑战。人类社会面临着前所未有的威胁与挑战,对道德增强(moral enhancement)(75)道德增强是提高道德认知、道德动机和道德行为的一项系统性工程。议题的关注显得尤为迫切。因此,人类追求某种形式的道德增强将是一项至关重要的应对措施。有人认为我们可以通过学习道德推理达成,事实上,单纯调用我们自身的道德理性似乎有着天然的缺陷,大多数的道德观点和决策都建立在即时的情感反应和直觉反应的基础之上,而非我们所希望的理性和深思熟虑的方式。当我们做出道德决策后,所采用的道德推理通常只是用来合理化直觉相信的东西。还有人认为我们可以利用生物医学技术增强人类道德,但是目前这一领域还不成熟,采用这种方式风险较大,颇具争议。那么,我们能否借助外部手段,比如人工智能,辅助我们做出道德决策,进而达成道德增强的目标,这是一条值得探讨的研究进路。

一、人类道德的有限性

道德进化心理学认为,人类适合生活在规模小但关系紧密的群体中,这样可以获得许多繁衍和生存方面的优势,包括公共托儿、共享食物等资源,以及更好地抵御自然灾害。然而,只有当个人更倾向于合作的时候,才能享有这些优势。如果所有的个体根据自己的利益行事,个人利益在短期内会得到满足,但长此以往群体利益会受影响,个人利益也终会受损。因此,在最基本的层面上,群体内部的分享和合作,将促进社群朝着包容性的健康方向发展。这是道德演化的总体趋势[1]。在总体的道德演进趋势中,有各种各样的制约因素。例如,我们都反感的“搭便车行为”(free-ride),这种行为有损群体内部的长期合作。搭便车的效果取决于群体的规模,群体规模相对较小,搭便车非明智之举。随着群体规模的扩大,个体的匿名性越来越强,搭便车行为也越来越难以察觉[2]。故而在较大规模的群体中,为了群体利益而合作的道德倾向也会相应地减弱。

由于在小而紧密的群体中,我们更在意所处的直接环境。这样便使得我们倾向于更关心周围的人,而不是那些在空间或时间上更遥远的人。此外,根据亲缘选择理论,我们的利他倾向体现在对家人和朋友的偏爱。由于生物体的近亲拥有一些相同的基因,因此基因可以通过促进相关个体或其他类似个体的繁殖和生存来提高进化的成功率[3]。我们慢慢形成了一个普遍的共识,不加区别地帮助陌生人,会使我们面临被搭便车者利用或者被受助者敲诈的风险。此外,从群体间竞争的角度来看,建立明确的群体界限,对于凝聚和疏导群体行为,无疑是大有助益的[4]。但另一方面,这种强烈的群体认同和依恋也会产生弊端,包括对外部群体成员的强烈憎恨,导致反社会行为和仇外心理。

全球化进程逐渐将人类社会变成“地球村”,在这个超大的社群中,人类道德有限的危害还表现在其他方面。根据心理学中“责任分散效应”(旁观者效应,by stander effect),当要求个体单独完成任务,该个体就会表现出很强的责任感,但如果要求一个群体共同完成任务,群体中每个个体的责任感就会变弱。俗语有云,“一个和尚挑水喝,两个和尚抬水喝,三个和尚没水喝”。所以在那些需要得到帮助的弱势群体面前,社群的规模越是庞大,社群中的个体往往越发冷漠。当面对全球性难题时,“责任分散效应”便显露无疑。例如,很难让群体中的单个主体自愿采取行动避免环境危机,每个主体对总体结果的贡献变得微不足道或难以察觉。这使得主体几乎没有利他甚至利己的理由和动机为解决方案作出贡献。长此以往,不利于解决环境危机和气候变化难题。

人类道德有限性的后果在现代社会愈加凸显。人类在进化过程中已具备的适应性,不足以让我们应对现代全球化所带来的技术挑战。事实上,科学技术的发展已经从根本上改变了我们的生活条件和生存方式。我们现在生活在一个人口基数庞大的社会中,拥有先进的科学技术,这些技术使我们能够对全世界,甚至对遥远未来的人类命运产生影响。比如,人类在20世纪研发并配备了大规模毁灭性的核武器和生化武器,这些武器可能被主权国家用于争夺日益减少的自然资源而引发战争,或者被恐怖分子利用。无论是何种情况,后果都不堪设想。很显然,这类技术带来的问题无法通过技术革新来克服。

我们的道德是一种有限的进化方式,有着天然的不足。当考虑在特定情况下权衡利弊并决定采取何种行动时,我们无法克服这些限制。有人可能会反驳,认为可以调用理性的道德推理来消除这些缺陷。事实上,对于人类而言,系统的道德推理是极其罕见的,往往是一种幻觉[2]。

综上,技术的进步扩大了我们的行动能力,但也带来了巨大的风险。人类文明比以往任何时候都更加脆弱,我们能否在某种程度上提升人类道德水平,也就在某种程度上影响着社会的安定,甚至影响着人类的命运。通过传统的道德教化来增强道德,周期漫长,且收效甚微。因此,我们有必要探讨道德增强的其他可能进路。

二、生物医学增强道德的局限

到目前为止,在关于道德增强的争论中,焦点主要集中在影响道德增强的生物医学手段上。生物医学道德增强并非仅停留在科幻小说的层面,由于神经科学和生物技术的进步,我们现在能够通过直接影响或干预个体的生物机制来影响其道德思考和行为。这些干预的目的将是促进对他人的信任和培养合作的愿望。科学实验的结果表明,通过生物医学手段提高道德水平是可能的。事实上,许多已经在使用的药物或多或少有道德增强的效果。生物医学干预可以影响道德决策,这些干预措施包括使用各种物质,如催产素和血清素,以及各种技术,包括经颅磁刺激和提供神经反馈[2]。然而,从目前的报道来看,生物医学干预效果不显著且持续时间短。

在生物医学干预的问题上,一些学者认为,自愿实施这些干预措施在道德上是允许的或可取的,主要以牛津大学的托马斯·道格拉斯(Thomas Douglas)和华盛顿大学的戴维·德格拉齐亚(David DeGrazia)为代表。另外一些人则认为,这些干预措施非常紧迫,如果我们作为一个物种要生存下去,则需要强制性的干预。主要以英格玛·佩尔松(Ingmar Persson)和朱利安·萨乌列斯库(Julian Savulescu)为代表[5]。

上述两种观点代表了生物医学增强的两条进路:自愿道德生物增强(VMBE)与强制道德生物增强(CMBE)形成了鲜明的对比。还有学者讨论了第三种可能的道德生物增强类型:非自愿道德生物增强(IMBE)。例如,基因组编辑以增强未出生胎儿的道德,这既不是自愿的,也不是强制性的,而是非自愿的。非自愿道德生物增强可能会使人们变得比原本更有道德,也评估了旨在提高我们后代道德水平的基因组编辑的可能性。对我们的后代进行基因改造的基因组编辑可能在三个方面发挥效果:让他们更有同理心、更少暴力攻击、更有可能进行复杂的道德反思[6]。有学者指出,像基因组编辑这样的非自愿道德生物增强,再结合自愿道德生物增强,可能是人类必须变得更好的最佳选择。

尽管人类使用生物医学技术可能会改变人类的某些道德情感,但要从根本上提高一个人的道德动机,做出更好的道德行为,获得明显的道德品质提升,道德增强还将面临着巨大的挑战,甚至是一些无法逾越的困难。首先,道德情感难以量化的特点使道德增强变得异常困难。其次,道德心理表现出的个体发育的复杂性以及神经心理的复杂性给道德增强准确的“目标干预”(targeted intervention)带来严峻的挑战。第三,道德多元化使我们对道德增强的可能性产生怀疑。最后,如果科学家将来可以做到安全有效地运用生物医学技术精确地调节人的情感,道德增强是不是就没有问题了呢[7]?

即便这些生物干预措施不会对人体健康造成不利影响,生物医学增强道德也会引发一些深层次的哲学讨论。如果说器官移植技术开启了个人同一性问题,那么道德和认知增强便将这个议题引得更远。当我们选择认知增强技术和道德增强技术时,我们的个人同一性是否受损?即使这种增强技术的效果是暂时的,是否会出现短暂的个人同一性“紊乱”。长期且频繁地使用这类技术,对个人同一性将产生异常深远的影响[8]。此外,像基因组编辑这样的非自愿道德生物增强一旦开启,谁能保证不会再次发生“贺建奎事件”呢?

我们从主体道德神经或情绪增强的角度考察道德增强,道德主体在某种程度上受到生物医学技术的影响或促进,然而生物医学技术在实现道德增强方面的技术风险未知,发展前景不明。我们将考察一个鲜有论及的议题:“道德人工智能增强”(moral AI enhancement)。

三、“强”道德人工智能:彻底增强

在我们能够自信而安全地使用生物医学干预手段来提高道德水平之前,科学家还有大量的工作要做。鉴于此,理论家和科学家在继续研究生物医学增强的同时,还可以探索一条新的研究进路——道德人工智能(moral AI)[2]。由于道德人工智能增强的目的不是改变我们动机的生物学原因,在不使用生物医学技术干预的情况下,借助人工智能的最新成果增强人类道德能力,因此风险和争议将会减少。

玉敏在和雨落交接,听花奴叫自己,就去了钻石柜。花奴和玉敏低声说了,玉敏不相信,两人把所有钻石又逐个核对了一遍,证实了花奴的猜想。玉敏卖出去的那枚钻戒,不是三万七千五百八,而是三十七万五千八。就是说,这件三十多万的钻戒,被玉敏当作三万五卖了。当这个事实被无情地证明了时,玉敏傻了,花奴也傻了。连雨落都傻了。罗兰金店开业这些年,头一回遇上这么荒唐的事。雨落问这单谁做的,玉敏刚要开口,花奴说是玉敏做的。李琳正好走过来,听花奴这么说,小声对李雪微道,这回不争了。花奴转过脸,朝李琳瞪了一眼。李琳伸伸舌,闭了嘴。雨落数落玉敏,你二百五啊,钻戒价格不都是几千几百的,哪有带八十零头的?

我们根据人工智能辅助道德决策的范围和方式,将其分为“强”道德人工智能(76)借鉴萨乌列斯库和马斯兰(Hannah Maslen)的“strong moral AI”,谢弗(Owen Schaefer)称之为“直接道德增强”(direct moral enhancement)。我们采用前者,并在后面相应地“制造”和使用了“weak moral AI”。和“弱”道德人工智能。所谓的“强”道德人工智能,就是指将人类的道德决策完全交给机器来完成的彻底增强人类道德的方式。这里的“彻底”意味着一劳永逸地解决人类道德增强的问题。而“弱”道德人工智能则没有那么激进。在“弱”层面,道德人工智能将监控影响道德决策的生理和环境因素,识别偏见并让主体意识到自己的偏见,然后根据主体的道德价值观,向主体提供行动方向的建议。“弱”道德人工智能在为主体量身定制的过程中,不仅能保持道德价值的多元性,还能促使主体进行反思,帮助主体克服自身的自然心理局限,从而增强主体的自主性[2]。

“强”道德人工智能的目标是把机器变成道德决策者。埃里克·迪特里希(Eric Dietrich)是“强”道德人工智能的支持者。他对人类的道德本性持悲观态度,对人工智能的前景异常乐观。迪特里希相信这些机器人在道德决策方面可能掀起一场“哥白尼式革命”。他把这些机器人视为智人的改良版,他称之为“智人2.0”,它们将是“我们本性中更好的天使”[9],绝大多数人类无法达到道德决策机器的道德水准和道德推理水平。

虽然迪特里希的建议没有受到赞誉,但一些学者认为,道德决策机器的发明是为了提升人类道德决策的水平,而不是让人类变得多余。道德决策机器的决策将以公正性、一致性和不受情感影响为特征,也不受包括非理性的自我中心或群体偏见等因素的限制。所以人类的决策可以被更擅长道德推理的机器纠正或推翻[10]。此外,道德决策机器不会厌倦对正确标准的持续判断。

在“强”道德人工智能进路中,我们唯一需要做的就是服从道德决策机器。根据迪特里希的提议,科学家试图通过创造自主的人工智能来增强道德行为,这些人工智能将基于系统设计者认为有效的道德概念,指导人类的信仰、动机和行为。在最初的方案拟订完成后,所有人员,包括设计人员,不需要再发挥积极的作用。除了把决策权“外包”给决策系统,我们无需任何心理或行为上的努力来达到预期的改善[11]。人类可以借助直接模式执行这些决策直接控制我们的行为,例如通过人机耦合的方式植入大脑芯片,指导我们的行动。或采用间接模式,间接地通过一台制裁任何偏离系统所要求行为的决策机器[5]。

“强”道德人工智能的设想在目前看来有点近乎于理想主义,这种理想面临着诸多困境,主要表现为以下几个方面。首先,由于伦理学中的多元主义的存在,我们很难就哪一种道德方案应成为系统设计的标准达成共识。我们应该使用哪种道德理论作为机器遵循的标准?应该使用义务论、功利主义、契约主义、德性伦理还是其他伦理理论?无论选择哪一种理论,其中一种理论的选择会导致系统采取不同于基于另一种理论的行动,总会有人持有异议。

其次,即使设计者能够就伦理学理论达成共识,我们也可能会因为人为或非人为的限制而无法建立一个良好的系统。这主要源于人类或非人类的易错性。系统设计人员可能会犯一些编程错误,以及系统运行的突发性故障。此外,所谓的“价值原则”由非常含混的观念集合而成,何以确保我们要设立的价值观必定是合理不悖。智能系统能否“理解”这些加载的价值观[12]?即使是纯粹的逻辑和理论论证,在严格理性的条件下,也可能得出愚蠢的结论。

第三,我们怀疑这个系统是否能够成为一个自主的道德体,能否做出道德决策。目前来说,我们不认为任何系统可以被视为自主的道德主体。因此,简单地按照我们被告知的去做是不可取的。我们承认一些计算机可以模拟或模拟分析判断是否可靠,但我们捍卫道德的观点取决于做出综合判断的能力,而不仅仅是一些数据信息的分析,而综合判断能力是机器难以具备的。自主的道德主体必定是情感敏感性的,夹杂着一些非理性的冲动。情感的敏感性是做出道德判断的必要条件,所以我们甚至怀疑机器的道德判断是否可能。

第四,“强”道德人工智能扼杀了道德进步的可能性,甚至意味着道德的死亡。如果我们让系统来决策,我们就会得到一个静态的道德解释,因为它只能模拟,而不能做出判断。所以现在做出的道德判断在其他时候可能不再被接受。例如,在19世纪某些被广泛传播的价值观,如关于奴隶制或有色人种的说法放在现在肯定不恰当。同样的,如今某些根深蒂固的观点,有一天也有可能会被视为道德问题。因此,如果我们允许人类的决策由系统来执行,就基本上放弃了道德改进的可能性。要使道德进步成为可能,道德多元主义就必须存在,从而产生不同意见。我们“外包”道德决策,可能最终会使我们在做出伦理决策时缺乏信心,香农·瓦洛(Shannon Vallor)认为这会导致道德技能的丧失。我们就被剥夺了亚里士多德认为的美好生活的一个基本要素:过一种由道德理解主导的生活,这种道德理解是通过实践而发展起来的[13]。

上述分析表明,直接模式宣告道德本身的死亡,系统会控制人类的行为,人类会在没有实际参与的情况下做出决策。如果系统阻碍了人类有意识的推理和理性的思索,人工智能道德彻底增强就是一种短视策略。间接模式也存在类似的问题。在这两种情况下,机器都可能主宰我们,以至于危及人类的自由和生命。因此,我们认为,最终决策主体应该始终独立于机器。

与其设计一个人工智能来规范我们的行为,不如利用环境智能的不同功能,比如收集、计算和更新数据,来辅助我们做出更好的决策,从而更好地行动。

四、“弱”道德人工智能:辅助增强

既然“强”道德人工智能彻底增强人类道德的进路失效,我们退而求其次,考察“弱”道德人工智能。与“强”道德人工智能不同的是,“弱”道德人工智能需要主体的参与,我们称之为辅助增强。随着普适计算和环境智能的发展,人工智能意味着“无处不在的计算”或“环境智能”,即系统从多个传感器和数据库收集信息,根据系统用户订制需求,进行实时处理。

依照这个思路,萨乌列斯库提出了两种方案,主体可以在任何时候以不同的方式对系统提供的价值观进行排序,或者选择使用不同版本的系统。第一种方案是在道德人工智能系统中嵌入一个价值观列表,主体从这个价值观列表中选择一些与自己价值观较匹配的,并对它们的重要性予以权重排序。当要做出道德决策时,系统会推荐最为符合主体价值观的道德决策[2]。在第二种方案中,萨乌列斯库建议道德人工智能系统能够提供的不同的价值观版本,主体根据其价值观偏好选择希望采用的版本。这样更适用特定的人群,能够反映特定的伦理价值人类主体的约束性需求。例如,基督教的道德专家可以设计一个“如何成为虔诚的基督徒”系统,他们可以在这个系统中设定约束条件。那些想成为好的基督徒,但又不知道在特定情况下该应用什么原则的教众们,便可以选择由基督教专家设计的人工道德顾问,而不用采用系统的其他版本。萨乌列斯库的方案并非象牙塔中的陈列品,目前已经得到了初步的应用,如应用到医学伦理学领域的MeEthEx系统,该系统纳入了JEREMY程序中的边沁(Jeremy Bentham)功利主义理论,并混合了罗斯(William Ross)的表面义务理论(prima facie duty)和罗尔斯(John Rawls)的反思平衡理论(reflexive equilibrium)[14]。

我们认为萨乌列斯库的方案存在三个问题。首先,主体仍缺乏主观能动性。一旦主体选择了他们希望采用的价值观,主体剩下的惟一决策就是决策是否接受机器给出的建议。我们便又回到了“强”道德人工智能彻底增强的老路子。由于行为人不需要理解他们的价值观和系统所做的决策之间的理性联系,所以他们的道德技能不会得到明显提升。如果机器停止工作,主体的道德决策能力可能又会回到初始点。我们认为道德人工智能辅助增强重点是帮助决策者成为更好的道德主体,而非仅仅是帮助主体做出正确的决策。其次,主体通过选择一个价值观层次结构或通过选择确定的价值观框架,就会使主体不再愿意接受更多的可能性。一旦道德主体的价值观固定下来,那么系统接下来只会推荐符合这些价值观的决策,而不是鼓励主体去质疑反思。萨乌列斯库隐约认识到了这一点,他写道,使用机器可能会鼓励顺从,而不是“更深层次的思考”[2]。此外,虽然上述两个方案允许多种不同的视角,但我们发现上述方案存在一个容易被忽视的问题,即在选择不同版本或系统的人之间如何达成广泛的平衡或一致。

为了避免走向彻底增强,比起萨乌列斯库的方案,“弱”道德人工智能辅助增强系统要更加突出主体在决策中的能动作用。我们需要算法来避免机器偏向于特定的价值观和伦理理论。因此,辅助增强要绕开或超越当前基于特定价值理论开发的计算模型的趋势,如已经应用于工程领域的SIROCCO程序。相反,辅助增强的早期程序的意图是帮助用户,而不是给他们一个解决方案。这些早期的程序中,它们的具体目标是帮助用户通过提出实际问题并进行道德推理。他们从这些问题的视频开始,试图邀请用户进行道德探索。例如,由唐纳德·瑟林(Donald Searing)设计的Ethos项目,旨在配合一份工程伦理手册,提供有关某些困境的视频和采访,以此激发用户提出新问题,并反思自己以前的立场。圣克拉拉大学马库拉应用伦理中心(Markkula Center for Applied Ethics)开发的一款“道德决策助理”手机应用,用于指导道德决策[5]。类似的程序应用还有很多。

辅助增强的早期程序通过主体与系统或程序之间的不断交互,试图帮助我们自己做出更好的决策,而不是让我们接受任何预先设计好的伦理观点。虽然这些早期的人工智能增强的例子关注的是机器和人类之间的持续互动,但是辅助增强的早期程序与主体的交互性不是十分的密切和频繁。由于当时的技术限制,这些早期程序存在着应用范围小、效果欠佳、交互程度低等缺陷。

五、人工智能辅助道德增强的实施构想

随着人工智能的迅猛发展,人工智能通过更全面高效的数据收集、电子信息化和实时数据更新,将使主体能够更好地做出道德决策。这种改进主要体现在两个方面。首先体现在质量上,在人工智能道德辅助增强的程序或系统中,主体的参与程度更高,参与方式多样化,参与效率显著提升。其次,把重点放在主体的道德塑造过程上,而非直接的结果上。道德人工智能的目的是帮助主体学习道德推理,梳理道德决策流程,探索道德判断的伦理合理性,而不是让主体受控依附于特定的价值观系统或程序。弗朗西斯科·劳拉(Francisco Lara)和简·德克尔(Jan Deckers)基于人工智能的当前进展和未来发展趋势,构想了一个雄心勃勃的系统,以辅助人类道德决策,并促进实施道德行为。劳拉和德克尔提出了六项指导性条目,我们精而简之,优而择之,强调在设计计算机程序时,应考虑以下四个方面的建议。

第一,道德人工智能系统辅助主体进行概念梳理,明晰概念定义。道德判断经常使用没有明确定义的概念,这些模糊不清的概念会制约判断的有效性。伦理论证中的许多基本概念具有很强的规范性元素,这些元素有多种解释,其知识对于精确捍卫道德立场至关重要。主体并不总能意识到概念意义的多样性,系统在他们需要帮助的时候,可以给予他们提示。该系统可以从大数据,如词典、语法教材、语言使用记录的交叉信息中获取这些知识[5]。长此以往,他们在确定任何概念的含义时,都会保持审慎态度。

第二,道德人工智能系统助力主体理解逻辑论证的结构。道德判断建立在必须遵循一定逻辑准则的论证基础上。每种类型的论证,如归纳、演绎、类比……都有一些推理规则,行为人要么是出于无知,要么是因为某些先入为主的偏见,没有遵守这些规则。我们设计的计算机系统要让行为人看到他的论点的逻辑缺陷,向他们展示所犯的错误,或者通过使用最常见的谬误集,希望这可以让他们明白为什么他们的推理是无效的。那么它对道德的增强将是非常有价值的。此外,如果系统能够根据赋予行为人所有判断意义的终极价值标准,警告行为人他们的特定道德判断需要在伦理上前后一致,为行为人提供一种使其判决前后一致的元标准,而不是将其判决的正当性留给不可调和的理由。

第三,“环境”监测增强主体对其个人局限性的认识。我们可以利用环境智能的收集、计算和更新数据的功能辅助决策,指导行动。还可以起到很大的提醒作用。借助各种穿戴设备对施动者的生理、心理状态和环境的监测,人工智能系统可以对某些可能影响决策的生物和环境因素发出一定的风险预警。比如道德决策前主体睡眠不足、紊乱的激素和神经递质、摄入过已知有害的精神药物和酒精制品,以及受到高温、噪声等环境因素影响时,系统应该提醒主体暂缓决策[2]。

第四,道德人工智能系统就具体问题提出建议。这些软件或程序可以快速访问大量数字化信息,一旦添加了特定的搜索标准,就可以在必须做出复杂决策的领域为人类提供帮助。一些先进的技术已经应用到认知决策领域,在商业和医学领域取得了较大进展。人工智能的使用产生了一种被称为临床决策支持系统的技术,这是一种用来改善临床决策信息技术,用来帮助医生制定诊断和做出医疗决策。该软件录入患者的症状和病情信息,并与医学数据库、患者及其家庭病史交叉综合,得出诊断和相应的治疗[15]。道德人工智能系统可以参考这个软件,帮助道德主体如何运用他之前认为有效的道德判断。道德人工智能系统接收有关已采取的道德决策的信息,并衡量有关该决策可能如何影响他人和环境的相关信息,然后建议主体如何使其行为道德立场相符[6]。更重要的是,该系统可以利用其强大的数据库资源,让主体有机会参考其他人碰到类似情形是如何处理的。

简而言之,道德人工智能系统将通过计算机、虚拟现实设备或大脑接口接收来自科学、语言学、逻辑学等诸多数据库的信息。在传感器的帮助下,系统还将监测主体的生理状况和周遭环境。然后,系统将按照上述思路处理这些信息,通过虚拟语音助手与主体进行对话,类似科幻电影《She》中的虚拟聊天助手。在这个对话中,系统会问一些问题。例如,你使用的这个词是什么意思?你知道这两个断言相互矛盾吗?你知道这个演绎/归纳/类比论证是无效的吗?还有其他可能的情形吗?你是否意识到你目前的身体状况/环境不是做出重要决策的最佳环境?你知道吗,在这种情况下,你的决策可以像这样得到最好的执行……[5]通过整合虚拟现实,该系统还可以说服我们更认真地对待行为的后果。整个过程贯穿一个思路:道德人工智能系统服务于道德主体,并且确保道德决策最终由主体做出。

六、道德在“我”不在“器”

日益全球化的趋势,以及科技的飞速发展,造福了人类,同时也带来了巨大威胁,我们须重新审视人类自古以来追求道德提升的愿望。鉴于我们目前对道德行为的生物决策因素,以及利用生物医学技术影响这些决策因素的风险尚未明确。我们认为,即使道德生物增强是自愿的,为其辩护还为时尚早。我们将焦点转移至人工智能。人工智能不直接干预我们的身体,可以减少危险和争议,可能是一个不错的选择。我们考察了人工智能的彻底增强和辅助增强两种进路。在彻底增强中,人类的道德决策权“外包”给了机器,阻断了主体道德自我改进的可能性。即便是一些辅助增强项目,例如萨乌列斯库的方案过分注重结果而非过程,也可能阻碍我们道德能力的发展。

我们在“弱”道德人工智能的框架下构想了一个新的方案,该方案凸显了道德人工智能系统辅助主体道德决策的四个面向,强调主体和计算机辅助之间的交互关系。在这里,主体的角色是主动性的,系统通过多途径向主体给予知识性的帮助,实时监控主体生理状况,借助虚拟语言助手向主体提供建议,系统更多起到“专家智库”的作用,主体在决策之前综合衡量这些建议。总之,主体在任何阶段都不会丧失自主权。这个助手以苏格拉底式的方式提出问题并提供相关信息,帮助人类主体做出更好的道德判断,鼓励实施与这些判断相一致的可实现的行为。通过这种方式,系统既可以帮助主体学习和强化道德决策所要求的认知技能,又可以激励主体按照他们认为正确的方式行事。

我们认为人工智能系统比人类对话者更胜任“道德专家智库”。相较于人类,系统具有超凡的运行效率和中立的理性立场,并且具备随时调取过去的统计数据以及对新情况的即时反应的能力,更容易取得用户的信任[16]。此外,如果对人工智能系统进行定期的重新设计、更新数据、改进算法、提升人机交互的效率,以增强其认知和情感吸引力,比如在系统中加入更多个性化元素,人们也会提升对它们的信任度。

在某种程度上,道德人工智能系统可以帮助人类能够克服一些自身限制。然而,我们也意识到该方案的局限性。道德人工智能系统不会突然把我们变成完美的道德主体,因为它不能消除我们的动机因素。对比生物医学增强技术而言,人工智能系统的首要特征是辅助,用来弥补我们的认知局限性。有了这项技术,主体可以对什么是正确的做出更精确、严谨、一致的判断。正因为该方案缺乏强制性,所以如果施动者由于强烈的情感或软弱的意志而拒不接受系统合理的建议,那么人工智能系统就形同虚设。但我们不可能排除一种可能性,即人工智能的认知辅助可能会间接地改变道德主体的动机和情绪倾向。由于用户对系统的信赖关系,人们可能会更加敏感地重新思考他们持有的一些情感立场[5]。系统还向我们展示了支持某些价值观的论据,让我们更容易接受新的价值观。

总体上看,“弱”道德人工智能辅助增强人类道德的方式类似苏格拉底式的助产术。系统充当高效的“接生婆”,帮助用户生出属于他们自己的“孩子”。而且在不断生“孩子”的过程中,提升了用户的理性“孕育”能力。即便主体的道德“孕育”和“生产”过程是缓慢的,也胜过将这种能力直接转手给他者,同时避免了激进速成的未知风险。从这个层面上说,人工智能辅助增强人类道德不失为一条可取的方案。

猜你喜欢
决策主体道德
论碳审计主体
头上的星空与心中的道德律
为可持续决策提供依据
论自然人破产法的适用主体
何谓“主体间性”
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
决策大数据
决策大数据
诸葛亮隆中决策