人工道德主体应当满足的两条基本原则

2021-01-02 22:11王淑庆
科学经济社会 2021年1期
关键词:能动性自主性人工

王淑庆

人工智能的发展使得多主体交互①多主体交互比人机交互更为宽泛,因为它还包含人工主体间的交互。因此,涉及“人机交互”就仅仅指人与人工主体间的交互。变得越来越现实,但为了避免人工主体在多主体交互中伤害人类或其他主体,甚至让其行动更加人性化,构建人工道德能动性(artificial moral agency)则成了一个具有前瞻性的研究主题[1]19-29。在理想的意义上,构建道德上值得赞赏的人工主体(morally praiseworthy artificial agents,简称MPAA)是机器伦理的终极目标[2]251-261,它最好能让机器的“所为”与“不为”两个方面都能符合人类的道德期待。

让人工主体主动地实施道德行动以及抑制不道德行动,在很大程度上只是一种理想。所以,很多学者反对构建MPAA,他们甚至反对任何关于人工道德主体(artificial moral agent②在本文中,agent有时被翻译成主体,有时被翻译成行动者或施动者。笔者在探讨它的特性时,译成主体;而探讨它作为能够实施行动的存在物时,翻译成行动者;在与受动者(patient)相对时,则翻译成施动者。)的构想,并从各方面论证这是不可能的[3-4]。然而,也有些学者认可这是一种可以设想的远景目标,他们主张在更弱的意义上界定人工道德主体[5]349-379。笔者站在支持派的立场,认为人工道德能动性不宜过多地类比人类,而要从道德功能主义(注重机器的功能表现而非内在机制)的角度看待构建人工道德主体的意义。目前的哲学研究多数是针对的高级的MPAA,它试图让机器像人一样进行道德判断与道德推理,并进而实现较好的道德决策,这其实过于理想化。如果说构建完全的道德主体还为时过早,探讨初、中级的MPAA③按照摩尔(J.Moor)的划分,人工道德主体在道德能动性上有四个层级:有道德影响的、隐式的、显式的以及完全的道德主体。所谓中级的人工道德主体,大致可以看作显式的道德主体。在道德能动性上应当满足什么原则,则是有必要的。正如瓦拉赫(W.Wallach)所说:“人工道德性在于构建对价值、伦理和法律等计算机或机器人的活动具有敏感性的AI 系统。”[6]1显然,瓦拉赫所指的人工道德性就是一种初级的MPAA,它仅仅是对道德原则具有部分敏感性,从而比较容易实现,不是构建MPAA的长远目标。既然构建完全的MPAA目前还非常困难,而且其哲学基础也不牢靠,那么就中级目标(不仅对道德原则具有部分敏感性,还能够主动地进行道德决策,但又未达到人类级别的自主性)来说,MPAA 在道德能动性上应当满足什么基本原则?这个问题是人工道德主体从初级到高级发展必须要考虑的问题。

如果能够给出中级水平的MPAA①如无特别说明,下文提到的MPAA都是指中级水平的MPAA。需要满足的基本原则,那么其在何种意义上是可能且必要的?为了实现中级水平的人工道德能动性,MPAA 应当具备何种推理能力?本文试图给出MPAA 需要满足的两条基本原则,并为其必要性进行辩护。具体来说,文章首先通过探讨构建MPAA 的两个动力源,同时澄清人工道德主体和MPAA 之间的关系,说明构建MPAA 的意义所在。继而,依据人类能动性的特点,从“所为”与“不为”两个方面说明阿西莫夫(I.Asimov)的机器人学第一法则为什么不适用于MPAA,并提出两条替代性原则:第一,不允许主动伤害其他主体;第二,不应当漠视正发生的伤害。最后,基于人工智能伦理嵌入的实践进路和人工能动性建模思路,探讨这两条基本原则的逻辑表达以及智能机器相应的推理能力问题。

一、道德上值得赞赏的人工主体

人工道德主体既可能“主动”为善,也可能“主动”作恶,因此构建MPAA 以防止作恶,就是一条可设想的途径。由于构建MPAA 遭到了一些哲学家的反对,所以下面分析构建人工道德主体的动力源与MPAA 的可能性,并在一定程度上为其合理性进行辩护。

(一)构建人工道德主体的两个动力源

构建人工道德主体并不是一种纯粹的空想,它有两个动力源:一是对构建人工主体自主性(autonomy)的追求,而道德行为是自主性的高度表现;二是为了防止人工主体与人类交互带来难以接受的伦理风险。

自主性是主体非常重要的一个特征,它是指行动者(agent)根据自己的欲望和理智来控制其行为(包括选择)的特性,它的反面是完全被决定[7]126。自主性有不同的层级,如果机器不需要人类事先设定具体程序或中途干预而能够与环境交互,在某种意义上可以被看作是初级的自主性。但较为高级的自主性则要求拥有自主选择的自由与能力,它们也是使得一个实体或存在物成为行动者最关键的特性。道德上的自主性属于很高的层级,因为一个主体如果只考虑他自身目标的实现,这种目标自主性在道德上就不如能够同时考虑其他主体的利益,而后者就是道德自主性——它的特点是在依据自己的欲望和理智过程中,把他者的利益放在比较重要的位置,并以此来影响决策与行动。正如皮卡德(R.W.Picard)所说:“一个机器越自由,则它就越需要道德标准。”[8]134如果将来的人工主体表现出非常高的目标自主性,但却没有任何“道德观念”,这至少说明它在自主性上是有所缺陷的。因此,只要人工智能学者越希望构造更高层次的自主性机器,就会越期待人工道德性,这是构建人工道德主体非常重要的一个动力源。

为防止人工主体与人类交互带来难以接受的伦理风险,构建人工道德主体至少有三个方面的理由。首先,如果不仅把人工主体看作受动者(patient),而还把其看作施动者(agent),这种人机交互就要求人与机器之间在交流地位上具有平等性。但就道德地位来说,人与机器的地位具有不对称性[9]44,所以人们希望机器与人交互时至少不能伤害人,特别是不能“主动”伤害人。在不伤害人问题上,最好能让机器具有“道德观念”——这便是最为初级的人工道德主体构想。其次,在人机交互中,机器也不能“引诱”人去做一些不道德的事。比如,机器不应当与人类个体陷入过多的交流,以免引发人类个体的“去社会性”。如果机器不是人工道德主体,人类应该在设计的时候避免这些诱惑因素的出现;而如果机器是人工道德主体,它就应该主动不做这样的事情。因此,“不管智能机器是否具有人类的道德主体地位,都应该对人工智能可能带来的危害做出防范”[10]50。最后,在“看到”人正在遭受伤害时,机器不应当漠视。而要做到不漠视,机器仅靠执行命令是完全不够的,它必须具有道德上的自主性,特别是能够对某些伤害具备“情感性反应”①即遇到某些伤害的情形时,具有高度的敏感性,如果这种敏感性类似于人类行动者的情感反应特性,则可以把它看作“人工情感”。。因此,为了防止人工主体与人类交互时伤害人类或漠视正在发生的伤害,机器最好能够作为一定程度的道德主体而存在。

(二)构建MPAA的可能性

人工主体的自主性越高,就意味着它越可能不受人类的控制。道德自主性在某种程度上是最高的一种自主性,因为它要求主体具有某种价值评价能力。可以说,人工智能技术越发达,人工主体的自主性越高,最终达到道德自主性就越有可能。

然而,构建人工道德主体的主张遭到了很多学者的反驳。这些反驳观点大致可以分为两种:一种认为人工道德主体根本就是不可能的,没有必要为此浪费时间和资源进行研究;另一种认为人工道德主体会带来恶,因此有可能得不偿失。比如,斯塔尔(B.C.Stahl)从认知主义伦理学的角度论证道:计算机只能处理数据,而不能处理信息,更不能理解信息,从而它的所为就不可能带有任何伦理特性[11]67-83。再如,珀德斯韦德克(F.Podschwadek)主张,机器完全的道德自主性必然蕴涵着它有有意作恶的选择性,而仅仅靠人工事先规定不准作恶无法应对开放的经验世界,从而是不可能的[12]325-339。

当然,也有不少学者支持人工道德主体的构建。其中,最有代表性的观点有两种:一是功能主义伦理学,另一种是技术主义倾向的伦理学。比如,弗洛里迪(L.Floridi)认为从“抽象的层级”(level of abstraction)来看,只要一个人工主体的行动是被道德善或恶而驱动的,就可以把它看作人工道德主体[5]349-379。可见,弗洛里迪只关注行动的外在道德属性,而不管它是如何做出来的,因为这种善恶驱动不可能像人类一样来自内在的道德动机,而只是通过大数据或伦理原则来让机器的行动在伦理后果上趋向于好的结果。此外,瓦拉赫认为,人工道德性的目标在于设计出像人类道德行动者一样实施行动的人工主体,构建出来人工道德性会有两大优点:一是它计算速度快从而可以考虑的选择就多,二是它没有情感,从而不会受情感的影响[6]1-6。

可见,到底能不能制造出非自然的道德主体(人工道德主体),依然是一个悬而未决的理论问题。如果不考虑目前的技术可能性,并且在以上两大类观点中进行折衷,则可以认为构想人工道德主体的必要性体现在两方面。一方面,在弱的意义上建构人工道德主体是完全可能的。人工主体不可能也没有必要和人类主体完全一样,比如拥有自我意识和自由意志等。换句话说,只要人工主体在行为选择上基于道德理由考虑,且它的行动能够自觉地避免有损他人利益的特征,那么就可以认为它就是某种人工道德主体。另一方面,在局部范围内构建道德上值得赞赏的人工道德主体,则是机器伦理的初极目标。而终极目标是让其成为模仿人类的“圣人”,从而“一劳永逸”地解决人工主体带来的伦理问题。即使这种构想过于理想化,但在局部范围内构建MPAA 是值得尝试的。综上,如果人工道德主体是可能的,那么构建道德上值得赞赏的人工主体就是必要的。

二、人工道德能动性的两条基本原则

人类作为行动者,一个显著的特征在于能够根据情境的变化,从两方面控制自己的行动:一方面,“所为”的一面,即主动地实施行动;另一方面,“不为”的一面,即主动地抑制(refrain)或忽略(omit)采取行动。由于能动性体现为“行动者对其能力的调动和运用”[13]90,所以“所为”和“不为”都可以看作是能动性的展现。阿西莫夫机器人学的第一法则恰好包含“所为”和“不为”两方面的内容,它也是对机器的道德设计必须要考虑的,正如瓦拉赫等人所说:“任何对机器人自上而下道德设计的探讨都不能忽视阿西莫夫的三大法则”[14]91。然而,阿西莫夫机器人学第一法则是不适用于人工道德主体的,从而有必要提出适合人工道德主体的基本原则。同时,本部分还从人工智能伦理嵌入的实践进路①理论进路即考虑把某种具体的伦理理论嵌入到机器中,实践进路则强调让机器拥有进行规范推理的能力或让机器在实施行动的时候可以遵循某种伦理原则(不需要系统的理论)。为新原则的可能性与必要性进行辩护。

(一)机器的“所为”不允许主动伤害其他主体

机器人不得伤害人类,这是得到人们普遍认可的基本原则,也是阿西莫夫机器人学第一法则的核心内容之一[15]201。显然,“机器人的行动不得伤害人类”是从“所为”的角度来探讨的,它强调机器的行动在后果上不能有违人类的基本道德。然而,这条法则对于构建MPAA 具有明显的缺陷。其一,它不能表明“不伤害人类的机器人”就是人工主体,比如它可以仅仅是没有多少自主性的机器人,其不伤害人类仅在于它根本没有自主行动的能力。换句话说,“不伤害人类”的特性不足以显示其主体身份。其二,“不伤害人类的机器人”有可能成为一个主体,但不一定就是道德主体。一个机器如果仅仅是一个人工主体,它完全可以拥有“不伤害人类”的特性(如行动能力非常有限),但这不能说明它是人工道德主体。一个实体要成为具有较好道德品质的主体至少体现在:它在实施行动时,会基于道德理由而选择有利于他者的行为——而道德的行动最明显的特征之一是“利他性”。由此可见,“不伤害人类”对于构建MPAA来说要求过低。

笔者认为,MPAA 的“所为”行动应当满足的基本原则是:不允许人工主体主动伤害其他主体②这里的主体其实就是行动者,即有能力实施行动的存在物。一般认为,高级动物和人类婴儿也是行动者,虽然他们是初级行动者。当然,如果把此原则中的“主体”扩展至“道德承受体”,则会显示出MPAA的道德水平更高,笔者认为可以把这种MPAA看作非中级的。。相比阿西莫夫的“机器人不得伤害人类”,这一原则有两个方面的改变。第一,它增加了“主动”这一特征,从而彰显出机器可能具有的道德选择能力,这也是人工主体自主性越来越强所应当具备的特征;第二,它的道德受众面更宽,即从人类扩展到其他一切主体,比如人工智能主体以及比较高级的动物,都是人工主体的道德考虑所应关照的范围。

然而,此原则可能面临两个反驳:第一,在可以预见的范围内,机器不会有道德自主性[16]403-418,从而不存在道德上的主动或不主动问题;第二,人类都很难尊敬其他所有主体,让机器实现这样的功能更为困难,而且机器不可能在所有场景下都实现“不伤害其他主体的目标”,比如“智能机器制止小偷的盗窃行动时”就一定会伤害其他主体。笔者认为这两个反驳都可以得到较好的回应。首先,道德自主性问题依然要从功能主义的角度看,如果机器能够根据道德理由而选择伦理结果好的行动,而且几乎不出差错——在实践进路上,我们就可以认可它具有道德行动的自主性。而且,由于道德的行动一个重要的特征是利他性,它要求行动者把他者的利益作为自己行动的一个理由,这也是实践理性的要求[17]4。如果一个机器会基于利他的理由而选择并实施相关行动,则它拥有了部分实践理性,因而在道德能动性的意义上可以把它看作一个人工道德主体。其次,机器的计算力和无情绪特性有利于道德能动性的构建与施展。比如,机器的计算力强大,从而在行动考虑时可选择项多,那么它所做出的选择就可能越理性甚至越道德;而且,机器一般没有情感(即使有人工情感,也不会像人那么不稳定),因而可以免受不良情感的破坏作用——这两点正是人类所缺乏的,这说明机器在道德行动上比人更优秀是完全可能的。至于“一个小偷正在偷另一个人的财物时,机器采取制止行动时一定会伤害小偷”这样的例子,并不违反“不允许主动伤害其他主体”,因为机器在制止“小偷盗窃时”并不是在“主动”伤害小偷:它既不会让小偷受到“不应该有的伤害”,也能制止住小偷的行为——它可以只把小偷拦住或告诉被偷者。

(二)机器的“不为”不应当漠视正发生的伤害

阿西莫夫机器人学第一法则中的后半句是:“或因不作为而使人类受到伤害!”[15]201直观上看,如果一个机器人(或人工主体)“看到”某个人正在遭受伤害,而且机器有能力且实施了相关行动去施救,则此机器人就没有违背这一条原则。反过来,机器人看到人类正在遭受伤害,完全置之不理,它在道德上就是不值得人们信赖的,而不管它是否有能力进行施救。因此,这条原则是从“不为”的角度来探讨的。然而,它同样不适用于构建MPAA。第一,它对“不为”的要求过高。“不准机器人因为不作为而使人类受到伤害”要求非常严苛,因为它的标准是“禁止”。众所周知,“禁止做某事”已经是一种比较严格的道德要求,而“禁止不作为”就更难,毕竟机器要实现“主动不为”本身就比“主动有为”要困难得多。第二,它对“不为”的因果依赖性解释过强。“因不作为而使人类受到伤害”至少存在两个困境[18]125-148:首先,什么情况下才能算作“不为”,难以界定;其次,对于“不为”的因果解释在哲学上很困难,因为“不为”与“伤害”之间不能通过正常的事件因果而得到完全的解释。例如,行动者小王路过一座水库,他看到自己认识的小孩落水正在呼救,而且他完全有能力去救人但却没有去救——他的“不为”是否是小孩淹死的部分原因,目前在学术界依然充满争议。

鉴于阿西莫夫在机器“不为”上的要求过高,笔者认为,从“不为”的角度构建MPAA,其基本原则应该是:机器的“不为”不应当漠视正发生的伤害。此原则有两个优点:第一,它对机器“不为”的要求仅限于“不应当”,从而低于“所为”的“不准”,这是因为对“不为”的模拟更难;第二,它避开了“不为”在因果解释上的复杂性,而只关注机器的不漠视状态,而不管这种“不漠视”在现实上到底能否挽救或减少伤害。

“不应当漠视正发生的伤害”,这一原则对于构建MPAA 来说是非常必要的。首先,MPAA 要求人工主体具有较高的能动性,而“不为”的能力本身就是较高级的能动性。而且,对于机器来说,“实施行动”可能是一种类似“刺激—反应”的机制,但“不为”比这种机制在能动性上更为高级,它要求人工主体在适当的时候“理解”为什么不要做某事。其次,对于人类来说,不漠视伤害意味着一种道德关怀,人工主体也是如此。如果要求机器实现不漠视伤害,至少要求它能够识别哪些情形对于其他主体是伤害,以及它到底有多大能力可以“帮助对方”。至于它的“不漠视”能否真正奏效,则是不重要的,而且它对于自己无能为力的事也不会主动去做,但可以试图去想一下自己是否真的无能为力。可见,“不应当漠视正发生的伤害”不是指主动去施救任何正在发生的伤害,而主要是指它所面对的伤害。由于利他性更可能具有道德性,如果机器在识别其他主体正在遭受伤害时,甚至能够主动地牺牲自身的部分利益,那么它这种能动性模式就能体现人工主体的道德性。最后,如果机器仅仅只做人类允许的行动,那么它的行动在道德上就不会那么值得欣赏。比如,面对一些复杂情形,机器由于无法判断哪个更好,它就可能会无动于衷,从而在能动性上也就显得比较低级——这种低能动性与道德能动性是不相匹配的。

有两点需要注意。第一,两条原则的优先性问题。当一个智能机器面对其他主体正在“遭受伤害”时,受“不应当漠视”的引导,如果智能机器要采取行动,还得符合“不允许伤害其他主体”。换句话说,上述两条基本原则是互相联系的,且第一条原则更具优先性,因为“不漠视”后产生的“施救”最终不能带来另外的伤害。第二,人工道德主体的充分必要条件问题。上述两条原则更多是为了表达中级人工道德主体的必要条件的,而不是充分条件。事实上,充分条件的原则难以给出,因为只有清晰界定人工道德主体,并把握了人工道德主体的全部实践模式集合后,才可能给出一个充分条件集合,而这在时间序列上将导致悖论。

三、两条原则的逻辑表达与推理能力

本文基于机器伦理的实践进路探讨MPAA的构建问题,其目标是让机器能够进行伦理推理。因此,如何把上述两本基本原则用逻辑表达,这对于人工道德能动性建模就很有必要。把伦理原则用逻辑表达,最重要的是尽可能把它形式化甚至算法化。就上述两条原则来说,首先需要把它转化为更为严谨的表达,然后再抽象出“确保”(see to it that)和“尝试”(try to)两个模态算子,以帮助机器拥有确保和尝试的推理能力——它的目的是让机器最大限度地“理解”①图灵奖得主珀尔(J.Pearl)认为,当前基于深度学习的人工智能并不能拥有任何“理解能力”,未来的研究需要想办法让机器学会“因果推理”。具体论述请见参考文献[19]。[19]两条原则。

(一)两条原则的转化表述

如前所述,本文提出MPAA在道德能动性上应当满足以下两条基本原则:

(1)人工智能主体不允许主动伤害其他主体;

(2)人工智能主体不应当漠视正发生的伤害。

需要注意的是,这两条表述增加了一个新前提:人工智能主体可以被建构。换句话说,在假定人类已经可以制造出人工主体的条件下,才可以真正地谈论人工道德主体以及道德上值得赞赏的人工道德主体。因此,如果认为现在的智能机器还达不到人工主体级别,那么这两条原则就不是现实的,而是针对未来的可能性。从这种表述上看,用道义逻辑语言进行表达似乎是可以的。但是,这种表达会掩盖它的本质特性。首先,它无法把“主动有为”揭示出来,因为道义逻辑中没有表达“心智状态”的算子;其次,它不能把“有意不为”表达出来,因为“禁止”算子是一种外在的规范,而不是行动者的主动不做。

为了更好地表达上述两条原则,可以给出如下更为具体的表述:

第一,人工主体的所为必须尽力主动确保其行动对与其交互的其他主体是安全的;

第二,人工主体应当在其他主体遭受伤害时主动尝试施救。

这种表达与上述表达存在一些细微的差别,它最大的好处是把否定性的原则用肯定性的语言进行表达,从而在建模时更为方便。而且,这两条原则也从另一个方面表达了前面的两条原则的内涵:第一,“确保安全事态”②对第一条原则的肯定表述的简称。蕴涵机器的行动“不会伤害其他主体”,反过也成立;第二,“尝试施救”则是“不漠视正在发生的伤害”的具体表现。由此可见,相对于最原始的表达,上述表达不仅没有损失相应的涵义,而且还变得更为具体。此外,这种表达的好处还在于它们适用于进行推理,即帮助机器实现确保推理和尝试推理。

(二)机器应当具备的两种推理能力

基于上述原则的两种转化表达,人工主体的推理能力在两方面需要达到一定的水平:一是确保推理的能力,二是尝试推理的能力——它们正好对应着上述两条原则。而要实现这两种推理能力,人工主体最好有“理解”确保与尝试的逻辑框架的能力。下面具体阐述人工主体具备这两种推理能力的内涵。

所谓确保推理,是指主体基于一定的目标,考虑采取哪些行动能够使得目标状态在未来一定会成立。在假定基于分枝时间的条件下③分枝时间的基本假定是:过去是不可改变的,从而是唯一和线性的;将来存在多种可能性,从而是不确定和分枝的。,确保目标φ意味着[20]583-644:(1)主体选择了某些行动后,不管未来如何变化,在行动相关的分枝时间上,φ都是成立的;(2)存在未来的一个分枝时间上,φ不成立。换句话说,主体的行动一定能够因果性地导致φ成立,但如果没有实施相关行动,则φ不会成立。因此,主体确保推理的本质就是行动的结果与目标φ之间的行动必然性关系。对于人工道德主体来说,知道如何确保某个和伦理相关的事态或命题φ,意味着它知道哪些行动可以确保φ的成立,从而在能够确保φ的那些行动集合中选择一个。

尝试推理则是指主体的行动在无法确保目标状态的情况下,考虑采取哪些行动集能够最大限度地使得目标状态在未来可能会成立。同样在分枝时间下,尝试目标φ意味着:(1)主体选择了某些行动后,不管未来如何变化,在行动相关的分枝时间上,φ是可能成立的;(2)存在未来的一个分枝时间上,φ不成立。也就是说,主体的行动虽然不一定因果性地导致φ成立,但毕竟有一定的可能性;而且,如果没有实施相关行动,则φ不会成立。可见,主体尝试推理的本质就是行动的结果与目标φ之间的行动可能性关系。如果人工道德主体知道如何尝试某个和伦理相关的事态或命题φ,意味着它知道哪些行动可以尝试φ的成立,从而在能够尝试φ的那些行动集合中选择一个,以体现出它的伦理关怀。

四、结论与进一步的研究问题

本文在分析道德上值得赞赏的人工主体(简称MPAA)的基础上,探讨中级水平的MPAA 应当满足的基本原则问题,得到两个基本结论:第一,如果人工道德主体是可能的,那么构建MPAA就是必要的;第二,智能机器的“所为”不允许主动伤害其他主体,以及智能机器的“不为”不应该漠视正在发生的伤害,这两条原则可以作为中级水平的道德机器的建构原则。如果这两个原则能够实现,那么我们期待人工主体在为人类服务或交互时体现出一定的道德水平[21]5,就不只是一件纯粹想象的事情。若以上结论是可信的,则下面两个问题就值得进一步研究。

第一,人工情感的嵌入研究。传统的人工智能研究比较排斥人工情感,甚至认为机器不可能拥有情感。如今,为了构建友好型的人机交互和机器道德,越来越多的学者开始研究人工情感[22]97。对人工情感的研究,至少包括两个方面:一是人工情感的哲学探讨,二是人工情感的逻辑建模(或情感计算)。这两个方面对于构建MPAA都是有帮助的。首先,机器到底能不能有情感?如果有,它是何种意义上的情感?这类问题是人工智能哲学界正在热烈讨论的问题。比如,支持人工道德主体的学者肯定人工情感的可能性,并为之进行哲学辩护。其次,从伦理嵌入的进路来看,实践进路更适合进行初级的实验研究。人工情感的实验离不开情感的逻辑建模,哪些情感类型适应建模以及如何建模,决定着人工情感实验的效果。当然,这些情感建模需要建立在哲学讨论的基础上,而且它也能促进对人工情感的哲学再讨论。由此可见,人工情感的哲学讨论以及逻辑建模是互相影响的。

第二,道德决策的自主性研究。一般认为,自主性是一个存在物成为主体的必要条件之一。如果一个机器的行动无法体现较高的自主性,它就无法成为道德主体。对于道德主体来说,自主性的一个重要体现就是道德决策。直观上看,机器的道德决策不可能和人完全相同,比如人类决策受习俗与他人的影响就可能是机器很难具备的。珀德斯韦德克从人工能动性出发,论证机器完全自主的道德决策能力与MPAA 的构建是冲突的[12]325-339。这意味着,应当限制人工道德主体的道德决策能力。换句话说,人工道德主体的弱决策能力则是可以追求的目标。然而,弱决策能力到底限制到何种程度,则需要进一步研究。此外,如何把自上而下的逻辑进路与自下而上的机器学习进路结合起来,实现道德决策的方式的可靠化和灵活化,使得机器有可能“理解”道德行动的本质,也是一个值得研究的问题。

猜你喜欢
能动性自主性人工
人工3D脊髓能帮助瘫痪者重新行走?
基于新课程改革的英语教师负向能动性及其应对策略
人工,天然,合成
人工“美颜”
国家自主性与文在寅政府的对朝政策
调动主观能动性,提高写作水平
游戏中的规则与幼儿游戏的自主性
英语学习的自主性及其教学应用
人工制冷
发展性教育督导与学校办学自主性