李 楠
随着人工智能时代的来临,机器伦理成为研究热点。作为计算机、认知科学、哲学、社会心理学均有涉及的交叉学科,机器伦理研究的目的之一是使人工智能做出有道德的行为,换言之,使其行为可以得到伦理理由的支持。机器伦理在实践上的重要性不言而喻:在自动驾驶、机器人看护等涉及人类生命安全的领域,随着人工智能愈加强大,甚至有希望在新场景表现出自主行为,我们当然要求这些行为不仅仅是后果最优的,而是需要合乎道德,可以被人类社会在伦理上接受。让人工智能成为伦理行为主体,有工程技术方面的障碍,亦有理论方面的难题,而两方面的问题又往往相互关联。从工程设计的方向考虑,程序设计者会考虑自上而下或者自下而上的方案[1](P565),自顶向下又称基于规则(principle based)的方案,即以某种方式将人类认可的道德准则编码为机器可以处理的产生式规则(production rules),让机器的行动方案可以考虑到伦理价值;自下而上的方案又被认为是基于实例的(case based),不预设任何理论,而是试图通过设计满足局部功能的模块,进而最终产生符合要求的行动方案,而设计过程则通过对具体测试样例的各种试错和调整来推进。
在哲学家眼中,这两个方案大致对应了元伦理学的一般论(generalism)与特殊论(particularism)之争[2]。我们都知道,哲学问题鲜有无异议的答案,不过,乐观的或者更为实际的考虑恐怕是先从容易的、争议少的地方做起来再说——先别让机器替我们决定电车难题,给老年人端水送药还可行。机器伦理学最重要的思想家之一和实践先驱是M.An⁃derson 和S.L.Anderson(以下简称A&A),他们着眼于机器人医疗看护这一领域,设计的机器伦理系统使用的是基于规则的方案,伦理规则被编码为可计算的规则,然后整合入机器人的“大脑”,最终在机器人面临实际情景时,产生行动指令。
一个自然的问题是:我们如何决定哪些规则或者价值、目标被编码为机器指令,谁或者什么说了算?机器伦理该从哪里来?
需要注意的是,基于规则并不意味着不使用案例,案例可以用于规则提取,只不过在机器人决策时直接使用的是规则而非案例。A&A 的系统中,规则就是基于案例的,而案例的最优解由伦理学家的一致意见提供。Hooker 和Kim(以下简称H&K)则对A&A 的方式提出质疑,并提出一种所谓“非基于直觉的”[3](P130)机器伦理,以基于道义论的规范信条为基础,分析其计算需求,以指导算法和子系统的设计。
H&K 认为基于专家直觉来提取伦理规则是不合理的,笔者对此立场持同情态度,然而对基于道义论的机器伦理系统有更多质疑。这将会在下文具体阐述。另外,笔者认为机器伦理的“规则”应从海量普通人的行为样本中使用机器学习方法得出,进而得到一个最接近普通人的道德平庸的人工智能行为主体。
A&A 设计的系统全称是“源于案例的基于规则的行为范式”(Case-Supported Principle-Based Behavior Paradigm)[4](P526),其表征要素有:(1)伦理相关的特征及其相关义务,例如,健康是个伦理相关的正面特征,而促进健康或者使健康程度最大化则是其相关义务;(2)用整数序列作为编码的行动选项,每个数值表示该行动达成相应义务的程度,例如,行动a1=(2,0,-1),意思是相关的义务有三项,a1对第1 项义务有+2 的效果,对第2 项义务有0效果,对第3 项义务有-1 的效果;(3)案例由两个行动对每项义务达成程度的差异表示,例如考虑机器人给病人喂药a1与不喂药a2这两个行动,在病人到了吃药时间这个场合下,可以构成一个正例,其中a1与a2对于促进病人康复这个义务的差异为一个正整数,其取值可以与病人病的程度等其他因素相关。这些表征要素最终用于定义伦理倾向规则p(a1,a2),形式是一个析取范式u1∨u2∨…∨un,每个析取支是从案例中归纳的义务满足差异的下界,形如ui:Δd1≥-1∧Δd2≥-4∧Δd3≥0∧Δd4≥1,假设有四项义务d1、d2、d3、d4,而这里的意思是选择a1比a2有更多伦理价值,需要a2满足义务d1的程度不比a1多1度,d2不多于4 度,d4不小于1 度。直观上,每个这样的析取支表达的是在两个行动之间,选择前者比后者在伦理上更合理的条件是需要在何种程度上更满足一系列相关的义务。
从案例抽取出规则使用的是归纳逻辑的方法,特指一种基于实例的概念学习方式。每个案例都被设定为涉及两个行为的比较,正面案例被定义为行为1 比2 更合乎道德,反之则为负面案例。具体的学习流程是从最宽容的规则出发,即将析取范式中所有义务的下限设为最低,然后对每一个例子,调整各个义务的下限,使之最终与所有例子的伦理取向相符,即,对于所有的正例,规则中存在一个析取支使之为真,对于所有的负例,规则中没有析取支使之为真。
这些技术细节并不是我们的关注重点,我们需要考虑的是这些案例或者伦理问题的答案是由谁提供的,其中涉及的伦理特征和相关义务是如何选择的。在A&A 的系统中,这些都由职业伦理学家提供。A&A 写道:“我们利用伦理学家的直觉来告诉我们,在特定义务的满足和违反程度,以及在足够具体的案例中哪些行动是可取的,机器学习程序从中得出一个一般的准则……我们相信,专业知识来自于对道德问题的长期深入思考。对于在伦理困境中该如何选择,普通人不大可能有最佳判断。”[5](P479-482)在他们及其合作者最近的理论和实践进展中,伦理学家的直觉仍然被自动地当作一切进展的前提——“具有道德价值的自主系统的行为应以明确的、通过伦理学家的共识确定的伦理原则为指导”[6](P337),甚至优势——“[另一项相关工作]没有考虑这些优先级的来源,而在本文中,不同行为的伦理后果之间的优先级关系来自一系列实例,由伦理学家的判断作为指导”[7](P13)。总之,训练样本反映了职业伦理学家的直觉,更准确地说,是他们的直觉中蕴含的针对特定领域的道德规范和伦理原则。
依赖专家的伦理直觉显然是有争议的,例如H&K 就提出四点批评:一是实验哲学家发现人们的直觉并非总是自洽;二是即使专家的直觉也不比普通人好多少;三是机器伦理的动机不应该只是符合人类直觉,反而应该避免人类易犯的错误;四是专家直觉也会有分歧,此时机器伦理系统无从选择[3](P131)。这些批评大体上可以分为两个方面,一是对人类伦理直觉本身的自洽性的质疑,二是对人类伦理直觉的指导性或者规范性的质疑。
尽管笔者也对使用伦理学家的直觉作为机器伦理的唯一基础持怀疑态度,但对于H&K 的论点却并不完全认同。
首先,问题的关键,并不在于直觉是否自洽,而是,直觉来自谁?专家的直觉,或者称为精英直觉更为妥当,如何就足以、有资格成为机器伦理系统的唯一依据?A&A 援引了道德哲学家罗斯(W.D.Ross)的观点,后者认为“有思想和受过良好教育的人的道德信念是伦理学的数据,就像感觉知觉是自然科学的数据一样”[8](P41)。令人尴尬的是,对于任何一种观念,从哲学史上找到(可以是经过特定解读的)支持似乎都是可能的。所以这种论证并没有什么分量。事实上,在当代兴盛的实验哲学领域,对依赖于专家直觉的哲学方法论已有种种质疑,甚至“诸多的经验证据表明,在涉及到直觉时,专家会犯和大众一样的错误,专家直觉并不比外行直觉优越”[9](P100)。即使我们不踏入实验哲学领域的具体纷争,而是站在一个机器人的潜在使用者角度考虑,不难心怀疑虑:凭什么我家的机器人保姆的伦理规范要被在遥远的某所大学政治哲学系的某几位白人男性决定了?也许他们聪明、理性,也许在他们的语境下也是品德高尚,可是想象一下,如果这是二战时期德国的纳粹知识分子呢?而我又恰好是个犹太人。又或者,这是基地组织的伦理哲学家,而我又恰好是个异教徒,还崇拜偶像。
另外,人类伦理直觉本身是否有规范性,与如何设计机器伦理规则其实并不直接相关。一个人工智能的伦理行动者,是否必须能够规避人类的错误?在路上行驶/行走的时候,如果我不会冒着迟到的风险停下来帮助别人,是否非要机器做到呢?①另外,如果在某个问题上,专家尚不能达成一致,我们凭什么要求机器给出明确结果,而且这种结果怎么可能被认为是合乎伦理的,毕竟总会有一批人反对,不是吗?因此,笔者认为,机器伦理研究的目标应该弱化或者谦虚地表达为让机器像个普通人一样行事,限定在多数人能达成一致的领域。而不是像H&K 宣称的,能够比人做得更好,或者能解决人都不能达成一致的争议。这将在下文进行更具体阐述。
H&K 主张基于康德式的道义论为机器伦理奠基,动机就是完全摆脱不靠谱的人类伦理直觉。他们使用的“道义论”是广义上的,并非限于康德的学说,而是指通过康德式的推理得出的精确的伦理法则。首要原则就是“普遍化原则(generalization principle)”[3](P133)——行动的理由可以被理性地普遍推广,我行动的理由必须满足这样的条件,即每个人都可以凭此理由同样行事。以“为上进而无偿加班到深夜”这个行为为例,假设人人都如此行事,那么就不存在谁比谁更上进了,因此这种行为动机是不理性的,采取这种行动违背普遍化原则。
H&K 还列出两项原则,一是“尊重自主权(re⁃specting autonomy)”[3](P133),即自己的行为不能妨碍到别人的,特别强调对他人合理意愿、身体自由的干涉。这个原则可以由普遍化原则得出,人人互相妨碍则无行为可成功实施。另一个是“功利主义原则(utilitarian principle)”[3](P134),H&K 认为功利主义原则可以用道义论表达,该原则要求采取行动出自这样一种理性信念,即该行动能带来最大化的功利,而功利需是内在善的。以此为出发点,下面的工作就是选择合适的表征方式,将这些道德律编码为机器指令,使其可以产生机器人的行动方案。具体地,H&K 使用了模态量词逻辑对这三项规则编码,作为机器伦理设计的起点,并宣称这个系统虽然没有完全去除人的因素,但是完全去掉了对人类道德直觉的依赖。此中技术细节并非本文关注重点。
笔者对H&K 系统的批评主要有两方面。首先,它并没有像宣称的那样完全脱离人类直觉;其次,道义论产生的行动方案是有争议的。
首先,这些所谓的道义论原则是否真地不依赖于人类直觉?它们自然不属于数学定理或者自然律,那么这些原则的根基在哪里?此处不想涉及哲学史上围绕康德学说的种种争议,亦无意涉足所谓先天/后天知识来源。我们仅考虑一下第二个原则“尊重自主”,这个原则被H&K 特意挑选出来,其实有些令人生疑,这里的自主与康德的“为自我立法”概念完全不同,反而,更强调的是不要干涉他人。事实上,H&K 后面讨论的例子表明,这个原则中的自主特别适用于是否违背病人意愿让他吃药的例子;而这个例子恰恰也是A&A 详细讨论过的,“自主”这种伦理相关的特征,其实正是根据伦理学家的一致意见抽取和设定出来的。也许H&K 会说,通过普遍化原则指导下的推理过程,“尊重自主”这样的原则就不是仅仅依赖于专家直觉或者任何人的直觉,而是有了逻辑和理性的依据。但是,概念的存在和被认可,恐怕就已经依赖于直觉了:在古希腊,对于女性,甚至不存在让其自主的概念。H&K 也意识到,在工程师用代码实现这种系统时,哪些与伦理价值相关的特征被编码、如何编码,都依赖于人的经验知识和理性推断,但他们却宣称这些只是客观事实,而不是价值判断本身。这个观点并不可靠,因为特征选取很可能也是依赖于人类道德直觉的。病人拒绝服药,按照道义论系统,机器人通知其监护人并没有妨害病人的自主权,所以在伦理上是可接受的,那么假设病人相信其监护人给的药品有害无益,且事实上监护人会从病人的死亡中获得暴利呢?这些特征是否应该以及如何被编码?这些决定都考验着工程师的知识和伦理直觉。
H&K 的另一重论证似乎是,对于某个特定场景的行动选择,合理性并不直接由专家给出(没有标注样本),相反,当下的结论是由机器根据规则自行推理得出的,所以人类的直觉并没有干预机器的选择。这种推理十分牵强。类比一下,假如我按照自己的直觉写了一条规则“永远不要和十二个人同席”并给了机器人编写了这种程序,那么机器人在某次看到有十二个人的时候,就坚持不要落座,这种行为当然没有被我当场参与或干预,我甚至完全不需要知情,但是这不能说机器的这种行动方案是不依赖于人类直觉的。
另外,H&K 系统的缺陷还表现在有争议的问题上。一个反复出现的例子是:病人拒绝服药,机器人是否该通知其监护人。而且设定在此情景中药不是救命的,所以一次不吃不会有生命危险或重大健康隐患。据称,伦理学家的一致意见是不通知,因为这违背了病人的自主;然而,据H&K 的道义论系统分析,通知监护人并没有违背病人的自主权。可是,这怎么能表现出道义论的优势呢?很容易想象,A&A 可以依此说道义论给出了不正确的结论。至少,我们可以公允地说,在这个伦理问题上,存在两种对立的意见,也许我们不应该完全相信专家直觉,可是我们又凭什么相信机器给出的明确无疑的答案呢?存在争议本身,恐怕就是道义论系统的一个缺陷,因为它没有空间容纳分歧;可是直觉,似乎总是可以得到不同的澄清和释义。
基于专家直觉的规则和完全不用案例的道义论系统都不尽如人意,前者让人质疑为什么少数几个人的直觉就决定了机器应该做什么,后者又过于空泛抽象,似乎不足以反映人们在鲜活世界中的复杂决策。一个替代方案是从大量样本中通过机器学习方法提取出规则,或者说,构造一个能够拟合大多数人决策的模型。但这并不是自下而上的方法,因为在预测阶段,机器所使用的还是习得的规则。或许可以称为从众的机器伦理系统。
原则上,如果我们对于涉及伦理行为的广泛场景都搜集了大量的数据作为训练样本,使用机器学习或者深度学习的方法,我们总可以对多数人的行为选择做出预测,或许,随着模型复杂度的增加,预测的准确性也会得到提升,甚至不难设想一个几近完美拟合手上所有样本数据的模型。
确实,这种方案在数据采集、特征工程方面都会有实际的困难,但是这些困难都不是原则性的。一个真正的难题来自解释性,或者在当前场景中,我们可称为如何提取人们可以理解并接受的伦理规则。
首先我们可以尽量选择具有可解释性的模型,例如决策树②这种每次分支都相当于一个规则的模型,又如基于单个特征或特征的线性变换的各种模型、朴素贝叶斯模型。而参数量巨大的模型,例如多层感知机,在这方面就具有劣势。可是,即使是最简单的线性模型,假如我们发现其参数值不可理解或者反直觉怎么办?举个(可能很不现实的)例子,假如在电车困境中,用x1 表示因变量体重,x2 表示因变量年龄,用y 表示选择牺牲个体的倾向,假如模型完美拟合的结果就是x1*1.2+x2*5=y怎么办?如果非要用语言表述,那么大概可以说体重越重、年龄越长的人,就越该死来救其他人。也许我们会觉得这是不合理的,但是问题并不在于模型不具有可解释性,而是我们不认可这个解释,那么我们后续的工作是寻找哪里出了问题,也许是特征选择的问题,也许是样本的问题,也许我们的伦理规范就是这样的,只不过我们嘴上都是伪君子而已。无论如何,模型是可以解释的。
当然,也许我们最终选择的效果好的模型恰恰就是目前被认为是黑盒的深度神经网络,将大量的特征经过层层线性和非线性的复杂到令人头晕的变换,在远超过普通人空间想象力的高维空间找到一个函数。这种函数的参数量可能达到千百万计,不能被人理解。现在效果最佳的各种巨无霸式的语言模型就是如此,而对其一大诟病就是失去了解释性。这样看来,如果伦理模型也是如此,那么就完全背离了机器伦理的初衷,毕竟我们本意是让机器的行为有伦理理由的支持。但是,即使这种极不可能的情况——这个模型远超其他所有简单模型并且完美地预测大多数人对任意伦理场景的选择——真地发生了,那么这种不可解释性,一方面可以借鉴对深度神经网络可解释性的研究成果,毕竟这已经不是伦理模型自己的问题了;另一方面,这种完美预测本身就带来一些合理性,或许,就是存在种种我们尚且没有意识到的特征以人类难以用自然语言表征的方式对伦理选择产生了影响,这本身也可以称为伦理原则,只不过不是可以被人类目前的概念框架和自然语言系统所表征的。
更多的质疑可能来自理论上。
(1)这种“规则”只是描述性的,不具有规范性。甚至可能有人说这是犯了“自然主义谬误”,这是出自摩尔的著名批评,指的是从关于X 的自然属性的任何命题中推断出X 是好的。例如,假设愉快是一种自然属性,有人从喝啤酒是愉快的前提下推断出喝啤酒是好的,就应该犯了自然主义谬误。直观的想法是,评价性结论至少需要一个评价性前提——关于事物自然性特征的纯粹事实前提并不包含甚至支持评价性结论。
回应:在这里我们并不是为伦理原则本身寻求来自自然属性的根据,相反我们是想找到机器伦理的根据,而后者最自然的来源就是我们自己遵守的规范。因而,这里的论证并不是“大多数人认为A是可欲的,所以A 是好的”,而是“大多数人认为A是好的,所以机器也可以认为A 是好的”,一个从规范性前提推导出规范性结论。
(2)这种机器伦理并不是我们想要的。如前所述,H&K 就持有这种看法。举个更为极端的例子,以一群纳粹分子的行为选择为样本,很可能得出的伦理规则蕴含杀死所有的犹太人,或者说,当犹太人全部死亡时,对所有人最有好处(按照功利主义的话)。但是,显然,关于某个群体常态应该是有对错的,相反,模型只关乎拟合与否,从来不关乎善恶。而这样的机器伦理系统是我们应该避免的,即使它真实反映了一种群体伦理规范。
回应:纳粹机器人的伦理原则只是从纳粹群体的数据得到的,如果扩大采样范围,很难想象人类普遍的原则会有这种灭绝种族的价值观。不过,我们可以假设,即使这种原则算是个伦理规范,那么受审的应该是纳粹分子,或者我们自己,而不是机器人。
这种反对意见背后是对机器伦理的目的、动机的不切实际的要求,这种误解是要求机器比人更有道德,机器看护必须是所有人心目中道德完美的行动者④。之所以说是误解,我们可以想想到底需要什么样的机器人。核心要求是其行为动机可被理解,并且在道德上可以被接受,也就是说是伦理上可接受的,并不是说伦理上优越的、能成圣的。
(3)一个相关的质疑是,这种大多数人的选择算不上有导向意义的伦理原则。反对者也许会说,即使机器按照大多数人的行为行事是可以接受的,但这不等于说它不是不受谴责的,而我们需要一个能够做出道德免责行为的机器人。毕竟,大多数人都弃路人不顾,也许机器人也可以这么干,但它如果这么干了,那么还是需要负责。在这个意义上,大多数人的选择是没有价值的。
回应:一个辩护是,机器人负责的程度就应该和大多数人一样,不应被苛责。事实上,从众的机器伦理恐怕恰恰是最符合实际情况的,对普通人群的伦理行为是最贴切的刻画。一个来自实验哲学的有趣观察是绝大多数人都是道德平庸的,意思是“人们的目标是和周围的人在道德水平上持平,既不要太好,也不能太坏”[10](P347)。而且,我们有理由认为,大多数人都算不上是道德败坏的③。如果是这样,那么机器人作为一个道德平庸的行动者,正好拥有人的道德水平,既不是圣人,也不是恶人。这样的机器人参与人际交往、开车上路、看护老人,正如普通的你我他一样。其行动的可解释性来自人类群体的倾向,其合理性和可接受度最终会基于我们如何评价自己的行动。
至此,我们的结论是,在理论上和原则上,从众的规范是可以被接受的机器伦理系统。而令人欣慰的是,在工程实践方面,这种想法也不是完全空想的。最近,一个有趣的尝试由Kim et al.给出,他们使用了“Moral Machine”④收集的样本作为训练数据,用层级贝叶斯模型将特定人群对伦理困境的答案建模为一个功利函数,关键设定是:个体决策是基于其个体道德原则的,而道德原则是D 维特征空间的权重值;功利值就是特征值的加权和,决定了输出决策的概率;而个人道德原则则服从其所属群体道德原则的正态分布。这个模型使用了很少量的样本(样本数量范围从4 到128)就取得了很好的拟合效果,而且研究者认为模型预测的信度正确反映了伦理决策的困难程度[11](P199-202)。当然,这项工作的有效性是在很小的范围内的,比如,他们只选取了电车困境这一个特定的伦理问题,并且样本全都来自同一个地区,这似乎预设不同地区居民的群体道德规范可能是不同的。这几位作者并没有将自己的工作称为机器伦理规则的设计和提取,而只是谦虚地声称提供了人们如何进行道德选择的描述。不过,如果这种工作可以扩展和完善,根据本文到目前为止的讨论,或许我们可以说,如果机器具有了这样的大脑,那么他已然是一个普通的道德行动者了。
假设在未来,我们得到了可以几乎完美描述人类伦理选择的模型,那么下一步工作可以由理论家对特征值或模型参数给出可解释的说法,如果这些选择恰好于某些已知的理论相符,或者可被归约到某种价值取向,那么皆大欢喜;如果不能找到,那么最起码我们可以说这就是最多人选择的伦理行为,也许这不是圣人之选,但起码也不应受到严厉责备。简言之,从众的机器伦理系统最差,也和我们一样,是道德平庸的。
[注 释]
①此处指情境主义用来批评美德伦理学的著名心理学实验“善良的撒马利亚人”,其中被试被要求尽快赶到指定地点,途经有研究者安排的需要帮助的路人,实验结果表明多数人都不会对路人伸出援手,无论是否接受了较高的伦理道德教育。具体争议可参见李楠(2015)[12]。
② A&A 的CPB 系统也使用了决策树模型,但并不是用于提取规则,而是用于模型预测阶段。
③感谢梅剑华教授提醒笔者注意这篇文章。
④感谢叶云峰教授对此处表述的指导。
⑤Moral Machine 是一个MIT 设计的一个网站https://www.moralmachine.net/hl/zh,上面有各种关于自动驾驶车辆的场景,使用众包的方式收集用户关于其中道德困境的选择。感兴趣的读者可以一试。