武威利, 王绍源
(1.喀什大学 法政学院,新疆 喀什 844000;2.山西财经大学 马克思主义学院,山西 太原030006)
阿西莫夫的“机器人三定律”适合未来AMAs机器人的构建吗?
——基于《机器人管家》的文本反思
武威利1, 王绍源2
(1.喀什大学 法政学院,新疆 喀什 844000;2.山西财经大学 马克思主义学院,山西 太原030006)
摘要:随着近年来应用伦理学新兴领域“机器人伦理学”的勃兴,人们开始探讨未来AMAs机器人的构建问题。现代美国科幻文学大师艾萨克·阿西莫夫的“机器人系列”等科幻文学成为探讨机器人伦理学的最早文本。其中在以“机器人三定律”为理论基点撰写的《机器人管家》(Bicentennial Man)中,映射出诸多机器人元伦理学问题。对机器人获得道德地位的必要性特征进行探讨,有助于人们以审慎的态度正视“机器人三定律”对未来AMAs机器人的建构作用。正视“机器人三定律”的理论缺陷并对其反思与修正,旨在为构建完备的AMAs机器人提供一种思想质料和理论借鉴。
关键词:阿西莫夫;机器人三定律;AMAs;机器人伦理学;《机器人管家》
现代美国科幻文学大师艾萨克·阿西莫夫(Isaac Asimov)一生著述五百余部,其扛鼎之作“机器人系列”等科幻文学成为尔后未来学探讨机器人的“圣经”。随着近年来应用伦理学新兴领域机器人伦理学在欧美国家的勃兴,阿西莫夫提出的“机器人三定律”成为机器人伦理学学科构建中的重要原则。其中,很多学者把阿西莫夫的“机器人三定律”看作是机器人伦理学的理论基础,并以此为出发点探讨了未来AMAs(Artifacts Moral Agents,即“技术人工物道德行为体”,以下简称AMAs)机器人的伦理问题。但是,人们推崇的阿西莫夫 “机器人三定律”是否可以作为理论基点并适于构建未来AMAs机器人,却鲜有人进行系统探赜。以下依据阿西莫夫的代表作品之一《机器人管家》(The Bicentennial Man,又译《变人》,1984年纽约Doubleday出版社出版,1999年同名电影上映,导演Chris Columbus) 进行深入剖析,立于机器人的伦理地位角度对“机器人三定律”进行全面考察。
一 、阿西莫夫“机器人三定律”与机器人伦理学
(一)阿西莫夫“机器人三定律”与《机器人管家》
抛开机器人伦理与人类行为的关涉,机器人伦理学似乎只与智能机器人有关,艾萨克·阿西莫夫正是出于这样的思想基点于1950年在《我,机器人》(I,Robot)中提出了“机器人三定律”,以期对未来AMAs机器人进行伦理规制。“机器人三定律”即“第一定律:机器人不得伤害人,也不得见人受到伤害而袖手旁观;第二定律:机器人应服从人的一切命令,但不得违反第一定律;第三定律:机器人应保护自身的安全,但不得违反第一、第二定律” 。
艾萨克·阿西莫夫的《机器人管家》以科幻文学的形式为哲学工作者提出了一系列的伦理学问题,并引发人们不断的挑战。该书以名为安德鲁(Andrew)的家用机器人的成长线索展开:安德鲁完全遵守“机器人三定律”为马丁一家服务,充当仆人角色。因为安德鲁有着独特的意识和创造能力而被马丁一家视为其家庭成员,赐姓“马丁(Martin)”。安德鲁与马丁家的小女儿一生都保持着深厚友谊。出于“只有人类才能拥有‘自由’,‘自由’一词对于机器人来说毫无意义”的缘由,裁决法官否定了安德鲁的权利诉求。马丁家的小女儿在历经诸多坎坷后终于帮助安德鲁获得了自由的权利。法官判决理由是“没有权力拒绝任何具有概念理解和欲望表现的心灵对象获得自由”[1]。尽管安德鲁被赋予了自由的权利,但是他仍严格遵守着“机器人三定律”。为了弥合与人类之间的相貌差异,安德鲁开始像人类一样穿衣服,并不断地进行硬件升级,后来他把自己的身体变成了一个完全意义上的人类。其后不久,安德鲁外出遭遇了地痞无赖的刁难,那些地痞要求安德鲁脱下只有人类才有资格穿的衣服,并命令其自行销毁。根据机器人第一定律和第二定律,在安德鲁没有伤害人类的情况下,就必须服从地痞们的命令,而无法为自身进行辩护和自卫。关键时刻,安德鲁被小女儿的儿子救起。但这表明,人类对自治型机器人等人工智能有一种非理性的恐惧感,即使人工智能物能够遵守“机器人三定律”,但是机器人却有着比人类更长的寿命,这会引发人类的嫉妒心和恐惧感,并促使人类想要摧毁机器人。安德鲁以升级电子元件的方式实现了像人类一样的自然衰老过程,使自身更接近一个真正的“人”。他认为这样的做法没有违反“机器人第三条定律”,因为他的“激情和欲望”对于生命来说比起拥有行尸走肉、长生不老的钢铁躯体更有意义。最后安德鲁决定接受像人类一样的死亡命运。在他去世200年后,人们宣布其获得了“人”的身份。
(二)机器人伦理学问题的凸显
在生命伦理学领域,伦理学家围绕“高级动物和人类胎儿是否应该享有权利”的问题进行着如火如荼的讨论。这也引发了人们在机器人领域开始探讨智能机器人的道德地位。
在《机器人管家》一书中,阿西莫夫对于某些智能机器人的类型做出了一个极具价值的案例分析,他认为,像安德鲁一样的机器人不应充当人类的奴隶角色,而应当被赋予权利。在故事的结局,阿西莫夫让我们看到安德鲁被迫遵循“机器人三定律”有着诸多偏颇。在法院庭审中,法官不承认安德鲁应该具有权利,但不可否认的是,安德鲁是一个远比社会中大多数人类更具有道德原则的一种存在实体。如果能为智能机器人找到合适的道德准则让其遵循行事的话,智能机器人将变得更加具有伦理完备性,这其中就凸显出诸多机器人伦理学问题。
具体来说,属于机器人伦理学问题的例子包括:机器人伦理学的终极目标是什么?对机器人添加一个伦理维度具有什么意义?机器人道德是可计算性的吗?应当期望告诉机器人在道德困境中如何进行行为才可能会找到自身吗?如果机器人遵循伦理原则的话,那么,是否有必要确定机器人本身的道德地位呢?
机器人伦理学的最终目标是创建一个能够遵循理想的道德原则和伦理律令进行行为的机器人。这涉及为机器人“添加一个伦理维度”的问题,具体包括两个方面:(1)在机器人设计中,依据人类的意愿把一些伦理准则和道德律令嵌入到机器人中,使之能够按照设计师所设定的完全道德的方式进行行为;(2)给出机器人理想的道德原则,或者一些道德困境和正确答案的案例,以及抽象的理想伦理原则的一个学习过程,以使其能够应用这些伦理原则进行指导自身的行为。[2]
针对第一个方面,机器人完全按照人类所设定的伦理程序进行行为,这属于计算机伦理的领域,而不是机器人伦理学领域。针对第二个方面,旨在构建能够进行伦理推理的机器人,这是机器人伦理学的终极目标。因此,只有在第二个方面中,才能说机器人完全具有自治性,才可以称其为是一个真正的AMAs机器人。使机器人能够在一个道德困境中做出自治判断则是具有重大历史意义的变革。
二、 机器人获得道德地位的必要性特征分析
大多数人类天然地抱有“物种主义者(speciesists)”的伦理姿态。正如当代著名伦理学家彼得·辛格(Peter Singer)对“物种主义者”的定义一样:“物种主义的偏见或态度倾向自身物种成员的利益,并拒斥和反对其他物种的利益。”物种主义者可以证明“其他物种成员的最重要的利益牺牲目的是为了促进我们自己物种哪怕最微不足道的利益”[3]。对于一个物种主义者来说,当决定如何去行为时,需要考虑的就只有自己物种的成员,如果把“物种”的概念拓展到机器人范畴的话,也可以参考“物种主义”的思想进行分析,最为核心的问题是:是否以“物种主义者”姿态看待机器人伦理地位。
在哲学史和伦理学史上,诸多先哲们对物种(being)或实体(entity)的道德地位以及伦理关护的必要特征做过相关探讨。如果认定一种物种或实体具有道德地位的必要特征的话,那么就意味着必须把这种物种或实体纳入到伦理关护的范围内。
在19世纪,功利主义代表人物杰里米·边沁(Jeremy Bentham)认为,是否具有理性和交际能力是判定道德行为后果的关键因素,“诸如成年的马、狗这样的动物所具有的理性能力比刚出生一个月的人类婴儿都要健全。但是假设这样的动物也具有理性能力的话,那么结果又将是什么样的呢?核心问题是,他们具有理性思考能力和理性感知能力吗?”[4]在《道德和法律原则导论》(An introduction to the principles of morals and legislation)中,边沁认为,不应该把是否具有理性和交互能力当作是判定道德地位的核心因素,正如新生婴儿不具有完备的理性和交互能力,但是我们仍旧把其看作是一个道德行为体判定其具有道德地位一样。相反地,边沁认为,诸如遭受痛苦和体验快乐这样的感知能力(sentience)是决定道德地位的关键性因素。彼得·辛格(Peter Singer)对此也表示赞同,他认为:“如果一个物种能够表现出感知能力,那么我们就应该把其纳入到伦理关护对象之中,正视其遭受的痛苦与快乐,而不可对其袖手旁观。”[3]
如果把感知能力看作是道德地位的标准,那么又该如何看待安德鲁这样的智能机器人呢?安德鲁是否拥有能够体验快乐和痛苦的能力呢?在作品中,阿西莫夫极力使我们信服安德鲁具有感知苦难和快乐的能力,并能够把这种能力付诸于每一次行为活动中,这也成为安德鲁在与法官的辩护中力争获得自由的坚实理由。
德国古典哲学大师伊曼努尔·康德(Immanuel Kant)认为,只有具有自我意识的人类才应该具有道德地位。康德在18世纪晚期就表达了这一观点,坚信只有人类才具有自我意识。现在我们认识到新生婴儿和幼儿缺乏自我意识,而如灵长类的猴子和类人猿等成年的高阶动物却拥有自我意识的特征,基于这些缘由,我们不能对其再持有物种歧视态度。*美国克莱姆森大学的副教授克里斯托弗·格劳(Christopher Grau)指出,康德可能持有一种更健全、刚性的自我意识的概念(包括自治权的概念),并通过伦理学原则的“绝对命令(Categorical Imperative)”来辨别和实施道德律令。然而,虽然康德把猴子和类人猿排除在道德地位的探讨范围之外,但依据其观点同时也把人类中的新生婴儿和小孩拒斥于伦理关护之外。
20世纪普遍流行这样一种思想,即一种物种或实体是否具有权利则依附于其是否具有道德地位。美国科罗拉多大学著名伦理学家迈克尔·托雷(Michael Tooley)认为,“万物若要赋予权利,其必须拥有渴望追逐权利的心智能力”“一个实体不具有特殊的权利,除非它至少具有追逐权利的兴趣”[5]。简言之,一个物种不具有生存的权利,除非它具有渴望继续存在的能力。
美国旧金山大学的玛丽·安妮·沃伦(Mary Anne Warren)把“情感性(emotionality)”看作是“道德共同体”的必要因素。她认为,“情感性”是道德共同体“个体(person)”的重要构成因素,其与“人类”群体不是同一类的:“人类基因既不需要也不满足‘人(person)’的概念内涵。一些人类基因构成的存在体不具有‘人(person)’的意义,他们也可能归属于其他物种。”在《堕胎的道德和法律地位问题探赜》(On the moral and legal status of abortion,1997)一文中,沃伦罗列了六个特征进行诠释“人(person)”的内涵:[6]
(1)知觉性——具有意识经验的能力,通常包括经历痛苦和快乐的能力;
(2)情感性——具有感受快乐、悲伤、生气、愤怒、爱,等的能力;
(3)推理性——具有解决新问题和复杂的问题的能力;
(4)交互性——通过任何手段,获取各种类型的信息;也就是说,不仅能够获取无限内容,而且可以开启无限可能的话题;
(5)自我意识——拥有一个“自身”的观念,作为一个个体和/或(and/or)作为社会群体的一员;
(6)道德行为(Moral agency)——通过道德原则或道德理念进行调节自己行动的能力。
沃伦把“情感性”特征纳入其中,并把其看作是人格的关键组成要素,因为她试图区分“人(person)”和“人类(humans)”的概念内涵,她认为,“人(person)”是道德共同体的组成部分,人类被赋予“情感性”的特征。
对于人类来说,一方面,这意味着一个人必须有同情心;另一方面,人类的情感很容易妨碍实施道德上的行为,容易受到另一个人的情感影响,使其变得无法遵循道德原则。因此,对于人类来说,在主观情感和遵守道德原则的客观要求之间找到平衡,对于人们实施正确的道德行为来说是最为关键和重要的。
综上所述,机器人可以模仿情感性的行为,但并不一定保证机器人真正具有情感和感情。不能把情感性因素看作是一种物种或实体具有道德地位的标准,因为情感性在伦理上通常是决定正确行为的责任。如果把情感性因素看作是必要条件的话,那么可以得知,像所有以上提到的其他特征一样,建立一个完备的AMAs机器人则变得任重而道远。
三 、“机器人三定律”对未来AMAs机器人建构的反思与修正
依据诸多先哲给出的解答,可以假设,如果未来自治型机器人具有道德地位,那么人类是否可以凌驾于机器人之上,并有权力对遵循阿西莫夫的三定律的机器人实施道德歧视呢?
康德认为,实体和人类的伦理地位是平等的,即使实体本身没有权利,但是人类也不应该对实体进行伦理歧视和虐待。他在1780年出版的《伦理学讲座(Lectures on Ethics)》中“我们对于动物的职责(Our Duties to Animals)”一文写到,尽管动物没有道德地位,且被当作为人类目的服务而存在的,但是我们仍然没有资格对其虐待和道德歧视,因为对“可怜无助的动物心怀柔情则对人性的发展具有裨益”“对动物持残忍姿态的人类在与人打交道时也会变得困难”。因此,即使我们对动物不负有直接责任,但是我们有义务把他们看作是对人类的“间接责任”[7]。
对此,可以想象康德对于安德鲁遭遇恶霸挑衅场景的反应和看法。康德会憎恶恶霸对待安德鲁的方式,他一定会担心恶霸们在未来场景中也以同样卑劣的伦理姿态对待人类。实际上,当小女儿的儿子发现恶霸故意刁难安德鲁时,展现出的是一个人类救助者的姿态,而不仅仅被视作为拯救一个冰冷的钢铁机器。实际上,安德鲁是按照接受人类不公正对待的“阿西莫夫机器人三原则”进行构建的,这也意味着安德鲁在根本上就必须接受人类非道德式的摆布,如果人们命令安德鲁放弃抗拒的话,那么他没有办法阻止人类的蓄意乱为。因为,第二定律优先于机器人自我保护的第三定律。在任何情况下,机器人不能保护自身免受伤害,反之则这意味着违反第一定律。总之,遵守“机器人三定律”与把安德鲁看作是一个AMAs机器人的构建理想相去甚远。
根据康德的观点可以得知,其反对阿西莫夫的“机器人三定律”,并认为即使实体遵循一定程序,但安德鲁式的机器人这样的实体本身仍不具有道德地位。他认为,任何人类创造的道德法律都必须倡导平等的尊重态度,即使对于那些自身缺乏道德地位的物种或实体(beings/entities)也应如此,如果人类与实体之间存在不平等罅隙,并允许人类对机器人进行随意破坏的话,那么在这种法则下就有可能出现导致人类成员间彼此伤害的行为。如果人类需要恭敬平等地对待其他实体的话,那么他们更有可能达成人类之间的彼此尊重。
因此,从康德的论证中可以得出以下结论:一个自治型伦理机器人必须被视为具有与人类相同的道德地位,必须认真对待以避免我们把道德为“恶”的行为嫁祸于人类身上。正如康德对于动物的观点阐述一样,“动物仅仅只是达到目的的一种手段。这种目的的落脚点是人”[7]。与之形成对比的是康德著名的第二条道德律令:“不论是谁,在任何时候都不应把自己和他人仅仅视为工具,而应该永远看作自身就是目的。”这是道德准则质料方面的要求,因此,以普遍化原则推之,人类也应该同样地对待其他理性存在者。
综上所述,通过以上伦理学家的观点比照,可以得知,“机器人三定律”规避了人类的伦理职责和义务,把机器人拒斥在道德行为体考察之外,这显然是有失偏颇的。因此,结合康德伦理学和阿西莫夫“机器人三定律”的思想内涵,可以对两者做一种修正性反思:可以要求机器人按照人类意愿行事以期达到人类的目的,但同时不应对其持有道德歧视和虐待。既然阿西莫夫的“机器人三定律”不能阻止人类虐待机器人或智能机器,那么就应该进行实时修正,达成对未来AMAs机器人的完美建构。
四、 结论
以阿西莫夫的科幻小说《机器人管家》作为话题缩影,映射出当今机器人伦理学领域内的许多前沿问题。关于“机器人三定律”和未来AMAs机器人构建的讨论俨然已成为当今应用伦理学领域不可回避的问题。机器人伦理学的终极目标是创建自治型道德机器人(AMAs),这为新兴领域带来诸多前沿性的挑战。通过机器人伦理地位的剖析,可以得知,阿西莫夫奠基的“机器人三定律”在根本上规避了人类的伦理职责和义务,把机器人和人类的地位放在不同的伦理序列中,会使得构建未来AMAS的理想化为泡影。然而,我们对于伦理学家所推崇的“机器人三定律”也应该秉持扬弃的态度进行审慎对之,正视其理论缺陷和对未来AMAs机器人的消极影响。
总之,深入剖析阿西莫夫的“机器人三定律”对于正确理解机器人的伦理地位以及机器人伦理学的理论基点有重要意义,为构建未来AMAs机器人提供了重要的理论积淀和学理依据。
[参考文献]
[1] Asimov I.“The bicentennial man” in I. Asimov, The bicentennial
man and other stories[M]. Doubleday, New York, 1984:246.
[2] Susan Leigh Anderson. Asimov’s “three laws of robotics” and machine metaethics[J]. AI & Soc (2008) 22:477-493.
[3] S Singer P.All animals are equal. In: Animal liberation: a new ethics for our treatment of animals[J]. New York. New York review, Distributed by Random House, 1975:1-22.
[4] Bentham J. An introduction to the principles of morals and legislation
[M]. chapter 17. Burns J, Hart H (eds). Clarendon Press, Oxford, 1969:249.
[5] Tooley M. Abortion and infanticide[M]. Philos Public Affairs,1972:47-66.
[6] Warren MA. On the moral and legal status of abortion. In: LaFollette
H (ed) Ethics in practice[M]. Blackwell, Oxford,1997:178.
[7] Kant I. Our duties to animals. In: Infield L (trans.). Lectures
on ethics[M]. Harper & Row, New York, 1780: 239-241.
[责任编辑:陆静]
Does Asimov's “Three Laws of Robotics” Fits to AMAs Robots Building in the Future?——An Analysis Based on Bicentennial Man
WU Wei-li1,WANG Shao-yuan2
(1.College of law and Politics,Kashgar University,Kashgar 844000,XinJiang,China;2.School of Marxism Studies,Shanxi University of Finance and Economic,TaiYuan 030006,ShanXi,China)
Abstract:In recent years, as applied ethics "robot ethics" emerges, ethicists began to explore build problems of AMAs robots in the future. Modern American science fiction literature master Isaac asimov's "robot series" is the earliest prototype of robot ethics. He put “three laws of robotics” into the basis of his literatures. The classic literature Bicentennial Man maps many problems of robots metaethics. That discussing the characteristics of robot for the necessity of the moral status can help people understand “Three laws of robotics” in a prudent attitude. Faced up to the defects of “three laws of robotics”, we can amend theory and aim to build a perfect AMAs robot in the future.
Key words:Isaac Asimov; Three Laws of Robotics; Artificial moral agents; Robot ehics; Bicentennial Man
中图分类号:B82-057
文献标识码:A
文章编号:2095-0063(2016)02-0001-05
收稿日期:2015-09-29
基金项目:2015年教育部人文社会科学研究规划基金项目“认知科学视阈的延展心灵问题研究”(15YJC720005);山西省教育科学规划项目“在信息技术教育中融入机器(人)伦理学教育的问题研究”(GH-15025);山西财经大学青年科研基金项目“当代应用伦理学新领域:机器(人)伦理学研究”。
作者简介:武威利(1979-),女,河南荥阳人,讲师,南开大学哲学院博士研究生,从事科技伦理学、政治哲学研究;王绍源(1986-),男,河南商丘人,讲师,博士,从事科技伦理学研究。
DOI 10.13356/j.cnki.jdnu.2095-0063.2016.02.001