智能机器人能够拥有权利吗?

2020-01-11 20:11郁乐
关键词:肉体权利道德

□郁乐

自近代工业革命尤其是信息技术革命以来,人类在技术文明的高速公路上争先恐后地狂奔,甚至并不在意奔向何方。当前,令人心驰神往的智能机器人技术的完善与普遍化,将会为人类的生产、生活方式带来前所未有的深刻变化,如同核武器的发明将人类文明置于存在的边缘,机器人的普及也将从根本上改变人类的存在图景。古代社会的富人被仆人围绕,发达消费社会中“富裕的人们不再像过去那样受到人的包围,而是受到物的包围”[1],未来人们将会被机器人围绕,不仅生产、生活方式发生巨变,而且人们与物的关系乃至人们彼此的关系都将受到深刻影响。在这种“存在论级别的巨变”[2]的未来想象中,机器人能否拥有权利,是一个充满未来感的问题。以人的形象与智能为蓝本制造出来的人形自动机(humanoid robot)在人类社会生活中发挥着某些人类的功能,机器人有足够理由成为权利主体吗?如果能够,机器人可以拥有与践行哪些权利?这样的权利扩张对人类生活将会构成何种影响?或者,赋予机器人权利的道德想象本身是否也需要反思?

一、意识与自我意识:机器人权利的必要条件

随着人工智能(artificial intelligence,简称AI)技术的迅速发展,“机器人”(robot)①机器人(robot)概念最早由捷克作家恰佩克提出,就该词的原初意义来看,被解释为“完成人的工作的机械,自动机,在捷克语中的原义(robota)是指强迫的劳役(mechanism doing the work of a man,automaton;Czech,f.compulsory service)”,并无汉语“机器人”这一偏正词组所拥有的强烈语义暗示:“机器的人”。事实上,作为技术人工物(technical artifacts),机器是机器,人是人,本质上完全不同,这一概念有着逻辑上的内在矛盾,类似于“圆的方”;机器人权利主张的内在矛盾也与此概念有关,本文将会在第四部分对此展开论述。本文论述中机器人概念特指智能机器人,而非仅仅具有人形的机器;为行文简洁,智能机器人有时也称之为机器人。[3]这一拟人化的名称已经不仅仅是科幻文学的想象了,作为自动机(automaton)的机器人已经越来越成熟,如日益普及的工业机器人,日益成熟的服务机器人与伴侣机器人,甚至各国竞相研发的战斗机器人,将会在生产生活中占据越来越重要的地位。因此,人们如何面对这种技术人工物?机器人是否能够成为人工道德智能体?将拥有何种道德地位?是否能够成为享有权利的主体?这些并不是遥不可及的问题;对此问题持应该将权利主体地位赋予机器人的扩张主义观点居多。

在现代道德与法律话语与实践中,权利无疑是至关重要的概念,是现代人自我认同与自我保护的核心观念,甚至可以说,现代社会的进步即以权利的外延与权利主体的外延的扩张为衡量标准。追溯权利主体的扩张历史,可以看到,在古代社会如罗马仅有成年男性贵族享有权利,英国贵族群体通过斗争确立了大宪章(Magna Carta)中的“天赋权利”,沿着“英国贵族—美国殖民主义者—奴隶—女人—印第安人—劳动者—黑人—大自然”[4]的扩张路径,到人类群体普遍享有基本权利、具有充分权利意识的现代社会阶段。不仅如此,部分激进的权利扩张主义观念甚至认为应该将权利赋予有生命与生活、感受、利益甚至“信念与欲望”[5]的动物群体(动物福利论与动物权利论),或者进一步将权利扩张到具有人的形象与智能、能够与我们共同工作与生活的机器人。

回答动物或者机器人能否享有权利这一问题,首先需要澄清权利概念本身的内涵。考察概念的内涵应该从日常语言中的使用及其变化来分析,如弗雷格所指出的:“要在句子形成的语境而不是孤立地探求词的意义”[6],因为词语的真正意义存在于它的具体使用中。权利(rights)本身来自于日常语言中的谓词(right),意味着法律与道德意义上的正确。然后在使用中形成了抽象名词,即在法律与道德意义上正确的行为。换句话说,如果一个人这样做是正确的(right),那么,他就拥有这样做的权利(the right,法律与道德权利)。例如,他拿回自己借给他人的书,这种行为是正确的,那么,他就有权利这样做。因此,权利的内涵就是行为在法律与道德意义上的正确性;说一个人有权做某事(he has right to do something),无异于说一个人做某事是正确的(he was right to do something)。这种形容词的抽象名词化,还有另一对关联概念可供参考:just意味着恰好,justice指的是正义,恰好(just)给予人们所应得的,就是合乎正义(justice)的。

在权利的根据这一哲学问题上,人们从不同的立场与视野出发提出诸多解释。有学者进行了比较全面的总结:“人的权利是神送给人的礼物、来源于人类的直觉、人类社会发展到一定阶段的产物、来源于道德共同体。”[7]这四种理由从不同角度描述了权利的根据与特征。在上述特点中,“来源于人类的直觉”与“来源于道德共同体”揭示了权利概念的重要特征:虽然权利的存在必须以客观的社会存在为基础,但是,权利也表现为人们的权利意识与权利观念,需要“道德共同体”成员的认同与承认,以共同的道德与法律信念体系为基础,人们才能达成尊重与保护彼此合法利益的契约,从而在道德共同体中享有某些基本权利。当然,这种道德共同体作为社会存在也是“人类社会发展到一定阶段的产物”。

机器人拥有权利与动物拥有权利的主张有着相似的思维方式与不同的道德动机。动物或机器人应该拥有权利的主张是一种拟人化思维,是源自人类自我中心的思维方式:将一切存在物看作与自己相同或相似的存在,或者将自身的存在特性与方式推己及人或者及物(动物与技术人工物)。有所不同的是,权利扩张主义认为动物应该拥有权利的道德动机主要是同情,而机器人应该拥有权利不仅出于同情,更多的是对人类形象、尊严的尊重与保护。但是,从权利概念本身的内涵来看,离开了right(正确)这一谓词,就无法理解rights(权利)这一概念。正因如此,动物无法理解行为在道德与法律意义上的正确性,无法与人类共享权利意识,更不可能与人类形成道德共同体,无法真正地拥有权利。但是,在某些论者看来,机器人虽然不像动物那样拥有生命、感受、利益与欲望,却拥有理解行为之正确性的智能(虽然目前来看这种智能来自人类的设定),并能在程序设定的前提下践行正确的行为。因此,机器人享有权利的理据应该强于动物。

如果权利扩张主义关于权利主体扩张到动物与机器的观念能够付诸实践,人类与自然以及人类与自己的创造物(机器人)的关系将会发生根本性变化。那么,权利是否能够赋予机器人呢?目前权利概念的实践主体与言说主体仅限于人,权利的实践基础也仅仅是人类社会,“因为权利的概念在本质上属于人,它植根于人的道德世界,且仅在人的世界里才发挥效力和有适用性。”[8]究其原因,权利的拥有与实践需要以“人的道德世界”为前提,“人的道德世界”以人对道德规范的理解与运用为前提;人对道德规范的理解与运用,以人所特有的道德情感与道德理性为前提;人的道德情感与道德理性,则是以人的意识与自我意识为前提。上述前提之前提的环环相扣实际上形成了一个必要条件假言连锁推理:人的意识与自我意识是上述系列因果环节的必要条件,没有此条件,一定不会有此后的因果链条;这就意味着,否定了这个必要条件,就否定了其后的系列因果链条。当然,即使有此前提条件,也不一定有此后的因果链条。因此,赋予机器人以基本的权利(rights),意味着机器人需要有类似于人的自我意识与道德意识,能够判断“自己”的行为在道德意义上是否正确(right);如果没有自我意识与道德意识,机器人不可能拥有权利。那么,要解决的关键问题就是:机器人的智能能否等同或类似于人的自我意识与道德意识?或者,智能机器人能否发展出这种自我意识与道德意识呢?

二、肉体感受性:意识与自我意识的必要条件

首先,意识是以身体为前提的,身体对意识的重要性是不言而喻的,如老子所言:“吾所以有大患者,为吾有身”;王充认为,人的肉体就像蜡烛,精神(精气)好比火光,“火灭光消而烛在,人死精亡而形存”[9];民间俗语也说,“人死如灯灭”。在很多情况下,自我就意味着肉体;即使考虑意识与心灵,肉体也是意识与心灵的居所与象征。希腊人重视感性生活,将身体的美与力量作为精神的表现与象征。法国启蒙哲学家论证了快乐与痛苦(肉体的感受性)对于人的情感与行动的支配地位,“肉体感受性乃是人的需要,是感情、社会性、观念、判断、意志、行动的原则”[10]180,这对于我们理解意识、自我意识与道德意识极具启发意义。

其次,在自我意识的产生与发展中,肉体的感受性(痛苦与快乐)是区分自我与非我、发展自我意识的感性前提。在与外部世界的交往过程中,婴儿通过肉体的感受性尤其通过快乐与痛苦来理解自我与世界的界限(区分我与非我、身体与其他),尤其是痛苦的感受,如俗语所言:一朝被蛇咬,十年怕井绳。这种感受与界限是意识与自我意识的起源。同时,婴儿通过注视人的面孔来建立与他人的情感联系,并在大脑中逐步建立强大的处理表情信息的能力,从而发展出识别他人的情绪、情感与内心世界的能力。随着年龄的增长,儿童在与他人的交往中通过他人对自己的看法与反应来建构自我形象,这种自我形象也是自我意识的重要组成部分。不仅如此,对痛苦与快乐相关的行为及其准则的反思与内化是道德意识的起源,对儿童来说,不想被小伙伴伤害的最好办法就是不要伤害小伙伴,也就是说,儿童通过疼痛来理解“己所不欲,勿施于人”这一道德规范。

哲学以思辨的方式来理解肉体感受性作为意识与自我意识的前提,心理学则证实了以肉体感受性为前提的情绪与情感在意识中的重要地位。就大脑的基本结构、发展历史与意识功能的关系来看,“虽然主管情绪的脑组织已经有了上亿年的进化史,而主管人类理智的脑组织只有区区不足1000万年的发展史,但这并不能证明,像传统理论所阐述的那样,我们的理性比我们的情绪更重要”[11]。事实上,恰恰相反,“通过科学和严谨的研究证明,情绪对大脑功能以及精神生活都处于中心地位,而绝不像主流科学一度认为的那样,情绪仅仅是神经学中的一个琐屑现象。”[12]心理学提供了大量的关于肉体感受性对情绪、情感以及人的意识生活之重要性的研究:情绪与情感以肉体感受性为基础,肉体感受性对情绪的影响是决定性的。例如,寒冷与饥饿带来压抑与绝望,温暖与饱足带来快乐与满足,甚至阳光与颜色对情绪也会产生非常大的影响,缺乏阳光导致抑郁情绪高发。

第三,在道德意识中,肉体感受性的重要作用也是不可或缺的。法国启蒙思想家强调了以肉体感受性为基础的个人利益在道德意识中的重要地位:“利益支配着我们的一切判断”,正直就是“只听从公共利益的指示”[10]182-184。休谟对感受性之于道德意识的重要性早有洞见:“道德宁可以说是被人感觉到的,而不是被人判断出来的”[13]510。“因此,道德上的善恶区别并不是理性的产物。理性是完全不活动的,永不能成为像良心或道德感那样,一个活动原则的源泉。”[13]499休谟把道德最终归结为快乐与不快的情感:“一个行动、一种情绪、一个品格是善良的或恶劣的,为什么呢?那是因为人们一看见它,就发生一种特殊的快乐或不快。”[13]511休谟的这些洞见对道德心理学有着很大影响,开启了从肉体感受性的角度研究道德意识的思路。在高举理性大旗的康德那里,肉体感受性及其需求对道德意识也是至关重要的:“获得幸福必然是每个有理性但却有限的存在者的要求……因为他有需要,而这种需要涉及他的欲求能力的质料,也就是某种与作为主观基础的愉快或不愉快的情感相关的东西,借此就使他为了对自己的状态心满意足所需要的东西得到了规定。”[14]

事实上,人们的诸多道德观念都与身体的感受有着密切关系。关爱(拒绝伤害)与纯洁(身体的健康要求)这两种道德观念起源于对身体的爱护。触摸与拥抱会增加血清素与催产素的分泌,从而提升愉悦感与共情能力,进而促进信任与合作;清洁双手的动作能够坚定人们遵守道德规范的意愿(这可能是“金盆洗手”这一江湖习俗的道德心理根据),等等。这些肉体感受性对道德意识与观念的影响,在道德心理学的实证研究中屡屡被证实。就当前机器人智能的运行原理与方法来看,上述这些肉体感受性及其对道德意识的影响应该无法在机器人智能中真实发生。即使能够将这些道德观念植入机器人智能中,那也仅仅是程序、数据与算法,而非真实的肉体感受性。即使机器人能够完美地执行道德规范的程序与算法,也并不意味着能够理解这些程序与算法的道德意义与情感价值,如同机器人智能能够以美的构图法则(如黄金分割律)进行创作,也并不意味着它能够欣赏这种构图的美感,更不会在这种创作活动中体会创造性劳动带来的幸福感与成就感。植入这种规则与算法的机器人,如同一位盲人色彩学家,知晓一切颜色的物理属性与美学特性的相关知识、规律与数据,但从来没有亲眼见过颜色。

数学思维与计算主义是机器人智能的核心理念,这一理念自毕达哥拉斯时代就开始生长,并使得科学技术展现出统治性力量。毕达哥拉斯认为,“一切其他事物就其整个本性来说都是以数目为范型的,而数目本身则先于自然中的一切其他事物”[15]。从当前机器人智能的发展状况来看,仍然以大数据与深度学习为基础,同时也出现了以逻辑规则为发展方向的趋势,但是,即使这些技术能够飞跃式发展,也仅仅是模拟人脑结构功能分区中新皮层(neocortex)的部分功能,而不是作为一个复杂结构的人脑的整体功能。如我们所知,智能只是人类意识的部分功能,以众所周知的“知、情、意”三分法来看,智能机器人仅仅模拟意识中的知性功能,作为体验的情感功能与追求目的的意志功能,仍然是人工智能所无法模拟与实现的,因为这两者与脑缘系统(limbic system)有着密切关系,尤其是在自我意识与道德意识中,以感受性为基础的情绪与情感是非常重要的因素,情感功能与大脑结构功能中的脑缘与皮质层两者都密切相关。因此,即使机器人智能最终能够实现类似人类的意识,但目前看来,这一前景还是遥遥无期的。

如上所述,智能机器人因为缺乏肉体感受性,不会拥有类似人类的意识、自我意识与道德意识,从而也就缺乏成为权利主体的必要条件。即使智能机器人产生了以机器的感知与智能为基础的意识与自我意识,与人类的意识与自我意识也有着根本不同,因此,它们极有可能产生与人类不同的价值观。从这个意义上讲,机器人如果真有“机心”,那将会是真正意义的“铁石心肠”。例如,如果没有以疼痛的感受性为基础,机器人应该不会有关爱(避免伤害)和同情,其道德情感与价值观念可能与人类完全不同。机器人可能也会遵守“不伤害人类”的法则,但不会真正理解禁止伤害的情感基础与道德意义。事实上,这正是许多思想家(如霍金)所担心的,他们甚至认为未来机器人可能具有的超级人工智能是“人类最后一项发明”。想象一下这样的情景:具有超级人工智能的机器人,类似于尼采所说的超人,但是,这种机器人并不具有同情、怜悯与伤感等以肉体感受性为基础的道德情感,极有可能给人类带来灾难。在这种情景中,人们就更不用去讨论赋予机器人权利的问题了,而是需要考虑如何保护人类的生存权。

三、机器人如何享有权利

如上所述,机器人由于缺乏肉体感受性,不能产生意识、自我意识与道德意识,因而无法享有人类所拥有的权利。但是,在科技进步的推动下,有一种可能性必须加以考虑:通过技术的模拟能力,未来的智能机器人具有了类似于肉体感受性的感知能力,在某种意义上拥有了类似的意识、自我意识与道德意识。例如,机器人拥有了类似于人类眼睛的视觉感知系统,机器人的智能系统中内置了具有基本功能的自我意识,以及在所谓的机器人法则的基础上,机器人拥有了以人类为中心的道德意识。在未来的日常生活中,人们面对具有高度智能的人形机器,为了满足人们的道德想象与道德期待,建立人与智能机器人共存的道德共同体,愿意赋予机器人以权利,并以对待人类的道德要求来对待机器人。那么,在这种情况下,机器人又能够享有哪些权利呢?人类社会的权利话语与实践将会有什么样的改变呢?

SUN Wen-wen, WANG Yin, ZHU Hui-ming, BI Ke, XU Li-sha

在人类当前的权利话语中,基本权利在逻辑上以身体与生命为前提。如果没有以身体存在及其感受性为基础的生命权,其他权利要么根本不会产生,要么完全没有意义。事实上,肉体感受性不仅仅是意识、自我意识与道德意识的前提,也是基本权利的起源:生命权,追求幸福的权利与人格尊严等相关权利,也与身体的存在及其感受性有着不可分割的联系。因此,权利话语大多首先谈到生命权与追求幸福的权利,此外还有人格权、人身权、财产权、著作权、肖像权,等等。所以,我们大致按照这一权利序列逐一进行考察。

首先,诸多基本权利以生命权为前提,我们先考察机器人享有生命权是否可能,以及如何可能。如我们所知,机器人是自动机(automaton),是技术人工物,即使拥有了高度的甚至超级的智能,也并不会因此拥有生命、身体以及感受性。因此,如果生命权利与生命、身体及其感受性相关,那么机器人享有生命权是难以实现的。在充满道德想象力的阿西莫夫机器人定律中,第一定律是“不得伤害人类”,将人类的生命权置于首位;第二定律是“服从人类命令”,第三定律要求机器人“自我保存”。阿西莫夫后来又加上了“保护人类整体的利益”作为第零定律。在这些定律中,“自我保存”比较接近于“生命权”。但是,机器人的“自我保存”其实是居于人类权利以及服从人类命令之后的,完全无法称之为权利,因为权利的逻辑前提是平等。这三条定律的词典式设定(lexical order)本身就意味着机器人处于必须服务人类利益与服从人类命令的不平等地位,在此前提之下再考虑“自我保存”。因此,这里的“自我保存”并非生命的自我保存的权利,而是机器人作为人类的文明成果与财产被要求“自我保存”,从而服务于前三条定律。因此,这些定律并没有确立机器人本身拥有生命权的道德地位。

其次,机器人享有追求幸福的权利也是很难实现的。幸福(happiness)来源于快乐(happy),虽然并非所有快乐都是肉体感受性的直接产物,然而肉体感受性却是快乐或者幸福的前提。机器人的结构与功能并没有以人的肉体感受性为前提,虽然发达的技术会为机器人配备各种探测功能,捕捉周围的所有信息并作出恰当反应,但是,机器人无法拥有友谊与爱情,也不会在被伤害的时候经历以肉体感受性为前提的痛苦,虽然它也会根据程序采取恰当的行动进行“自我保存”,但这只是一种电子-机械反应程序,并非以神经系统为基础的真实体验。因此,机器人不会真正享有与实践追求幸福的权利,也无法定义什么是幸福。因为如我们所知,人们只能根据自己关于幸福生活的定义来想象机器人的幸福,而人们的幸福是依赖于肉体感受性来定义的,机器人缺乏肉体的感受性,或者至少并没有人类肉体的感受性。假设人们按照亚里士多德关于幸福的定义,机器人的幸福就是实现自己的内在目的,在自己的岗位上鞠躬尽瘁;这种所谓的追求幸福的权利并没有改变机器人作为工具的命运。

第三,在以身体为基础的生命权与追求幸福的权利之外,还有以人的形象与人格为基础的肖像权与人格权。这两种权利虽然看似无关肉体的感受性,但实际上仍然是基于身体的形象与利益而发展出来的。如果赋予机器人以人格、尊严与肖像等权利,实际上这仍然是出于对人的形象与尊严进行保护的自爱动机。但是,在机器人被生产出来的高度发达的信息社会中,赋予机器人以人格、尊严和肖像权利,与机器人被制造、购买与拥有的经济现象和法律事实相矛盾。例如,机器人的功能、结构与外观的设计与制造,都会由设计者申请知识产权专利保护;机器人被设计与制造出来之后,会被机构与个体消费者购买、拥有与使用。在这种法律事实中,机器人的人格权、肖像权等实际上无从谈起,唯一能够真实存在与实践的只是归属于人类的财产权与知识产权。

人类与机器人在共同工作与生活的互动过程中,以人际交往的方式相处,作为“它”的机器人被人们当作“他”或者“你”,机器人被认为有一个“他心”或者说“机心”①这里本来是一个人们在互动中推知他人拥有类似自己“心灵”的“他心”问题,还隐藏着一个人们赋予具有人际互动功能的机器以“机心”的问题;限于篇幅,本文不展开讨论。,建立稳定的信任关系或者深刻的情感联系,人们由此产生赋予机器人道德地位的愿望。这种愿望虽然是主观的情感冲动与道德想象,出自人类对工作与生活伙伴的友爱之情,以及人类对自身形象与尊严的爱护之情,或者类似于希腊国王皮格马利翁爱上自己创作的少女雕像的热情,但是,赋予机器人以权利主体地位的理论与实践困难却是难以克服的。不仅如此,在上述所及的诸种基本权利背后还存在着一个逻辑前提:平等权。作为制作者的人与作为作品的机器人的平等关系,可以在浪漫的道德想象中浮现,也可以在激进的权利理论中主张,却无法在现实的道德与法律秩序中得到安放。

四、机器人权利的悖论及其消解

在权利扩张主义的理论与实践中,将权利主体扩张到动物的理论与实践也难言成功。那么,给予作为人造物的智能机器人以权利主体地位,又能否成功呢?机器人作为技术人工物,是信息化时代工业生产的产物,相关财产权与知识产权的法律事实是确定的:作为被拥有的产品,是人类财产权的标的物;作为科技成果,以知识产权的方式归属于研究与设计者。被赋予权利主体地位的机器人又被称之为“人工道德主体”(artificial moral agent),此类概念与“机器人”概念一样存在着内在矛盾,本身就是一个悖论概念。此类概念的内在悖论特性并非语词现象,而是机器人权利主张的内在矛盾,并且该悖论至少有如下几个层面的表现形式。

首先,作为目的与手段的矛盾。机器人具有人类的形象与智能,人们由此产生将享有权利的道德地位赋予机器人的道德冲动:基于同情与自爱的道德情感,人们无法或者不愿以对待物的方式来对待具有人的形象与智能的机器人。但是,这里将会出现一个目的—手段的翻转:原初作为手段而被制造出来的机器人,被人们渐渐地看作目的。捷克语中机器人(robota)的原意是“强迫的劳役”(compulsory service);追溯机器人诞生的初衷,也是因为人们需要将自己从“强迫的劳役”中解放出来。因此,机器人是作为达成这一目的(解放“强迫劳役”中的人)的手段。如果将权利赋予机器人,这种道德冲动看起来也符合康德所阐明的道德法则:“你的行动,要把你自己人身中的人性,和其他人身中的人性,在任何时候都同样看作是目的,永远不能只看作是手段。”[16]但是,将作为手段的机器人看作目的,实际上假定了机器人具有“人性”,而如我们所知,机器人仅仅具有人的形象与智能,并不具有完整意义的“人性”。因此,如同将目的(人性)看作手段是不符合道德法则一样,将仅仅作为手段的自动机看作目的,也会产生难以化解的道德悖论与情感冲突。

其次,享有权利与承担义务的矛盾。机器人享有权利与机器人缺乏承担责任的能力存在着内在冲突。由于权利与义务总是相对存在的,如果机器人拥有权利,也就必须在相应意义上承担义务。承担义务意味着机器人需要拥有承担义务的能力,从目前的情况来看,难以想象机器人能够拥有这样的能力。无论如何,人们并不能判决一只误伤工友的机械手臂以刑罚,它甚至不能对“自己”造成的伤害进行任何赔偿。如果机器人导致了损害严重的交通事故,应该谁来负责?难道是机器人“本人”?由机器人引发的伤害行为,甚至难以在法律意义上区分“故意”还是“过失”。如果机器人拥有了权利主体地位,就应该由其“本人”来承担。但是无论如何,如此的责任追究逻辑明显违背人们的道德直觉。如果机器人在某类事故中被确定为责任承担者,这意味着什么?现代社会高度复杂的责任追究链条导致的“有组织地不负责任(organized irresponsibility)”的状况可能会进一步恶化。因此,即使在权利扩张主义充满激情的想象中,这样的场景也是无法接受的。

第三,机器人享有权利的平等要求与机器人权利能力的不平等存在着内在矛盾。这里其实存在着两个矛盾:人与机器人的权利不平等,不同种类甚至批次的机器人之间的权利不平等。首先,机器人并不能享有以肉体感受性为基础的系列权利(生命权与追求幸福的权利)。在机器人之间,由于技术水平、具体功能与制造批次不同,导致智能水平不同,因而能够被赋予的权利能力与范围也会有所不同;即使人工智能高度发达,适应不同场景的机器人的智能水平、权利能力也会有差异,其享有的权利也会因此不同。事实上,人们会发现根本不可能根据智能水平与具体功能来确定机器人相应的权利能力,从而赋予机器人以不同权利:首先,会造成事实上的权利不平等,违背了权利概念中内在蕴含的平等要求;其次,适应不同目的的机器人种类与型号将会如此之多(设想一下当前智能设备的种类与型号),以至于为每一具体种类或型号的机器人确定权利范围将会成为不可能完成的任务。

机器人权利概念中的多重悖论,源自人们未能在道德思维中清晰地区分情感、事实与理性(逻辑)。清晰地区分这三种要素,是正确思考与有效交流的前提。具体而言,为了避免出现上述关于机器人权利的悖论,需要确认并区分如下三种要素:赋予机器人权利的情感冲动,也就是人们对工作与生活中的机器人的赞赏、热爱甚至尊敬之情(情感);机器人并不能实现人们赋予它权利的善良愿望,因为它本质上仍然是技术人工物(事实);机器人权利问题涉及主体的权利资格与权利能力,要求义务的履行与责任的承担,关乎人类的形象、福祉与尊严,不能付诸情感冲动而轻率从事,因为关于权利的事务是严肃的道德问题(理性)。从上述分析来看,机器人权利概念可以被看作一个康德意义上的道德幻象(Schein),因为“它是指对某种直接呈现的感性表象所作的不适当或不正确的判断”[17]。换句话说,人们产生了赋予机器人权利的情感冲动与道德想象,然后努力寻找理由支持这一主观的“感性表象”,进而形成了“不适当或不正确的判断”。这种“不适当或不正确的判断”的原因,在于人们混淆了作为主观根据的情感与作为客观根据的事实和理性:“判断的主观根据与客观根据混为一谈,并使这些客观根据偏离了它们的使命。”[18]

五、余 论

机器人并不能真正地成为权利主体,也不可能真实地享有权利。机器人权利的道德想象作为康德意义上的“道德幻象”是能够得到有效消解的。机器人也许能够在行为方面“合乎道德”,但不会真正做到“出乎道德”,因为“出乎道德”意味着机器人具有道德判断能力与目的动机意识,并且能够产生自己的目的并努力予以实现,从而享有追求自己目的的权利观念与价值体系。对人类来说,这恰恰是需要高度警惕的。目前,机器人通过系列指令模仿与再现人类的智能与行为,只是看起来像人类的机器,只能享有看起来像权利的待遇(虚拟道德地位),如同家中的宠物,受到宠爱或者尊重,甚至被当作朋友或家人。但是,当小狗小猫咬伤他人的时候,它们并非承担赔偿责任的主体;与此类似,当机器人给人类造成伤害,其制造者与拥有者才是责任主体,机器人并不是责任追究的对象,因此,也不可能是享有权利的主体。

机器人享有权利似乎已经付诸实践了。沙特赋予“女机器人”索菲亚(Sophia)以“公民权”[19],日本赋予机器人Shibuya Mirai以“居留权”[20]。但是,这些都只具有国家或城市名片的象征意义。庄子曾经讲过一个寓言:鲁国国君喜欢一只海鸟,于是“御而觞之地庙,奏九韶以为乐,具太牢以为膳。鸟乃眩视忧悲,不敢食一脔,不敢饮一杯,三日而死”[21],庄子认为将人所认为的幸福与尊贵赋予自然,实际上是在“残害自然”,最终会事与愿违。将权利范畴用于机器人,如同将权利范畴用于动物,均属范畴错误(categorical mistakes)。将权利赋予作为“技术人工物”的机器人,“单纯对物的尊重(甚至会上升到拜物)必然是对人的物化,这种物化未必能提升物的地位,却必然会降低人的尊严。”[22]

事实上,随着人类社会的利益、权利与价值主体的多元化,已经产生了许多难以解决的矛盾与冲突。赋予机器人权利不仅不会缓解这一现状,反而会因为机器人成为了权利主体,使得机器人彼此之间以及机器人与人类之间的权利冲突大大增加。需要反思的是,人与人之间的权利与利益冲突是人类社会矛盾或争端的根源,但是,人们仍然想要制造人形的自动机并赋予它们以权利。这种需要及其内在动机是值得深刻反思的:也许人们并不是真的需要象人一样的机器,而是更想要象机器的人。人们需要完全服从自己的目的、利益与意志的他人,但这一愿望是无法实现的,退而求其次,就只能指望服从自己目的、利益与意志而活动的机器人。正是出于这一动机,人们需要工作机器人、服务机器人与伴侣机器人,并设想与它们的共同生活,并赋予它们以人的形象与权利。这种动机的道德意义及其相关问题,还需另文讨论。

猜你喜欢
肉体权利道德
头上的星空与心中的道德律
我们的权利
我的诗
珍妮·萨维尔
股东权利知多少(一)
生 活
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
权利套装
用道德驱散“新闻雾霾”