刘 永 安
(南京师范大学泰州学院,江苏 泰州 225300)
随着人工智能技术的迅猛发展,智能化、自主化的人工智能产品或系统(后文将之统称为人工智能体)日益表现出一些类人类的行为特征,从这种类人类行为的道德后果和道德责任的忧思出发,衍生和引发出对人工智能体伦理地位的关注和论争。与动物权利和生态主义要求扩大道德受体的范围所不同的是,人工智能技术对人是唯一的道德主体这一根深蒂固的观念提出了挑战,人工道德主体(Artificial Moral Agent)概念的提出将道德主体由人类扩展到非人类实体,这一提法既有来自认知科学的支持和功能主义的捍卫,也有来自有机本体论的强烈反对,其争论的核心聚焦于对人的心智的不同理解,归根结底在于人工智能体在意识方面多大程度上接近于人类,或者与人类存在多大的差异。质言之,意识问题是人工道德主体是否可能的一个关键性问题。
主体(Agent)是道德主体(Moral Agent)的首要条件,能否成为主体是人工智能体能否成为道德主体首先要考虑的问题。为此,需要从主体标准的分析出发,以确认人工智能体是否具备主体资格。主体首先是个施动者,即“X是主体,当且仅当X能够履行一定的行动”[1]19。这样的施动者要成为主体还须有两个限定性的条件:一是行动的自源性,即行动是由施动者自身而不是外在于施动者的其他因素发起的,它强调行动与施动者之间的直接因果关系,而非强调行动者是否是理性的或者是否是意志自由的状态。二是行动基于某种内在的状态,这种内在的状态解释了行动的发生或者为行动提供了理由。人工智能体能在无人类操作的情况下自主地与包括人在内的外部环境发生交互性的自适应行动,因此,人工智能体能够满足行动的自源性条件。对于行动所关联的内在状态的分析而言,哲学上通常所采用的休谟的行动模式认为,行动的原因与欲念(Desire)和信念(Belief)这两种内在的态度相关。从这种模式的解释来看,“如果我想要X(Desire)并且相信y是实现X的必要手段(Belief),我的欲望和信念会导致我做y,或者会导致y行动的意图,而这种意图又会导致做y”[1]20。那么,人工智能体的行动是否可以从内在的状态得到解释呢?对此,有学者从功能和认知科学的不同角度做出了肯定的回答。丹尼特(Dennett)认为重要的是我们能否通过将原因归因于某物来理解它的行为,而不是强调事物是否具备产生欲念和信念等内在状态的内部结构[2]。与丹尼特所不同的是,李斯特(List)和佩蒂特(Pettit)认为我们不单单是通过某种解释把原因归结于事物以解释其行动,从认知科学和功能的角度看,人工智能体以符号表征处理信息的方式在事实上等价于人的内在状态[3]。基于所谓的BDI(Believe-Desire-Intention)软件模型的人工智能体使用符号表征进行操作,它们能够仔细地考虑计划并执行这些计划。大卫·查尔莫斯(David Chalmers)等认知科学家也指出虽然系统的计算并不在生物基质上进行,但它具有内在的因果机制,“当与因果相关的物理结构反映了计算的形式结构时,一个物理系统就实现了计算”[4]。这与当大脑各个组成部分之间的因果关系反映了神经元之间的因果模式而后产生意识极其类似。这就足以说明,人工智能体的认知方式和信息处理方式在功能上等价于信念和欲念的内在状态,这种等价的内在状态足以解释其行动的原因。由是观之,笔者认为人工智能体能够满足主体的资格条件,我们应该将之视为有别于生物性主体的一种新型主体,而且人工主体的出现拓展了对主体内在状态的认识,主体的内在状态不应仅仅局限于生物体具有的诸如理性、欲望或心理等层面,人工智能体所展示出来的、可以解释或决定行动的诸如程序性的、计算性的内在状态也应被纳入主体内在状态的范畴。总之,主体资格问题不是人工道德主体是否可能的理论障碍。
道德主体显然属于主体范畴,但主体不一定都是道德主体。因此,具备主体资格的人工智能体是否能进一步成为道德主体,还有待于对道德主体的定义性特征和必要条件做进一步的考察。道德主体首先是道德施动者。卢西亚诺·弗洛里迪(Luciano Floridi)将这一要义表述为:“道德主体指称一类实体,这类实体原则上有资格成为道德行为的来源和发起者。”[5]此外,道德主体的标准概念还应涵盖以下内容,即 “道德主体是指那些被期望满足道德要求的主体”“道德主体是指具备责任归咎资格的行为人”[1]22。综合以上表述,道德主体实质上是一个规范性的概念,它是主体范畴内的一种特殊的类别,这类道德主体是道德行为的来源和发起者;应受一定道德标准和要求的约束,承担一定的道德责任和义务;并能对其进行道德评价和道德责任的归咎。
以上道德主体概念包含着3个构成道德主体的必要性条件,而这些条件又都与意识直接相关。首先,道德主体要能够发起道德行为,而一个行为是否可以被称之为道德行为,这不仅在于该行为是否具有道德意义,是否可以对之进行善恶的道德评价,还在于该行为是否是在有意识和自由意志的状态下发生的。这就意味着道德行为不仅强调行为与他人或社会的伦理相关性,而且还强调行为人要具备有意识的精神状态。其次,应受一定道德标准和要求的约束,承担一定的道德责任和义务。这一提法的前提是主体要有能力这样做,而且期望其这样做。这不仅要求主体要有自由意志,而且要求主体要有一定的道德推理能力。这种能力或多或少会通过教育、自我反省和社会性人际互动得到发展。埃纳尔·希玛(Einar Himma)把道德推理所需的能力概括为以下几种:其一,主体对好坏、义务、正当、对错等道德概念要有最低限度的理解,主体要有形成和使用这些概念的能力;其二,主体要有掌握一些基本道德原则的能力,比如故意伤害无辜是不被容许的;其三,主体要有事实的鉴别能力,以确认哪些与道德原则相关,哪些无关乎这些原则;其四,主体要有将规则应用于构成规则含义的特定情境的能力。道德推理需要的这几种能力从不同的侧面反映了道德主体特有的道德意识活动,道德主体与非道德主体正是在这个问题上形成了明显的分野。我们不把诸如刚出生的婴儿、精神认知存在障碍的人等纳入道德主体的范畴,不用道德要求约束他们,也不追究他们的道德责任。之所以如此,不仅是出于自由意志的考虑,更是因为他们缺少作为道德主体必要的道德意识和相关的道德能力,他们不能在一定的道德意识的支配下做出道德推理,也不能确认其行为的道德性质,而决定这一切的恰恰是他们的意识状态和意识水平。最后,关于道德责任和义务的承担,最终是通过责任归咎,通过或褒或贬的道德评价予以实现的,而这也是以意识的存在为潜在的前提条件的。因为赞扬和奖励、谴责和惩罚的有效性和意义是建立在具有体验意识的基础之上的,就是说与赞扬和奖励相伴随的是骄傲或满足的体验,谴责和惩罚带来的是恐惧、自责或羞耻的体验,这些体验只有主体行为者能够感受到才有意义,而事实上只有有意识的主体才会有这种愉悦或不快的精神状态。因此,奖励或惩罚无意识的事物是不可能的。对此,埃纳尔·希玛就正确地指出:“作为实践理性的一个实质性的问题,称赞或谴责没有意识或精神状态的事物(无论它的计算能力有多么复杂)是没有意义的。”[1]24
由上可知,意识是道德主体潜在的一个必要条件。因此,如果我们不是在工具主义背景下,像传统那样只关注人类在使用人工智能系统或产品时的伦理问题,而是把人工智能体提高到同人类主体同等的道德主体的高度,进而关注人工智能体对人类的行为影响以及与人类互动的伦理性的话,就有必要对人工智能体的意识层面做进一步的考察。多年来,人工智能和认知科学界广泛讨论并阐述了一种心智信息观,该观念认为心智和意识的关键方面可以被定义和复制为计算系统,心智和意识也可以通过非生物性的其他介质予以实现。这一观点的支持者认为:“在解释为什么大脑是有意识的方面,一个功能正常的大脑包含在一个活的有机体中这一事实是无关紧要的。一个完全由运行类似软件的非有机材料构成的同构处理系统将是有意识的,不管它是否具有相当的生物活性特征。”[1]26这一观念实质上坚持或奉行的是功能主义的哲学框架,“该框架的核心原则是多重可实现性;即无论实例化计算的物理平台是什么,都可以得到相同的计算结果”[6]32。从这个角度来看,“如果操作系统在行为方式和对刺激的反应方面在功能上等价于人类并且展示出了与人类相关的行为特征,就没有必要去区分是生物还是非生物基质”[7]315。根据这个逻辑,非物质的信息优先于物质的身体,实体的身份最好被概念化为信息的,而不是身体的。正如鲍尔斯(Powers)所指出的,“就认知科学的功能主义和计算主义观点而言,只要计算机操作模拟或模仿人类的理性思维,计算机就可能成为或变为智能生物”[8]234。
从功能主义和计算主义的角度看,心智或意识的实现摆脱了对有机身体的依赖,实体身份的界定依据从生物性有机本体转化为信息。心智信息观试图通过这种方式为人工道德主体的可能性扫除本体论的障碍,因为人类作为根深蒂固的道德主体,其心智和意识深深地根植于人类的生物性有机本体,而现在心智和意识的实现似乎找到了一种可计算或功能性等价的多重路径。不仅如此,心智信息观还认为伦理学的核心被视为是认知或信息,认为道德思维本质上主要是认知的或智力的,而不是情感的。从这个角度来看,在道德主体问题上,人工智能体能够比人类表现出更合乎道德的可能性。苏林斯(Sullins)和贡克尔(Gunkel)不无乐观地展望道,“人类有机体是从一个生物性平台进化而来的,其推理的能力来自情感大脑。相比之下,人工智能目前是在一个逻辑平台上开发的,这表明在应对道德挑战方面,计算机可能比人脑有一些优势”[9]270,“因为它消除了所有可能导致反复无常和不公正决策的情感投资”[10]。总之,基于功能主义和计算主义的心智信息观认为,伦理的信息或理性方面可以扩展到人工智能系统,我们可以(至少在原则上)制造出人工道德主体,它们不仅在操作上是自治的,而且还具有伦理自治的特征。
人类心智和意识的认知、智力层面确实如心智信息观所言,可以通过计算或功能等价的方式予以呈现,但把认知或信息说成是伦理问题的核心,认为道德思维排斥情感,道德思维本质上是认知的或智力的,进而回避或绕过本体论问题为人工道德主体辩护是难以成立的。人类意识的丰富内涵远不止认知和智力,人类之所以能够成为道德主体,还与人类意识的其他特性密切相关,这些特性是目前人工智能体难以企及的,也是人工主体要成为道德主体面临的难题与挑战。
首先,人类的意识尤其是道德意识与人类的生物性有机本体是密不可分的,脱离这个本体就无法形成伦理情境,也就遑论涉及价值和意义的道德意识问题。诚然,认知和智力是人类意识的组成部分,然而道德意识显然与121的平方根是11、盐是钠和氯的化合物等知识性认知意识不同。道德意识与伦理问题的考虑有关,尤其与涉及好坏、善恶以及正当与否的价值判断密切相关,而这样一种价值判断总是相对于一定的主体的需要才是可能的,这也是为什么在道德主体问题上要追溯到生物性有机本体的原因,因为意识以及道德意识与有生命的生物性有机体的利益需要和生存方式是密不可分的。以生物中心主义为代表的有机本体论不仅认为生命系统是认知系统的生物性基础,精神属性深深植根于作为一个活着的生物有机体之中,而且认为道德意识与活着的生命本体及其存在需要是密切相关的。生物中心主义的代表马图拉纳(Maturana)和瓦雷拉(Varela)提出了有影响力的“自生理论”,该理论认为作为一个生物就是一个自我维持、自我再造的系统,无论是单细胞生物还是更复杂的生物,都是通过其内部成分与环境的适当交换,并在环境中进一步存在的。这其中就产生了环境对其保存生命和增强生命而言的意义问题,从这种意义和目的的认知和评价中才会衍生出相应的道德意识。因此,自生与意义的形成、目的论的概念密切相关,自生和自我维持是有机体意义和目的问题的来源和基础。正是在这种目的与意义的实现中才会衍生出伦理情境,才会衍生出对这种目的与意义的认知,衍生出相应的道德意识。对此,史蒂夫·托伦斯(Steve Torrance)就指出:“有机体对什么对有机体是好是坏的现象意识能力是这些生物价值判断的根源。这里的价值既包括相对于生物自身需要(自我参照)的价值,也包括认同其他生物的目标和需求的外在(他者参照)的价值。后一种价值为伦理学提供了一个原始的基础,它们通过人类在各种历史背景下所设计的知性的和文化的形式,已经成为明确的道德规范和准则。”[11]514由是观之,按照有机论的观点,道德领域只能或主要包含自我组织、自我维持的实体,只有相对于这些有机实体的生存目的和意义及其相互关系才会形成伦理情境和道德意识。有机论的启示意义在于,人类之所以能够成为道德主体,且具有道德意识,是与人类的生命本体和存在方式分不开的。对于作为道德主体的人类的意识的理解,不能仅仅从复杂的大脑组织和功能结构中就能直接推导出来,除了大脑这个生物性基质以外,要把这种意识放在人类的生物性有机本体及其特有的生存方式中加以理解。无独有偶,梅洛-庞蒂从现象学的角度用“身体—主体”概念来解释人的身心问题,极富洞见地指出人的意识、精神活动与人的身体及其生存世界之间的不可分割性。在“身体—主体”概念中,身体既是显现的主体又是显现的对象;既是存在着、经验着的主体,又是现象的身体、现象的场所。梅洛-庞蒂的“身体—主体”哲学坚持了身心合一的立场,这一立场不仅与生物性有机本体论是根本一致的,而且梅洛-庞蒂还进一步指明了人类的意识具有现象学的特性。其理论说明,作为道德主体的人类,其意识与其自身的生物性本体是分不开的,人的存在是一种特殊的现象学存在,人的有关认识论问题不能脱离本体论、存在论问题单独考虑。相应地,对于人的意识,尤其是人类特有的道德意识,应该被看作是现象学意识,生物性有机本体是人类现象学意识得以可能的现象学条件。对此,凯瑟琳·霍根(Katharyn Hogan)就一语中的地指出,“伦理问题是现象学问题,而不是单纯的理论问题”[6]36,现象学问题“不能独立于本体和存在问题之外。道德情境之所以呈现在我们面前,是因为生命以特定的方式存在,有特定的需求。我们不应忽视道德问题背后的现象学条件”[6]36。人工智能体与人类的起源和生存方式大不相同,人工智能体虽然能在认知和智力的层面对意识实现信息的转化,但它们缺乏人类意识的现象学条件,它们并不理解信息的伦理意义,其意义和目的是人赋予的。人工智能实体虽然具备某种类人的行为能力,但只要其是电子元件等非生物性基质,只要其还不具备自我组织、自我维持的自生能力,人工智能实体就不可能存在内在于自身的存在目的和意义,进而产生源自自身利益需要的道德要求和价值判断问题。由此可见,人工智能体功能性的认知和智力水平与人类的现象学意识之间横亘着一条本体论的鸿沟,人工智能如何去逾越这条鸿沟,如何解决信息的伦理意义和道德价值判断问题,是人工智能体要成为道德主体首先面临的难题和挑战。
其次,人工智能体通过信息的方式对心智和意识的呈现只是功能性的,这种功能性的意识是从外在于人工智能体的第三人称的视角予以观察的,其与作为人类内在精神状态的意识相比,缺乏可以自我反思或内省的第一人称视角,而后一视角对于道德主体来说却是至关重要的。人类的现象学意识与人类同时具有的、可以以功能性方式呈现的知识性认知意识不同,类似于万有引力、元素周期律等认知意识的对象是客观现象,客观现象有独立于表象的实在性,而现象意识反映的是主观现象,作为一种现象学现象,主观现象没有客观的本质。因此,现象学意识不能独立于某一特定主体而单独存在,现象学意识具有主观定性的特征。就此,托马斯·纳格尔(Nagel T)曾说:“从主观的角度来看,现象学意识只有意识者自身才是可接近的。意识是一种现象,它不能通过公开的方式被测量、观察或体验,因为它是个人的事情。”[12]纳格尔也曾在《做一只蝙蝠是什么感觉?》一文中用蝙蝠的思想实验说明现象学意识的主观定性特征。它旨在说明尽管我们可以解释蝙蝠声纳系统的功能,但作为旁观者我们却无法知晓像蝙蝠那样拥有声纳是什么感觉。因此,现象学意识的这种主观定性,只能从第一人称的角度而不能从第三人称的角度来把捉。这也就意味着既不能把基于生命本体的现象学意识简化为任何形式的机械或物理主义的过程,也不能通过计算或功能主义的方式模拟和实现这种意识。纳格尔就此指出:“主观性是经验的主观性。它没有被任何一种我们所熟悉的、最近设计出来的对心智的还原分析所捕捉,它不能用任何功能状态或意图状态的解释系统来分析,因为所有这些分析在逻辑上都与心智的缺失相关。”[12]由是观之,现象学意识第一人称的主观定性特征既是对人工智能的挑战,也是对人工智能实体能否成为道德主体的挑战。目前,我们还很难说人工智能体具有了精神层面的意识,正如史蒂夫·托伦斯所言:“精神活动是通过有意识的体验来完成的,如果没有至少将其带入有意识的第一人称意识的可能性,任何假定的心理过程都不能真正算作是一种本质上的真正的精神存在”[13]355。而且,对于一个道德主体来说拥有第一人称视角的意识又是必不可少的,因为拥有第一人称视角和想象他人的第一人称视角是道德主体应该具备的两种基本能力,像“己所不欲,勿施于人”等道德规则的体认和实现都需要借助这两种基本能力,这两种能力使我们在行动和决策上更加明智,而目前人工智能体并没有明显地具备这两种能力,从而具备相应的道德能力。R·纳特(Rajakishore Nath)和维尼特·萨胡(Vineet Sahu)就指出:“作为一个伦理主体,主观感受是必要的,‘我’是意识的中心问题,道德的存在依赖于主体。但是人工主体不同,他们缺乏主观性的道德意识。”[14]9目前各种各样的人工智能理论都尚未理解心智和意识的内在机制,如果人工智能理论不能解释也不能很好地实现意识的主观特征,那么人工智能体就不能成为道德主体。
最后,心智信息观秉持的道德思维排斥情感的观点是存在认识的误区和偏差的。人类的生物性构成决定了人类的现象学意识不是剔除了情感的、冷冰冰的认知或理性,在人类的现象学意识中,尤其是在道德意识中,情感扮演着重要的角色。道德情感主义的代表休谟指出,离开了情感,单纯的理性不足以成为任何意志的动机进而产生行为。在《道德原理探究》中,休谟肯定了情感在道德判断中的作用。斯洛特也从道德心理学的层面揭示:“我们先有道德态度,然后才有道德判断,而道德态度完全产生于道德认知者的移情反应。”[15]休谟和斯洛特对情感在道德意识中作用的辩护是在与理性相对的意义上做出的,而另外一种更为强烈的道德情感主义则认为在道德意识当中情感本身就是道德理性的一个组成部分。史蒂文·托伦斯就认为,在处理道德事务问题上,道德主体不像信息处理机制那样,以纯智力的方式做出理性的判断和决定,而是在对他人的经验状态进行一种移情式的理性思考的基础上做出的一种决断,这种思考至少在一定程度上是道德意识的组成部分。托伦斯把这种理性的概念称为移情理性,并认为移情理性对于纯粹意义上的道德行为至关重要,与纯粹的认知理性或智力理性相比,除了认知因素外,这种移情理性包含强烈的情感因素。他说:“的确,我们可以说,道德主体要求一个人的感性以某种方式进入他的理性的核心,它是理性的一种形式,它包含了对他人的经验状态进行情感或移情认同的能力。这种移情认同作为主体道德思考的一个组成部分,对主体来说是不可缺少的。可以说,确实,这是一种理性,与感知特定情感的能力紧密相连。”[11]510在国内,也有学者认为情感是人类道德意识当中理性的部分,并将之称为“情感理性”,把“情感理性”界定为“一种推理能力,即通过情感反应从某些事实前提推出规范性判断或价值判断的能力,也可以界定为规范性或应当性的来源之一”[16]。这即是说:道德意识是复合的,情感理性作为人类理性规范性的来源之一,同认知理性和实践理性一道,共同构成道德的理性规范。总之,无论采取以上哪种立场,情感都是人类现象学意识的组成部分,并在伦理生活中发挥着重要的作用,这也是人类之所以能够成为道德主体的原因之一。反观目前的人工智能体,它们不仅缺少情感,而且人类现象学意识当中移情的、共情的元素更是目前缺乏知觉的人工智能体所难以企及的。
当前人工智能技术迅猛发展,在人工神经网络研究的基础上,人工智能体已经具备了“深度学习”“自主进化”等能力,并展示出一系列的类人的行为特征,人工智能体越是具备行动的主体性特征,关于它们自身的道德地位问题就愈发显得紧迫。但从前文的分析来看,目前的人工智能体尚不能成为完全意义上的道德主体,其关键性的障碍在于人工智能体还没有达到道德主体所应具备的意识条件。目前的人工智能体能够对意识当中的认知或智力的部分进行功能等价式的复制与模拟,但是意识是一个复合领域,除了认知性意识以外,现象学意识也是意识的重要组成部分,对于一个道德主体来说,这两部分应被视为同等重要和相辅相成的。而目前人工智能体并不具备现象学意识,它们没有意识第一人称视角的主观定性特征,就人工情感技术的发展来看,其进展也是微乎其微,这些与它们缺乏生命特征和生物性本体基础息息相关。托伦斯就说:“直到找到一种方法来生成自主的、自我组织和自我维护的人工存在物,否则就不会产生有真正的道德要求和自主性行动的人工主体,这是一个完整的道德意义上的主体的先决条件。”[13]515总之,人工智能技术虽然取得了长足的进步,但人工智能体要成为道德主体,依然面临着难以逾越的本体论难题,存在着现象学意识缺乏的障碍。目前的人工智能体不能解决信息的伦理意义问题,不能解决道德领域最为核心的价值判断问题,不能理解自身行为的道德意义。有鉴于此,人工智能体还不能成为一个道德责任的主体,而且就其意识状态而言,对其进行道德责任归咎既不可能也无意义。因此,目前的人工智能体尚不是能够实现伦理自治的主体,以人工智能体为代表的人工主体并不能成为与人类相等同的道德主体。我们应该将人工智能的伦理研究视为技术伦理的一种特殊应用研究领域,对于智能化、自主性的人工智能体的道德规制,也应该将着眼点更多地放在对研发者、使用者和受用者等主体责任的关注上。