□潘斌
人工智能是科技进步的必然产物,虽然我们还不能说已经进入了人工智能时代,但它的强势兴起正在深刻地影响与塑造着人类社会的方方面面,甚至在重新刻画与改写人类文明进程。当人工智能在给现代社会定向与赋能之际,也在不断制造风险与危机,其中人工智能是否需要遵守道德准则以及如何为其装载何种道德准则就构成了当前人工智能道德审度的核心问题。
人工智能(artificial intelligence)简称AI,是研究、开发用于模拟、延展与增强人类智能的理论,它既是对以人的智能为对象的理论考察与方法研究,也指将这一理论认知转变为实际应用的科学实践。关于人工智能的定义非常之多,维基百科形成了一个相对普遍且被认可的定义,即人工智能( AI)是展示智能的机器。在计算机科学领域,一台理想的“智能”机器应该是一个随机应变且以最大限度实现其目标为目的的理性中介。
传统的人工智能研究认为,AI的发展通常可描述为两个阶段,第一个阶段是“弱人工智能”阶段,即机器能像人一样理性地思考与行动。初级AI设计的目的是将其作为人类身体的人工延展与人类智能的技术深化,这一基于工具主义理念的智能体建构路径无疑是哲学理性主义、科技万能主义与经济实用主义的具体运用与现实展开。从扫地机器人、机械生产手臂到深海潜水机器人、极地探险机器人等,作为弱人工智能的终端产物执行着人类设计的程序与发布的指令或代码。但弱人工智能满足不了人类智能延展的需求,亦不符合技术迭代的增长趋势,从“弱人工智能”向“强人工智能”的转向是人工智能发展的必然路径。“强人工智能”主张机器能和人一样理性地思考与行动,能和人类一样进行思维推理与解决问题,它克服了对人类智能的模拟与追赶,变得与人类智能一样,能完成以往人类所不愿或不能完成的任务。在技术层面,强人工智能已不是通过对弱人工智能的简单叠加与规模扩充而实现的功能强化,它更是从“拟人化”向“类人化”的升级,也即是说使机器获得与人类同等心智水平的思维方式与行动能力。目前强人工智能产品并未出现,即便是战胜了围棋大师的机器人阿尔法狗(AlphaGo)也属于弱人工智能范畴。
然而,自人工智能产生以来尤其是AlphaGo在人机对弈中的胜利,导致人类对人工智能的未来走向与风险效应极度忧虑,一方面人工智能可能是人类文明进程中的又一次“哥白尼革命”,它以前所未有的科技变革产生了极为先进的物质产品与技术进步,但另一方面人工智能又具有“双刃剑”效应,科技的自反性力量使其成为人类进步的重大隐患甚至灾难,正如著名风险社会学家乌尔里希·贝克所言:“生活在现代社会就是生活在现代文明的火山口,现代科技宛如达摩克利斯之剑高悬于人们头顶而面临着随时坠落的风险。”[1]我们对人工智能的忧虑不在于其心智水平是否和人类一样发达,而是担忧它迟早会超越人类智能并可能替代人类智能,人类这一物种将沦为机器的玩物或奴仆甚至被其消灭。库兹韦尔在《奇点临近》中就大声疾呼,人类终将进入一个独特的“奇点时刻”,当人工智能跨越了这一临界点之后将以成百上千倍的速度与效能超越人类智能,这便是超人工智能(super intelligence)的来临。它突破了传统的弱人工智能与强人工智能二分范式,具有人类思维的抽象性、复杂性与进化性,但它又是在速度与能力方面远胜人类心智水平的超级思维。强人工智能或超人工智能是否会到来这已是当代人类所不能回答的未来问题,人工智能概念本身即是从人类中心主义立场出发对机器的拟人化建构,而超级智能则是从“拟人化”向“类人化”进而转向“超人化”的可能路径。
现阶段人工智能已成为社会热点与时代主题,甚至在一定意义上说人工智能正在创造历史或改写未来。我们深入到这一热点议题与流行话语的背后,不难发现,当下对人工智能所形成的多元立场本质上是对人工智能问题的阐释视角与理解方式的差异所致。通常认为存在着两种理解人工智能的立场:第一种,从实在论立场上阐释人工智能,即人工智能就是客观实在的感性现实,它不仅存在于物理世界与感性活动这类显而易见的客观存在物之上,而且包括集成系统、智能程序、高级思维与人工情感等都是人工智能的存在形态。正如怀特在《分析的时代》中的分析,实在具有两种形式:“一种是常识的形式,即诸如太阳和星星这样一切外在的物理对象不依赖于心灵而存在;另一种是柏拉图式的存在论,即认为存在着既不依赖于个人的心灵,又不同于物理对象的绝对理念或共相。”[2]当我们在实在论立场上谈论人工智能之时,它有三层意涵:(1)人工智能不是我们可以喜欢或拒绝的选项,它的存在与来临是现代社会必然的历史境遇;(2)人工智能虽然延展与增强了人类智能,但不是对人类智能的简单叠加或人工延伸,它有着自我独特的本质属性与结构功能,甚至人类智能可能无法理解或控制人工智能;(3)人工智能是自启蒙以来科技理性发展的必然产物,其能动性与自反性并存的二重特质使其“双刃剑”效应彰显无遗。
如果仅从实在论立场研究人工智能,那它尚不足以成为理论热点与社会焦点,这需要引入建构论立场来阐释人工智能及其风险效应。建构论作为一种致思取向,坚持外部实体是主体能动创造的结果,主体及其相关的理论认知和社会实践都是客观实体的基础。社会建构论“虽有不同形式,但一个共性的观点是,某些领域的知识是我们的社会实践和社会制度的产物,或者相关的社会群体互动和协商的结果。温和的社会建构主义观点坚持社会要素形成了世界的解释;激进的社会建构主义则认为,世界或它的某些重要部分,在某种程度上是理论、实践和制度的建构”[3]。人工智能被建构成两种截然不同的理论效应,一种是激进的技术万能主义立场,认为人工智能的来临尤其是强人工智能的来临可以弥补现阶段人类智能所不及或所不能的诸种缺陷;另外一种是悲观的人文主义衰亡论,即人工智能的强势崛起将消灭人文主义,未来世界为智能机器所统治与支配,人类沦为智能机器的“宠物”甚或被消亡。建构论立场阐释人工智能既不是要虚化或取消人工智能的客观实在性,也不是要有意渲染或过度阐释人工智能的风险性,而是基于人类智能的深度创新与人类持续发展而进行的辩证考量,目的是从多维视角呈现人工智能研究的多元形态。
人工智能的出现是不可逃避的生存际遇与未来命运,我们究竟应该如何看待人工智能体?这一问题的实质正是著名心灵哲学家约翰·塞尔(John Searle)为其框定的机器与心灵关系之辩的三个连续之问,即:机器能否具有人类思维?如果机器有人类思维,那么我们如何向机器装载或置入人类思维?如果机器已经被装载了人类思维,又如何证明机器具有人类思维的能力?塞尔批评了著名的“图灵测试”,该实验解决的核心问题是:机器能否具有类似人类的思维?图灵设置了一个“询问者-回答者”模式,询问者居于密封环境之中而无法知晓外界的回答者究竟是机器还是人。询问者按常规模式提问,而回答者给予的答案使问询者认为这是机器在作答。一旦改变提问程序与方式,则询问者不能准确断定回答者是机器还是人。如果机器的回答中有百分之三十的答复成功地欺骗了询问者而使其认为回答者是人,那么我们就可以说机器具有人类思维,而图灵测试的结果证明了机器成功地欺骗了询问者而通过了测试,据此可以宣称机器具有人类思维。
“图灵测试”一方面是计算科学进入人类认知领域的转型突破,被誉为人工智能领域的奠基性探索,但另一方面也招致后世诸多批评与质疑,塞尔的“中文屋”实验提出了极具挑战性的反驳。“中文屋”实验基本程序如下:假定在一密封屋子内有一回答者,他虽能熟练使用英文,但对中文基本不懂,但有一部汉英词典和一部他可理解与掌握的语法书,屋外的提问者将用汉语写的卡片通过窗口递给屋内的回答者,回答者在不懂汉语的情况下借助词典与语法书能翻译这些文字并用简单的中文字符回复。塞尔由此认为,通过这一特定程序房间里面的人完全可以让房间外面的人以为他会熟练地使用中文,但实际情形恰恰相反。这一实验证明了虽然通过程序设计能使机器完成人类的任务,但也不能说机器就理解了任务本身,更不能证明机器就具有人类心灵,其根本原因在于机器缺乏人脑这一关键基础。
这两个前后相继而对照强烈的思想实验正是人类对机器能否具有思维的认知探索与心智历险,在这一尚未决出胜负的纷争背后潜藏着更为实质性的哲学追问,即强人工智能或超级机器人能否成为主体。机器成为主体的前提是首先要成为实体,成为主体之前首先要成为实体是对黑格尔著名命题“实体即是主体”的时代回应。在黑格尔那里实体内在蕴含着自我展开、自我建构与自我扬弃的能动性,它能独立地建构作为自我对立面的他者,又能在克服与超越他者的过程中回复到自我本身。之所以具有这种否定性的生成能力,其与作为黑格尔哲学“生长点”的哲学基本原则“实体即是主体”密切相关。在《精神现象学》的《序言》中,黑格尔说,“一切的关键在于,不仅把真相理解和表述为一个实体,而且同样也理解和表述为一个主体。”[4]“实体即主体”尝试解决自笛卡尔以来,尤其是在康德哲学中所突显的主客二分问题,这一原则的根本意义在于以典型的观念论方式解决主客同一性的认知难题,而在人工智能的哲学境域中这一对立表现为人工智能能否既成为客观实体又成为智能主体。
对前者而言,人工智能早已成为客观世界的实体形式,因为它既是人类文明制造的产物与结果,同时人类又以其为中介与工具去认知与改造现存世界,在对象化的人类实践活动之中人工智能已成为重要且必需的实践形态。对后者而言,人工智能能否成为实践主体才是问题的根源与症结所在。传统观点认为只有人才能成为主体并认识与改造对象世界,即使高级工具或机器人也不过是人类延长的手臂或中介而已。如此一来高度智能化的机器人无论如何也不能成为实践主体,这必然导致人工智能面临着两难的道德责任困境:一方面,因为预设人工智能没有类似人类的自由意志,也不能成为道德主体,那么它就无须担负道德责任。进言之,如果人工智能无须担负道德责任,是否它就可以任意妄为甚至伤害人类?另一方面,如果我们需要人工智能担负起道德责任,那么我们必须承认其实践主体的地位,认可其成为道德主体的权利资格。这即意味承认机器具有心灵,人工智能具有人类思维。但还存在着第三条道路,即既否定智能机器的道德主体地位又为其强制性地嵌入道德程序,而人类则承担起机器的“道德监护人”角色。著名信息哲学家弗洛里迪(Luciano Floridi)指出:“为机器制定一套伦理无异于白日梦,更为负责任的策略是在智能机器内部嵌入一定的安全措施,同时在机器自动操作时,人可以作为‘共同决策人’发挥监管作用。”[5]嵌入式道德是将智能机器的程序设计与道德植入结合起来,要求技术性的架构不能完全是价值无涉或道德无关,一旦机器面临着道德两难选择困境时必须有合乎伦理的价值引导,避免机器做出损害人类整体利益的行为。
为机器嵌入道德准则的前提是需要重审人工智能的道德主体资格问题。何谓“道德主体”?狭义层面而言,“道德主体(moral agent)”的法律术语可译为“道德代理人”,即能够具有主观判断且能够承担法律责任的人,显然智能机器不能成为道德主体。广义层面而言,“道德主体指的是具有自我意识,能够进行道德认知、能够进行推理并形成自我判断、能够进行道德选择与实施道德行为且承担道德责任的道德行为体。”[6]也即是说是否成为人类不是判断能否成为道德主体的关键凭据,经过“合乎伦理设计”的智能机器也有资格成为道德主体。人工智能专家维贝克(Peter Paul Verbeek)就提出了“道德物化”(materialization of morality)的观点。所谓“道德物化”指的是抽象的道德理念通过恰当的设计,并在人工物的结构和功能中得以体现,从而对人的行为产生道德意义上的引导和规范作用。按照弗洛里迪与桑德斯(Sanders)的观点,人工道德主体应该具有交互性(interactivity)、自主性(autonomy)与适应性(adaptability)的特征。假定对于所有x而言,x是一个道德主体,当且仅当x具有以下内容属性:“第一,x及其环境能够相互作用(交互性)属性;第二,x能够在没有与外部世界交互刺激的情况下改变其状态(自主性) ;第三,x能够改变其转换规则属性(适应性);第四,x能够起作用,例如道德上对世界的重大影响。”[7]智能机器只要具有上述属性就可称之为人工道德主体,承担道德责任的机器只能在道德准则与伦理义务的范围之内行事,严重的失范、越界与违规行为将损害或剥夺机器原本享有的主体资格与权利,智能机器担负道德责任实际上是认可“道德智能体”具有与人类相同的道德权利与义务。赋予智能机器道德主体的资格是人类所不情愿或所不期待的事情,毕竟一个与人类完全不同的机体居然要与人类共享相同的情感意志、思维方式甚至价值观是令人匪夷所思或难以接受的事情,但人工智能的强势来临与智能机器的超级能力使我们必须认真思考与辩证理解。单纯地否定或彻底地拒绝人工智能既不能阻碍其发展也不会使人类文明更加美好,只有提前干预与积极介入才可能预防人工智能自身的功能翻转与属性异化,为智能机器提前嵌入道德准则是研发人工智能的必然选项。
面对人工智能的迭代性发展与颠覆性后果,人类既不能拒绝或阻止其发展,同样亦不能置之不理,一个缺乏伦理约束与道德制衡的智能系统将给人类文明带来灭顶之灾。审慎合理的态度是为人工智能的研发设定基本的道德准则与伦理底线,在机器人设计之初就提前植入应有的道德准则,当其面临道德难题之际,机器人将自动根据这一被嵌入的法则行事,必要时又能进行人为干预和矫正。目前而言,道德嵌入是规范智能机器行为的最佳方案,那么人类应该为智能机器赋予何种道德准则?
早期人机关系最著名的阐释是阿西莫夫在为其科幻小说《我,机器人》中所指出的,“第一定律:机器人不得伤害人类个体,或者目睹人类个体遭受危险而袖手不管;第二定律:机器人必须服从人给予它的命令,当该命令与第一定律相冲突时除外;第三定律:机器人在不违反第一、二定律的情况下要尽可能保护自己的生存。”[8]除此之外,他又增加了作为三大定律之根的第零定律:“机器人必须保护人类整体利益不受伤害 ”。第零定律的执行顺序排在三大定律之前,整体呈现一个词典式的优先顺序。阿西莫夫为机器人所制定的这一道德律令被要求写入机器人开发设计的底层软件,虽然是道德式律令但必须被无条件执行。细究起来,它呈现两种理解意义:一方面,这一道德律令看似要求机器人无条件地服从与保护人类,实则为机器人张目,原本只归人类所独有的道德主体资格现在被赋予给机器人,相应地人类也必须承认与保护机器人的主体权利。但另一方面,这一道德律令又毫无实效,根本原因有二:一是其基于义务论的伦理框架而缺乏有力的道德约束性,程序员在设计程序时完全可以忽视或篡改程序而为己所用;二是这一道德律令是基质沙文主义立场,它要求机器人必要时牺牲自我甚至整个物种来保护人类,这是典型的人类中心主义进路,即认为人类这一碳基文明从根本上优越于智能机器人这一硅基文明。但超级人工智能来临之际智能机器人未必会尊重这一规则,“弱肉强食,适者生存”的丛林法则既然成就了人类的进化优势,那么同样“能力至上”又会成为人机博弈的通行法则。
回溯“机器人”这一语词的概念起源就会发现这是一个既内蕴着道德悖论而又充满张力的词汇,机器人(robot)一词最初是在1920年由约瑟夫(Josef)和卡雷尔·恰佩克(Karel Capek)从捷克语“强迫劳动”(robota)一词创造出来的,意指苦工或奴隶[9]41。这一意指被转喻为“机器人”是人类心智的延展与能力的增强,但创造这一高级智能的目的是将其变为人类可资利用的工具与可以驱使的奴仆。基于幼稚的人类中心主义立场驱使机器人甚或将其作为奴仆是人类对机器的不道德行为,将机器人视为奴隶则将使人类重返蓄奴制本身固有的道德难题。著名“人造良知”机器人之父、佐治亚理工大学机器人专家罗纳德·阿尔金(Ronald Arkin)认为,“接受机器人成为仆人是在重新恢复奴隶制,从而使其在已经正式废止奴隶制的社会中又成为可行的选择,而且可能使人类奴隶制重新合法化或导致人类的懒惰。”[9]41-42如此一来,究竟是人类奴役机器还是机器奴役人类都面临着二难的道德困境,人工智能研发不得不面临着道德准则的嵌入问题,即在承认人工智能也具有道德主体地位的前提下,当我们为机器人设计智能化程序时应该提前将道德准则嵌入其中。
为智能机器嵌入道德,道德准则本身承担的角色可区分为三种不同的功能情境:第一,作为监督者的道德准则。如果机器人始终在法律制度与规则划定的范围之类有序运行,那么道德原则只是发挥监视、督导的功能,人类也不能以监督者的角色而自居优越感,人类所发生因违反道德准则而伤害机器人的行为亦当受罚。第二,作为矫正者的道德准则。道德准则嵌入到技术性程序之中随时对可能发生的失范行为进行矫正调节。如果机器人发生越界行为,道德准则必须采取行动进行即时矫正以避免更大损失发生;若机器人对此行为纵容任之,则道德准则能强制停止机器人的程序运行,以此来减少更大危害。第三,作为施事者的道德准则。施事者是语法学概念,指出现于谓词前面的主语,担负的是行动发动者、执行者的角色。与之相对应的角色是受事者,即置于谓词之后的宾语,充当的是被执行、被赋予的角色定位。道德准则作为施事者是直接进入与改造对象,使机器本身实现智能与道德的双重赋能。道德准则超越主客观对立的二元论立场而介入与参与到行动过程之中,将智能计算本身塑造为“可信任的计算”“负责任的智能”,这一切近具身认知进路的情境主义立场日益受到人工智能研究专家的重视与采纳。
为智能机器嵌入道德的目的是构造一台可信任、负责任与守规则的智能机器,但道德嵌入的实现路径是程序设计,这取决于三个关键议题:第一,程序员本人遵守何种道德观或者说他所遵循的工程伦理是什么?第二,被嵌入的道德准则本身是什么?第三,如果无法制定一个整全而统一的普遍法则,当不同的智能机器在面临道德冲突时如何实现道德妥协?这三重道德难题的不断彰显与反复纠缠实际上反映出人类智能对于人工智能的思维探索与道德认知,试图在两者之间寻求道德张力。
就第一个问题而言,程序员作为智能机器的设计者对智能机器的道德塑造与价值养成发挥着重要作用,也即是说程序员自身的道德立场影响着其行动的后果。这一思想源于亚里士多德美德伦理学所主张的德行是道德与行动的统一的立场,一个品德高尚的人才可能做出符合德行的事情,主体自身的德性品质决定了实践行为的道德后果。作为程序设计主体的程序员,不能将程序设计本身视为价值无涉、道德无关的中性对象,程序设计本质上是与人类整体利益休戚相关并应为人类文明造福的行为,因而程序员自身的道德养成与伦理建设尤为重要。具体而言,保护隐私是程序伦理的首要原则。程序员基于自身的专业优势与技术特长而具有数据垄断的地位,但误用或滥用数据伤害了客户与公众的隐私权利。其次,公平正义是程序伦理的重要规范。大数据时代虽然存在“算法黑箱”“数字鸿沟”,但程序员在设计程序时应力求维护公平正义,不能为私利裹挟,否则将陷入韦伯对现代技术理性的悲观咏叹:“专家没有灵魂,纵欲者没有心肝,这个废物幻想它达到了前所未有的文明程度。”
就第二个问题而言,为机器嵌入何种道德准则考虑的是智能机器需要遵守的道德要求,这一问题关乎道德立场的选择难题。在面对常识性的道德抉择时,智能机器与人类一样都是基于特定环境与具体情境而做出具身化的道德认知,例如当人与动物都面临食物短缺的时候,是优先满足人类还是优先满足动物是极其容易做出有利于人类的道德判断,但在智能时代道德难题却层出不穷,例如无人驾驶是电车难题升级版,当一辆正常行进中的无人驾驶汽车面前有一辆失控的大货车逆向驶来,如果无人驾驶汽车继续前行则撞上货车而导致乘客伤亡,但如果为了避让货车而变道撞向行人也会导致无辜路人伤亡,这时无人驾驶汽车陷入了新的道德悖论:如果为了保护乘客而撞死路人则有谋杀之嫌,如果为了保护路人而与货车相撞则又伤及乘客,试想一辆连乘客生命都得不到保障的“舍身救人”式的汽车会有市场吗?同样,一辆“损人利己”式的汽车也不应允许上路。
智能机器面临类似道德难题时应如何抉择已不是机器所能解决的事情,尤以在超级人工智能来临、人机博弈的艰难时刻,完全将道德决定权交给智能机器来行使是人类既非情愿又不放心的事情。当我们给机器嵌入道德时发现,无论是阿西莫夫的“机器人三原则”,还是谷歌、微软等倡导的机器伦理,其基于义务论框架的内在缺陷都使其无力应对道德悖论,功利论过强的后果主义立场也使其往往落入效用至上、技术万能的窠臼。美德论强调行为者本身的德性对于实践活动善恶的决定作用,但人工智能时代德性本身与做出符合德性的行为二者之间不能等同,具备道德素质也不能保证智能机器就一定能做出符合道德的行为,这一归因于道德主体的德行自律进路显然是无法应对资本竞逐、利益搏杀与弱肉强食的残酷法则。为着人类文明的世代传承与整体利益的持续增进,必须将责任维度纳入智能机器的伦理之维。责任伦理(the ethics of responsibility )由汉斯·尤纳斯(Hans Jonas)提出,基本原则是“绝对不可拿整个人类的存在去冒险”[10]。这一“责任”伦理主张实践活动应该是指向未来可持续发展、重视包括自然生态圈在内的整体性权利以及关注未来不确定性的风险。智能机器亟需的道德准则就是责任原则,即在任何时候都应该将人类的整体利益与持续发展置于优先地位,这是应该嵌入任何智能机器的底线伦理。
如果第一个问题关注的是作为道德主体的人应该具备的道德品质,第二个问题考虑的是同样作为道德主体的机器应该遵守的道德准则,那么第三个问题则是当不同智能主体之间所遵循的道德准则不可避免地发生道德冲突时,道德妥协与道德共识如何达成。人作为有差异的道德主体能在大部分情境下达成妥协,但人机之间以及不同的智能机器之间如何形成道德共识与达成道德妥协则面临考验。人机之间的道德冲突源于人机博弈,弱人工智能时代无疑是智能机器驯服于人类智能之下,强人工智能则向人类智能发出挑战,道德妥协的程度与效果则依具体情境而各有差异。而到超级人工智能来临之际,所谓的赛博伦理、机器人伦理(the ethics of robot)、人工智能伦理都不过是人类中心主义单向度的一厢情愿而已。各智能机器之间能否达成道德共识,这分为两个层面:第一个层面是人工智能与人类智能尚处竞争共生阶段时,智能机器之间能否达成道德妥协取决于智能机器背后的资本逻辑之间博弈与较量的结果,利益主体的道德取向与伦理法则深刻地影响着智能机器的抉择;第二个层面是当强人工智能兴起并替代了人类之后,各智能体之间能否达成道德共识已成为一个“伪问题”,因为当人类文明形态逐步退场或消亡之际,再来讨论智能机器需要何种道德事实已经毫无意义。今日我们对人工智能的深度忧思并竭力为其嵌入合理的道德准则,正是希望能驯服或驾驭这个极具创造性与风险性的“赛维坦”,以期能在人机融合的未来世界中实现人类文明的发展创新。