郭延龙 汤书昆
(中国科学技术大学人文与社会科学学院)
古今中外的先哲们对类似技术物概念的道德自由主题进行了不同程度的思考。何谓道德自由?中国儒家孔子提出“从心所欲不逾矩”的道德自由,将自由规范成人的内在德性。朱熹讲道德自由称“德者,得也,行道而有得于心者也”,讲究知行合一的自由。在西方,道德自由分为两种观念,即行动自由和意志自由。托马斯·霍布斯(Thomas Hobbes)主张行动自由代替道德自由,用因果关系作为行动自由的必然内核,在因果关系内进行必然的自由行为,并且默认对其行为负责。而康德则用意志自由代替道德自由,解释道德责任的内外双重性规定性,强调道德自由与道德自律相伴而生,只有道德自律内化,才可以实现真正的道德自由。[1]黑格尔认为意志能力等价于自由,意志自由并不等同于自由,强调意志自由在法的框架内的进行。不难发现行动自由中的必然性和意志自由中的依法行事,成为道德自由本身的内在限制条件。
但笛卡尔(René Descartes)认为,人类把机械的身体和非实物的心灵结合为完美协调的整体,但类似机器的技术物永远不可能有道德意志,是人类赋予其道德意义。[2]49托马斯·霍布斯也认为,道德意志不过是有机体特定部分的运动,技术物仍然无法具备道德自由。直到今天仍有许多哲学家认为人脑中有某种特殊的东西,它给予人脑以道德意志和自由的能力,类似编程的硅芯片永远达不到这种能力。
随着脑机接口、生物芯片等一项项具体会聚技术的发展,技术物的道德自由问题再度进入哲学范畴的考察:重新思考技术物能否依靠物质结构“引向”自由意志的世界,重新审视笛卡尔认为的实物机器永远不可能有智能的特征,解释人类自由意志的概念被神秘地视为人类自由行动感觉之下的“某种东西”。[2]49-50本文主要聚焦在以下几个问题:技术物有道德主体自由吗?技术权利下技术物的道德自由指的是什么?物准则的生活世界中技术物的道德自由程度如何?
在讨论这个问题之前,笔者尝试将传统道德主体中人的维度降低到生物的维度审视。在地震等自然灾害中,救援犬是道德行为的代理人,被人类训练成救援失踪人口的行动者。人类从情感上对救援犬会表达感激,照此来看救援犬具有道德行为。但从狗的角度来看,它仅仅认为这是一种日常训练的游戏,不认为救人是一种道德行为。也许部分学者会认为人类训练救援犬本身进行的便是道德行为,人类才是道德行为的主体。问题在于救援犬在道德活动中成为代理人,是整个道德活动的执行者,起到了道德代理主体的作用,人类在过程中扮演的不是具体道德行为的执行者,而是道德活动解决的策划者。不可否认,该道德活动由人和代理人共同完成,缺一不可。换言之,假如救援犬没有完成道德行为,训练救援犬的人也不会受到社会道德谴责,救援人员也不应该承受这份责任谴责。施恶者是自然灾害,本身没有责任主体,倘若救援犬救出受害人是完成道德活动,社会将表扬救援人员和救援犬。没有道德责任仍然可以有道德代理关系,即使道德行为没有责任,只有义务和能力。[3]48-49因此,至少我们可以认为道德主体不是人类的专有属性,道德主体是实现道德活动的主要完成者,包括人和道德代理人。
道德主体是否具有生物属性?常规范畴内人是道德主体,技术物具有机械性和生物性。伦理学对道德价值中心的概念不断从狭义变为广义,从人类扩大到生物圈。[4]布莱恩·阿瑟(Brian Arthur)在其著作《技术的本质》中提到:“技术具备能使我们联想到生物的某些属性,当它们感知环境并产生反应,当它们变得可以自组装、自构成、自修复并能够‘认知’的时候,它们就越像生物了。技术越复杂、越‘高技术’,就越具有生物性。”[3]232[5]诺伯特·维纳(Norbert Wiener)提出的控制论观点中指出:“生物体的结构是一个可从中预期性能的表象,从理论上讲,如果我们能够制造一台机器,它的机械结构能够复制人类生理结构,那么,我们就可以有一台机器,它能复制人类的智力能力。”[6]2002年米格尔·尼科莱利斯(Miguel Nicolelis)实现了“意念控制”的动物实验,将一名叫贝拉的猴子脑中的一年活动通过脑机接口导入到机械臂,并控制机械臂的运动行为。随着基因组研究和纳米技术的发展,生物正在变成技术。与此同时,从技术进化的角度看,技术也正在变为生物。两者已经开始接近并纠缠在一起了。[3]225
当技术物的道德主体还原至生物层面是否仍未彻底?伴随技术哲学的伦理转向和道德主体概念的语义下行,无生命体的技术物被认为同样具有道德意蕴。技术物这些从起源上与自然物体迥异的物体似乎已经变成了自然物体。例如人们常常忽视人类赖以居住的建筑物,其密度将影响人们患抑郁症的程度。布鲁诺·拉图尔(Bruno Latour)通过赋予物质的人工物以道德属性来试图跨越人与非人实体之间的界限。如减速带、红绿灯、安全带等技术物,设计者赋予这些技术物以道德代理人的身份,通过物质框架层面调节道德活动,帮助使用者遵守交通规范及道德活动。学者们对道德主体的定义逐渐从人扩展到生命体甚至到无生命体。从德国古典哲学家康德的人作为理性道德主体,动物伦理学家彼得·辛格(Peter Singer)的动物同样具有道德地位,到环境伦理学之父霍尔姆斯·罗尔斯顿(Holmes Rolston)从内在价值判断道德主体,这些讨论认为道德行为体所承受道德责任的程度不同,对应着不同属性的道德主体,认为存在人、物、环境等不同道德主体。
诚如维贝克(P. P. Verbeek)的观点,一旦我们发现道德并不是人类特有事物时,物质“介入”关于主体的道德判断就不能被视为对“自由意志”的污染,而是道德的中介。被调节的行动不是无道德的而是道德在我们的技术文化中发现自己的重要场合。[7]48阿尔伯特·伯格曼(Albert Borgmann)在其著作《真实的美国伦理》中讲到,当物品或实践从参与的时间、地点中分离出来的时候,它就获得了道德的商品化,变成了一个不受约束的客体。[7]60诺伯特·维纳认为机器和人类一样,是一个通过它们自身部分与外部世界的相互作用而具有解释能力的物质实体。机器的工作部件是金属、塑料、硅和其他材料的“集合”,而人类的工作部件是精巧的小原子和分子。[8]13
随着人工智能技术的发展,技术现象学者开始从人的本体属性入手。既然能够承担责任的道德行为者可以成为道德主体,倘若技术物可以成为道德行为的承担者,是否可以认定为道德主体呢?拉图尔采用类似“语意上行”的方法将世界分为人与非人,以消解主客二元的强对称框架,用弱对称原则重新探讨道德主体,将技术物归类于非人属性中,甚至认定人工智能物具有类人属性,人与非人的界限随着人工智能技术的程度而发生变化。技术哲学荷兰学派阿特胡斯(Hans Archterhuis)和维贝克等人提出了“道德物化”的观点,认为技术人工物具备道德主体的属性,尝试探索技术物的“伦理转向”和“设计转向”。
然而,传统意义上讲道德主体自由是指道德主体在道德实践中根据自身意志或愿望作出道德选择的自由。[9]其中暗含了人是道德自由选择的主体,但随着人工智能学习技术物的发展,如计算机或智能机器人,在从事道德实践时,也会按照既定的程序预设或自主学习进行道德自主选择,传统道德自由的定义的解释存在一定的局限性。因此,道德主体不完全指代人,还存在道德代理人的可能性,如计算机或智能机器人等。诚如工程师大卫·比灵顿(David Billington)所讲,人们谈论技术时,他们通常指的是现代工程的产物:计算机、发电设备、汽车、核武器,而非兼具道德意义的技术。
与此同时,伴随计算机技术、基因技术、纳米技术、神经技术等会聚技术的发展,人类对道德主体的认识开始发生转变。认为道德主体不一定是道德实体,具有道德意向性和道德行为的技术物均可视为道德主体,智能机器人和智能软体等都具备该条件,同样可以称为道德主体。斯洛曼(Aaron Sloman)将机器纳入到道德主体的范畴,丹尼尔森(Peter Denielson)和霍尔(Josh Storrs hall)认为智能机器具备道德主体地位,福斯特(Heinz von Foerster)引入了“道德智能主体”概念,布瑞(Philip Brey)提出了“准道德主体”的概念[10],弗洛里迪(Luciano Floridi)和桑德斯(Sanders)直接将智能机器认定为道德主体[11]等。诸多学者尝试突破或拓展既有概念的固化现象,尝试性地给予新技术客观发展状态,以合理对话的空间,用其框架内类似道德主体自由的概念范畴,探索其道德自由的边界。
因此,笔者认为技术物的道德主体自由一定程度上成就了人的道德主体性,承担了人类在日常生活中低技术物的道德活动主体,成为人类道德活动的代理人。但随着技术物的更新迭代,道德代理人的主体性逐渐增强,技术程度越高代理人的道德自主性越强。如微波炉的发明把女性从厨房中解放出来,但同时也消解了一家人围绕厨房准备晚餐的幸福回忆,将道德价值转化为了经济价值,促使技术物商品化,消解了设计者既定的预设场景。但在“装置范式”的规则下将人的主体性解放出来,一定程度上脱离了持存者的角色,去从事更为复杂的道德活动,人与技术物共同成就了道德主体的自由现象。
玛吉·博登(Maggie Boden)认为人工智能技术物能够把人类从单调乏味的工作中解放出来,去追求更加人文性的活动。社会科学家巴蒂雅·弗里德曼(Batya Friedman)和皮特·卡恩(Peter Kahn)认为使用者把支持工具当成拐杖,用机器的输出代替自己的判断思考。例如医生通过仪器诊断病人时,某种情况下的生死抉择依靠机器的信息输出,技术权利削减了医生的自主性,医生遵从机器对患者做出的评估。此时,责任承担者是机器还是医生?机器的输出结果貌似直观可信,那么机器越会像人一样体现真正的道德智能,人们默认该技术拥有道德责任和技术权利。因此,人类赋予技术物的技术权利和道德责任,某种程度上与技术物的工具属性不匹配,人类甚至主动放弃道德责任,寄托于技术物身上,将道德责任和技术权利绑定在一起。亚里士多德反对在某种恰当的意义上认为人工物具有本质的观点,例如形式和物质真实之间的结合体方面。一个成熟的道德智能体是一个认识到不同观点会产生不同偏好分级的个体。这个不同的偏好可能无法以一个完全中立、独立于任何观点的方式得到解决。[2]52
另外,温德尔·拉瓦赫(Wendell Wallach)和科林·艾伦(Colin Allen)从自主性维度和敏感性维度,将技术物的道德分为两种,即“操作性道德”和“功能性道德”。处于维度低端的机器系统仅仅具有操作性道德,在设计者和使用者层面可以解决。当设计进程在充分考虑伦理价值的前提下进行时,“操作性道德”完全掌控在技术物设计者与使用者的手中。随着机器演变的复杂程度,一种“功能性道德”在技术上变得可能,它可以使机器自身有能力接近并相应的道德挑战。[3]12一方面,技术是自组织的。它可以通过某些简单规则自行聚集起来;另一方面,技术是组我创生的,通过这些来衡量技术本身。技术确实是有生命的,不过它们只是珊瑚礁意义上的有机体,其构建和繁衍还依然需要人类作为代理人。[3]210[5]但随着计算机和生命科学技术的发展,科学家研发出“生成式”的人-机接口,使用者通过全感官的方式参与其中,扩展操作性和功能性之间的道德边界。
笔者认为在技术现象哲学的“国度”里,技术物的道德意向性约等于经典哲学世界里的道德属性,技术现象哲学将经典哲学框架内的道德标准扩充到技术物的范畴内,采用语义下行的方式,削弱了人作为道德属性的专属权,扩展到非人领域的技术物中,以此换取人类在快速发展的技术世界的道德话语权。用技术物的道德自由约束技术物的行为规范,同时包括设计技术物的设计者和使用者。不能简单地认为技术物不具有道德权利,将其肆意扩张至人类不可控的视域,走向人类中心主义陷阱。另外,也不能夸大技术物的道德自由,绑架人类道德权利,走向技术中心主义陷阱。因此,技术物的道德活动建立在技术权利和道德自由的双重约束之下。
艾萨克·阿西莫夫(Isaac Asimov)针对机器人提出了三定律:第一,机器人不可以伤害人,或者因为不作为让任何人受到伤害;第二,机器人必须遵从人的指令,除非该指令与第一定律相冲突;第三,机器人必须保护自己的生存,条件是那样做不和第一、第二定律冲突。[2]1随后又补充了第四定律,即机器人不得伤害人类,或者因为不作为让人类受到伤害。虽然阿西莫夫在小说中这样描述,现阶段机器人技术还未发展至科幻电影中那般程度,但某种程度上也反映了真实世界的诉求,说明人类还是担心类似机器人这种高技术物威胁到人类的安全,才会使一部分伦理学家有所担忧。历史总是似曾相识,在摄影技术诞生初期,也曾存在摄影术能够摄取人的魂魄的说法,但随着摄影技术的快速发展,形形色色的摄影技术的产物进入人们的日常行为活动中。可见,技术科学家和哲学家们争议的点在于看待技术本身的角度不同,哲学家认为技术本身具有社会性,技术物的使用会影响人类的日常行为,而技术科学家认为技术属于物理结构和技术功能的范畴,在物质框架下进行的工具性活动。但双方均保留了沟通的空间,不断揭示它们隐含多元化的、生成性的潜在风险和价值承诺。
技术物的道德自由性长期受到二元框架下的质疑,但在后现代技术现象学讨论的范畴内,技术物的道德自由性建立在去中心化的框架下,消解了主体与客体强对称的现象,也消解了道德主体和道德客体的表述。用技术物的道德意向性来代替道德主体性,用人与非人来区分主体和客体,用弱对称性代替强对称性,试图突破语言学上意义建构的桎梏。据英国《快报》(Express)2019年2月18日最新报道,哥伦比亚大学的创造性机器实验室构造的机器人,出现自我修复意识的苗头。[12]另外,阿特拉斯机器人(Atlas robot)可以根据外部环境自主调整和修正自身数据,处理各种复杂的外部情况。[13]
因此,随着技术物的智能程度不同,技术权利的道德自由程度存在差异。人类可以控制弱技术物的行为方式,在经典技术哲学框架下,弱技术物不具备道德属性中的能动性,因此没有道德自由,仅仅在人的参与下助推道德活动。但在后现象学的框架内,强调弱技术物能动性中的“能”,从意向性的能力和趋势定义弱技术物具有道德意蕴,可以纳入道德自由的范畴内,用一种弱对称的关系将技术物纳入到道德自由可探讨的范围。双方均认同弱技术物也会塑造人的认知和行为方式,分歧在于对弱技术物道德自由程度的界定。高技术物的技术权利自由存在不可控的潜在风险,弱技术物的技术权利自由偏隐性状态,需要人的参与才能促发其技术权利的自由势能。
诚如摩尔定律所认为的那样,伴随着技术革命,社会影响增大,伦理问题也增加。因此,采用技术物的背后存在一种社会塑造的张力,改变人的品行和意识,甚至培养出一种前所未有的行为习惯,存在一种未知技术权利塑造下的技术社会景观。人类的自主性和对技术依赖之间有哲学的张力。正如信息技术基于逻辑延展性,基因技术基于生命延展性,纳米技术基于材料延展性,神经技术基于心灵延展性,这些被称为会聚技术(NBIC)的技术物拥有建造新物体、新环境甚至新思维的能力。[14]一步步突破既有框架的限制,在既有框限范围进行插件式的修复,无论外置式的“道德物化”,还是内置式的“道德中介”,都尝试将技术物的道德自由“修复”,完成现代化语境意义上的“道德自由”。
荷兰技术哲学家克洛斯(Peter Kroes)和梅耶斯(Anthonie Meijers)提出技术物的结构-功能的“二重性”,通过物理结构指向技术功能完成技术物的设计,用物质框架设计出非物质框架下的技术功能,帮助人类完成某些道德行为活动,如机器、家电、建筑等。在工程视角下设计的技术物,遵循技术物的弱准则自由,工程师或设计师给予弱技术物自由的限度,以替代人类的劳动活动,释放人类身体的部分自由。弱技术物凭借物质框架约束,同样起到强制性的道德约束,如道路隔石墩凭借其物质属性和强制性功能,成为强制性调节的道德产物。
另外,詹姆斯·穆尔(James Moor)将伦理智能体分了四个层次,第一层次为“伦理效果智能体”,技术物所显现的伦理意向性造成的伦理影响均可归为此类。第二层次为“隐含式伦理智能体”此类技术物设计者可以在技术设计方面保障其安全性,不存在负面的伦理影响。第三层次为“显现式伦理智能体”,此类可以通过内置程序进行伦理约束。第四层次为“完备伦理智能体”,此类技术物可以进行道德判断和道德决策。[2]26-27前两种智能技术物伦理层次处于弱准则自由的范围内,属于物质框架约束的智能技术物,后两种伦理层次属于强准则自由的范畴,对道德活动行为具有较强的约束力,技术物的设计和使用能够在物准则自由的既定范围内活动。
相对高技术物而言,弱技术物不具有独立意志,仅能在设计和编程的程序范围内实施行为。人类利用弱技术物进行不良道德行为,人工智能法律研究者刘宪权称此行为为“外患”。高技术物有能力在设计和编程的程序范围外,依靠自己的独立意志实施危害社会的行为,此情形称为“内忧”。[15]此时,通过弱技术物作为道德中介转译人类的道德活动,与弱技术物共同成为“持存者”的道德行动体,实现弱准则自由下的道德活动。
因此,笔者认为弱技术物中的道德价值逐渐替代道德自由。技术物弱准则中的自由消解了人与非人的强对称性,将技术物转化成非人的语境,参与到社会行动者网络中,并且弱准则的技术物名单不断扩大。技术物需要在特定的形式下为自己的道德行为负责,通过道德自由最大化体现其道德价值,缩小人类的道德责任。在技术物的弱准则世界中,没有哪个技术物对其他技术物负责,各自在各自的道德价值体系内行动,道德责任将被逐渐消解,转换为道德价值代替道德自由,成为物准则世界里道德自由的“货币”,人类暂时成为弱技术物的管理者,享受其带来便利的同时,也相应地承担着弱技术物的道德责任。
技术物强准则自由是针对高技术物的一种物准则。常规弱技术物在人的参与下形成第三重身份,即以“持存者”的角色助推道德自由活动。现阶段的认知中,离开人的弱技术物不存在道德自由的概念。但高技术物自身拥有独立思考和意识判断的能力,有可能超出康德因果道德律的约束,有很高的能动性和破坏能力,并且有无法约束的自由行动力,存在很大隐患,因此,对高技术物要实施强准则自由的约束。以智能机器人为例,通过“写入”道德程序的芯片,控制技术物的技术权利与行为自由。但高技术物的内部路径的道德“写入”仍然存在一定的风险。2007年10月福斯特-米勒公司将远程遥控装载机关枪机器人送至伊拉克战场。记者诺厄·沙赫特曼(Noah Shachtman)报道了在南非机器人加农炮杀死9名士兵,受伤14人的事件,经调查是机械故障造成,但也有不同看法。佐治亚理工学院计算机专家纳德·阿金(Ronald Arkin)2007年获得美国陆军资助,开始研发软件和硬件帮助作战机器人遵守战争的伦理准则。[2]16因此,高技术物的强准则自由仍需工程师和政策制定者买单,需有责任主体和建构性评估程序,参与高技术物的强准则自由框限权力制定。
但笔者认为科学家试图通过更高级的技术去解除由高技术物产生的焦虑,存在自相矛盾性,它引出了对技术的迷恋和自由技术引起的焦虑之间某种张力。这可能是因为未来学家通常都害怕技术会脱离人类控制,更可能是因为担忧这种技术会揭露人类自身的一些问题。[2]30技术集合通过采用或者丢弃某些技术,创造某些机会利基,以及揭示一些新现象来实现进化。[3]229技术的建构不仅来自已有技术的组合,还来自对自然现象的捕捉和利用。我们必须关注人类,特别是人类思维在这一组合过程中的巨大作用。新技术先是精神的建构,之后才是物质的建构。我们必须弄清楚技术怎样创造出技术,即新技术从已有技术整体中涌现出来。[3]18在单个弱技术物的层级上将物准则自由纳入其中,当单个弱技术物组合成高技术物时,控制单个弱技术物的弱准则自由,以缓解高技术物带来的强准则自由的“破功”风险。当然,试图用简单的数变消解质变的责任与风险,存在可探讨的空间。
正如温德尔·拉瓦赫和科林·艾伦在其著作《道德机器:如何让机器人明辨是非》中所讲的,“在构建道德决策机器方面,我们是依然沉浸在科幻世界里,或者更糟,打上那种时常伴随人工智能科学狂想的烙印吗?只要我们还在做着关于人工道德智能体(AMAs)时代的大胆预言,或者还在声称会走路、会说话的机器将取代目前作出道德指引的人类‘只是时间问题’,这样的指责就是合适的。”[2]4当我们否定技术物不具有道德自由时,某种程度上限制了类似人工智能技术的发展,被人工智能体无法为其行为负道德责任的伦理陷阱所局限。责任和道德不能够在司法体系混为一谈,人工智能体有足够的信息量、“智能”、自治,只是技术物道德自由程度和技术发展时间问题。相反,将技术物的道德自由概念纳入到新型伦理学范畴,更有利于新兴技术的快速发展,从技术产生就植入道德自由与责任,对趋同于人类的技术物发展更有利。