张 卫
随着人类社会智能化程度的日益加深,人工智能所引发的伦理问题逐渐增多,人工智能伦理研究成为当今学术界的一个热点话题。从学科归属上看,人工智能伦理属于技术伦理的分支领域,但由于人工智能技术的特殊性,相比于传统的技术伦理,人工智能伦理在研究领域、研究视角和研究方法上都具有自身鲜明的特征,原有的技术伦理研究架构已经不能完全涵盖人工智能伦理的研究格局,因此有必要对当今人工智能伦理的研究现状进行反思与总结。总体而言,人工智能伦理在继承传统技术伦理“外在主义”(externalism)进路的基础上,进一步凸显出新兴的“内在主义”(internalism)进路的研究特征,形成了“外在主义”和“内在主义”两种进路并行发展的研究格局。其中,“外在主义”进路主要关注的是人工智能的负面伦理价值,目标是用伦理来规约人工智能的发展;而“内在主义”进路则主要关注的是人工智能的正面伦理价值,目标是用人工智能来解决伦理问题。由于“外在主义”进路是技术伦理学的传统研究路径,目前依然在人工智能伦理研究领域处于主导地位,而“内在主义”则是近些年来才兴起的一种新进路,其影响力还不能与前者比肩,但它是未来人工智能伦理研究的一个新的理论生长点。
人工智能伦理的“外在主义”进路是受传统技术伦理学影响的结果,所以,欲理解“外在主义”进路的内涵,就需要对传统技术伦理学出现的背景和研究特点有所了解。从逻辑上讲,一个事物通常是从“上手”状态变为“在手”状态之时,人们才会对它进行关注与研究①[德]马丁·海德格尔:《存在与时间》,陈嘉映、王庆节译,北京:生活·读书·新知三联书店,2014 年,第78—84 页。,技术伦理学的出现正是根源于现代技术所造成的严重社会问题,所以,技术在伦理学中的出场一开始是以负面形象出现的。作为一门正式学科,技术伦理学出现通常可追溯到20 世纪六七十年代,由原子弹爆炸、工程事故和环境污染等由技术造成的严重社会问题所引发①王国豫:《技术伦理学必须机制化》,《社会科学报》2016 年8 月25 日,第5 版。。技术伦理学兴起的学术推动力量主要有两个,一是技术哲学的推动,二是应用伦理学的推动。首先,技术伦理学的兴起与“人文主义传统”的技术哲学密不可分,“人文主义传统”的技术哲学是从价值的角度对技术的社会影响进行批判性的审视,它与技术伦理学在研究对象、研究旨趣和研究方法上具有很强的一致性,为后者的诞生提供了强有力的理论铺垫。在技术哲学的“经验转向”与“伦理转向”的基础上,技术伦理学从技术哲学中逐渐分化出来,获得了相对独立的地位。其次,为了应对当今社会各个部门中存在的重大现实问题,伦理学研究中出现了“应用伦理学”研究范式,诸如核伦理学、经济伦理学、生态伦理学、科研伦理学、技术伦理学、工程伦理学、生命伦理学、信息伦理学等一大批分支领域纷纷出现,技术伦理学是应用伦理学众多研究领域中的一个分支②张卫:《论技术伦理学的内在研究进路》,《科学技术哲学研究》2012 年第6 期。。
相对而言,由技术哲学推动的技术伦理学研究是从“技术”到“伦理”,而由应用伦理学推动的技术伦理学研究是从“伦理”到“技术”,前者可视为对技术伦理学的“自下而上”式的发现,而后者则是对技术伦理学的“自上而下”式的发现,虽然出发点不同,但二者殊途同归,共同促成技术伦理学的出现。并且,两股推动力量虽然出发点不同,但对技术所采取的基本立场是一致的,即都对技术采取批判的立场,试图用伦理对技术的发展进行规约,把技术这头猛兽装进伦理的笼子里,这正是技术伦理学“外在主义”进路的题中之意。虽然人工智能不论在能动性还是自主性方面都具有传统技术所无法比拟的优势,人工智能伦理所关注的问题与传统技术伦理学也不尽相同,但人工智能伦理的出现主要仍是由人工智能所引发的社会伦理问题引发的,如社会失业担忧、侵犯人的隐私、算法偏见与歧视、对人身安全财产构成威胁以及技术失控等③周程、和鸿鹏:《人工智能带来的社会与伦理挑战》,《人民论坛》2018 年1 月。,所以,“外在主义”进路自然成为人工智能伦理的首选进路,并在当前的人工智能伦理研究中处于支配性的地位。
人工智能伦理的“外在主义”进路主要表现在对人工智能带来的价值冲突和未来风险进行批判性的反思,并通过建构恰当的伦理原则、标准和框架对之加以规约与管控,简言之,在对人工智能进行“伦理审度”的基础上对之进行“伦理调适”④段伟文:《人工智能时代的价值审度与伦理调适》,《中国人民大学学报》2017 年第6 期。。在“伦理审度”方面,当前学界关注的主要问题包括:第一,人工智能对人之性质的本体论挑战⑤韩水法:《人工智能时代的人文主义》,《中国社会科学》2019 年第6 期;另参见孙伟平:《关于人工智能的价值反思》,《哲学研究》2017 年第10 期。,第二,奇点来临导致的技术失控以及对人的超越与取代⑥李河:《从“代理”到“替代”的技术与正在“过时”的人类?》,《中国社会科学》2020 年第10 期。,第三,具体领域的伦理难题,如新“电车难题”、隐私侵犯、算法监控、算法偏见、算法杀熟、数字鸿沟、信息茧房等。在“伦理调适”方面,目前比较有影响的一些伦理原则包括:美国《人工智能原则:国防部应用人工智能伦理的若干建议》提出的“负责、公平、可追踪、可靠、可控”原则⑦Defense Innovation Board:AI Principles:Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense.https://media.defense.gov/2019/Oct/31/2002204458/-1/-1/0/DIB_AI_PRINCIPLES_PRIMARY_DOCUMENT.PDF.;欧盟《可信任人工智能伦理指南》提出的“尊重人类自主性、避免伤害、公平、可解释性”原则,具体表现为:“人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉和问责机制”⑧High-Level Expertgroup on Artificial Intelligence:Ethicsguidelines for Trustworthy AI.https://apo.org.au/sites/default/files/resource-files/2019-04/apo-nid244266.pdf.;中国《新一代人工智能治理原则:发展负责任的人工智能》提出的“友好和谐、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作和敏捷治理”原则⑨国家新一代人工智能治理专业委员会:《新一代人工智能治理原则:发展负责任的人工智能》,http://www.most.gov.cn/kjbgz/201906/t20190617_147107.htm。。
“外在主义”进路的人工智能伦理在打破人工智能的价值中性论偏见、启蒙公众发现和认识人工智能的负面社会后果方面起到了巨大的推动作用,提高了全社会对人工智能所引发的伦理问题的关注度。但是,“外在主义”进路的人工智能伦理在理论和实践中也暴露出一些自身无法克服的问题,具体表现在:第一,很难形成一种公认的、普遍有效的人工智能伦理治理原则,不同地区和国家的伦理原则之间甚至会发生冲突,这将会导致人工智能的实践者无所适从;第二,缺乏体制化的伦理约束机制,导致责任追究不能很好地实施。人工智能的治理是多主体、复杂性的系统工程,涉及设计者、监管者和使用者等多个利益相关者,很难把责任归于某一主体身上,仅靠技术研发人员个人的道德操守很难发挥伦理对人工智能的规约作用;第三,关注人工智能所产生的结果导致治理的相对滞后,等到问题出现之后再去进行治理,必然会造成失事前防御良机的错失;第四,过于强调人工智能的负面后果,会引起人工智能研发者的误解,使得人工智能的研发者对伦理产生一定的抵制情绪,从而影响人工智能伦理的实践有效性。
除了上述问题,“外在主义”进路的人工智能伦理还容易忽视这样一个事实:尽管人工智能的发展会带来新的伦理问题,但判断一个问题是否是伦理问题还受时代的伦理观念的制约。在不同的伦理观念中,同一个问题会呈现出不同的价值判断。比如在奴隶时代的伦理观念中,殉葬在当时贵族的伦理观念中会被认为是理所应当、天经地义的事情,而在当今伦理观念中,这是对奴隶生命权的严重践踏,是绝对不能容忍的反人道行为。同样,在环境伦理观念没有出现之前,对环境的肆意掠夺也不会被视为违背伦理的行为,所以,“在那些伦理一直被看作是义务伦理而不是权利伦理的社会或历史阶段,亦不能期待用个人的隐私权、自主权、没有出生的胎儿的生命权、人之外的其他动物的权利甚或没有生命的自然的权利来论证技术所带来的伦理问题。这些均说明了,从广义的层次看,伦理问题总是受到一定的文化与时间制约的。”①李文潮:《技术伦理面临的困境》,《自然辩证法研究》2005 年第11 期。按照同样的逻辑,随着伦理观念的变化,原来的伦理问题在新的伦理观念下将不再是伦理问题,如在试管婴儿技术刚出现之时,很多人都认为这里面存在着伦理问题,并对之加以反对,而随着时间的推移,试管婴儿技术逐渐被越来越多的人接受,其伦理争议也不再像以前那样强烈。那么,目前人工智能面临的一些伦理争议会不会也会随着时间的推移而消失呢?目前还不得而知。正如库恩所认为的那样,一个范式下的问题在另一个范式下可能根本不是问题或者是个伪问题。不同的伦理观念就好比是不同的范式,在一种伦理观念中是问题在另一个伦理观念中则不再是问题。因此,“外在主义”进路还需要反观自身的伦理前提是否恰当,反思它是否是落后于时代,是否是僵化和故步自封的。换言之,伦理观念要和人工智能同步协同进化,不能拿过时的伦理观念作为评判人工智能的圭臬,否则就会束缚人工智能的发展,给人工智能的发展设置人为的障碍。
为了克服“外在主义”进路的上述局限,技术伦理领域目前兴起了“内在主义”的研究进路并逐步渗透进人工智能伦理领域②Peter-Paul Verbeek,“Materializingmorality:Design Ethics and Technologicalmediation,”Science Technology and Human Values, Vol.31(2006),pp.361-380.。“内在主义”进路从基本理念到实现目标都与“外在主义”进路存在很大的差异:第一,在人与人工智能的关系上,“内在主义”主张人的能动性受到人工智能的居间调节,而“外在主义”则主张人具有完全自主的能动性。第二,在人工智能与伦理的关系上,“内在主义”主张利用人工智能对伦理问题进行治理,而“外在主义”则主张利用伦理对人工智能问题进行治理。第三,在对待人工智能的态度上,“内在主义”积极肯定人工智能的正面伦理价值,而“外在主义”则批判反思人工智能的负面伦理价值。第四,在人工智能的伦理地位上,“内在主义”主张人工智能具有一定的道德能动性,而“外在主义”则主张人工智能不具有道德能动性。第五,在伦理的任务上,“内在主义”主张伦理应该成为人工智能的内生要素,而“外在主义”则主张伦理应该外在地监督人工智能发展。第六,在关注的重点上,“内在主义”关注的是上游的人工智能设计环节,而“外在主义”则关注的是下游的人工智能应用环节。第七,在实现的目标上,“内在主义”主张发挥人工智能的积极伦理作用,而“外在主义”则主张限制人工智能的消极伦理后果。
根据上述基本理念,“内在主义”进路的人工智能伦理研究涉及的主要领域包括:
一是人工智能蕴含的积极伦理意义。从历史经验来看,许多伦理问题都是由于技术水平低下而引起的。由于技术水平低下,或导致资源供应不足,或导致某种伤害,不同的主体在争夺稀缺资源、避免伤害中就会产生冲突,伦理问题就产生于其中。如果资源变得相对不再稀缺,伤害不再那么多或没有伤害,那么伦理问题就可能相应地得到缓解甚至消除。如早期火车的发动机依靠的内燃机技术,动力来自于煤的燃烧,煤在燃烧的过程中难免会溅出一些火花,如果火花落到易燃的物质上就可能引起事故,历史上就因为这个原因发生过火车引燃铁路边农民堆放的农作物的事故,受到损失的农民把铁路公司告上了法庭,在法庭辩论中,法官争议的焦点是,铁路公司应不应该赔偿农民的损失。这一争议与落后的发动机技术是有关的,试想,如果火车动力技术改进了,内燃机车换成了高铁动车,就会杜绝此类事故的发生,关于此事故的伦理争议也就无从谈起。因此,人工智能技术的进步在某种程度可以化解一些由于技术落后所引发的伦理问题。但由于受“外在主义”进路的影响,以至于伦理学家一想到人工智能,下意识地就去思考它带来的社会问题,但是不应该忘记的是,人工智能还可以解决很多社会伦理问题,甚至一些非常棘手的社会伦理问题。因此,人工智能伦理还应该从积极的角度来审视人工智能给人类社会带来的正面价值,如促进人类解放和全面自由发展①成素梅:《智能革命与个人的全面发展》,《马克思主义与现实》2020 年第4 期。,有助于社会治理体系与治理能力的现代化,有助于社会公平正义的实现,有助于进一步消除性别不平等,有助于改善贫困地区的落后面貌,有助于提高边远地区的教育水平,等等。
二是人工智能的道德能动性与道德地位研究。随着人工智能技术的进步,人工智能表现出越来越强的道德能动性,而建立在原有实践水平、经验基础之上的伦理学观念可能容纳不了这些新现象,从而引发一些传统伦理原则无法应对的新问题,这就迫使人们对原有伦理原则的适用性进行反思,对原来的伦理观念进行调整,甚至重建新的伦理观念。在这方面,人们关注的核心问题是人工智能体是否具有能动性以及在什么意义上能够被视为道德主体或道德客体②闫坤如:《人工智能机器具有道德主体地位吗?》,《自然辩证法研究》2019 年第5 期。,该研究将会改变传统伦理学的基本前提,扩大道德共同体的范围,甚至会引起伦理学体系的重构。从伦理学发展史的角度看,传统伦理学是关于“人”的伦理学,其中没有“物”的位置,而人工智能所拥有的自主性和能动性却让人不得不考虑是否应该把它视为一种道德能动者,是否应该赋予它一定的伦理地位,这必将对传统伦理学的理论预设和体系架构构成挑战,从而进一步打破传统的人类中心主义伦理观,拓展伦理学的理论空间与解释力。当然,在隐喻的意义上把人工智能看作道德行动者是简单而容易的,而要真正地在学理层面把道德能动性赋予人工智能,并在伦理学体系中为其找到一个合适的位置,则是一件十分困难的事情。必须从基本预设的层面重新思考“能动性”“行动者”“道德共同体”“自由”“责任”等基本概念的含义、反思近代以来的主客二元论的局限、揭示技术与自由的内在联系、廓清价值和道德价值的关系、建立一种新的判断行动者的标准等一系列基础理论问题。当然,判断标准会因人而异,不同的学者根据人工智能的智能水平,赋予其不同的伦理地位,如詹姆斯·摩尔(James H.moor)曾把人工智能分为有伦理影响的能动者(ethical-impact agent)、隐性的伦理能动者(implicit ethical agent)、明显的伦理能动者(explicit ethical agent)、完全的伦理能动者(full ethical agent)四个类别③James H.moor,“The Nature,Importance,and Difficulty ofmachine Ethics,”IEEE Intelligent Systems, Vol321,No.4(2006),pp.18-21.,而温德尔·瓦拉赫(Wendell Wallach)和科林·艾伦(Colin Allen)则把人工智能的道德能动性区分为“操作性道德”(operationalmorality)、“功能性道德”(functionalmorality)和“完全的道德能动性”(fullmoral agency)三个层次①[美]温德尔·瓦拉赫、科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红主译,北京:北京大学出版社,2017 年,第6 页。。
三是人工智能的伦理设计与道德物化,其主要关注的是如何把伦理规范嵌入人工智能的算法中,并通过嵌有伦理规范的人工智能助推人类做出更好的伦理决策②张卫:《道德可以被物化吗?——维贝克“道德物化”思想评介》,《哲学动态》2013 年第3 期。。面对人工智能在实践中可能引发诸如隐私侵犯、算法偏见、信息茧房、不透明设计等伦理问题,一个重要的途径是在人工智能设计中嵌入伦理规范,让伦理规范成为人工智能设计的内生要素,实现“合乎伦理设计”,从而防范人工智能带来的道德风险。美国电气与电子工程师协会发布《合乎伦理设计:利用人工智能和自主系统优化人类福祉的愿景》,它作为该协会的框架性指导文件,目的在于指导与规范人工智能在设计上合乎道德标准,达到造福全人类的目的,避免算法偏见等潜在风险,从而实现“道德算法”的目标,即“那些在道德上可接受的算法或合乎伦理的算法,它们使自主系统的决策具有极高的可靠性和安全性。”③李伦、孙保学:《给人工智能一颗“良芯(良心)”——人工智能伦理研究的四个维度》,《教学与研究》2018 年第8 期。“合乎伦理设计”与当前技术伦理学研究领域中的“道德物化”(materializingmorality)思想密切相关。它是指通过恰当的技术设计,将抽象的道德理念体现在技术人工物的结构和功能之中,从而使技术人工物的使用对人的决策和行为产生道德意义上的引导和规范作用的过程。“道德物化”虽然主要关注的是物理空间的技术,但其理念可以拓展到人工智能领域,在智能算法中同样可以嵌入道德规范,让智能算法帮助人类做出更优的决策和助推人的行为向善。
从上述分析可知,“外在主义”进路是把伦理作为手段来治理人工智能所引发的负面后果,伦理是治理的手段,人工智能是治理的对象;而“内在主义”进路则是把人工智能作为手段来解决伦理难题,人工智能是治理的手段,伦理难题是治理的对象,二者的手段与目标恰好实现了互换。尽管如此,两种研究进路仍然存在着许多共性,它们拥有共同的学理基础,之间并非相互对立和排斥的关系,而是相互补充与嵌套的关系。
第一,二者具有相同的学理基础。不论是“外在主义”进路还是“内在主义”进路,它们首先面临的问题都是自身的合法性问题,如果不能对人工智能本身究竟有无伦理之问题做出一个肯定的回答,则人工智能伦理这一概念及由这一概念所代表的这门学科就不成立。因此,两种研究进路要想成立,其首要工作就是论证人工智能为何是负载伦理价值的,否则人工智能就无法成为伦理学的合法研究对象。如果同“技术中性论”所认为的那样,人工智能仅仅是一种价值中立的工具,其善恶属性完全取决于使用者的目的和使用方式,那么人工智能伦理就没有存在的必要。因此,尽管学界在技术与伦理的关系上存在着多种观点,如技术与伦理排斥论、技术与伦理无涉论和技术具有伦理价值等④王前:《技术伦理通论》,北京:中国人民大学出版社,2011 年,第23—25 页。,但人工智能伦理要想成立,必须旗帜鲜明地批驳技术工具论,打破技术是价值中立的论断,建立技术本身是负载(伦理)价值的立场,这是开展人工智能伦理研究的共同基础。
技术中性论是一种普遍流行的观念,目前在普通公众中有很大的市场。它的基本观点是,技术只是一种工具,其本身不负载价值,其价值属性取决于使用方式;其理由是,技术是一种纯粹的手段,它是一种普适性、客观性的因果法则,独立于任何价值体系之外,其运行与政治、文化、伦理等社会环境无关。换言之,在技术中性论这里,手段本身与使用目的是可以严格二分的,手段可以独立于任何目的,同时也可以应用于任何目的。技术中性论的思想根源深深扎根在近代的“价值中立论”之中。在近代自然科学兴起之时,伽利略等科学先驱倡导科学的价值中立是为了与神学信仰划清界限,为弱小的自然科学提供庇护之所,后来休谟提出“是与应当”的二分,则进一步强化了科学的价值中立性,而随着孔德、斯宾塞等实证主义的兴起,价值中立观念开始向社会科学渗透,最终在韦伯这里形成了明确的“价值中立”的方法论原则。
价值中立论在保护科学研究的客观性、自主性方面确实起到了积极作用,但由于其内在缺陷,也受到了诸多批评,尤其是当今由于技术化的加深而引发诸多社会伦理问题的时代,如果仍然坚持技术中性论,它就会成为技术研发人员推脱社会责任的借口,把责任推给技术的使用者,其危害不容忽视。如美国步枪协会就通过技术中性论来反驳禁枪人群的诉求,一些网络直播平台运营者宣称“技术无罪”为自己辩护的背后也是技术中性论的体现①张卫:《技术伦理学何以可能?》,《伦理学研究》2017 年第2 期。。实际上,对技术中性论的批判一直都是现代性批判、工具理性批判、生态批判等理论的题中之意,尤其是经典技术哲学家的理论,如海德格尔的“座架”理论、埃吕尔的“技术自主”理论、芒福德的“巨机器”理论、马尔库塞的“单向度”理论、哈贝马斯的“科技意识形态”理论、尤纳斯的“责任伦理”理论等都已经对技术中性论进行了深入的批判,这些理论对于认清技术中性论的片面性起了重要作用。
反驳“技术中性论”的要害在于打破“手段与目的二分”的谬误。任何工具的发明,都是以实现某种目的为前提的,没有无目的的技术发明。在这一点上,中国哲学关于人性论的争论可以给人一定的启发。告子认为,“性犹湍水也,决诸东方则东流,决诸西方则西流。人性之无分于善不善也,犹水之无分于东西也。”②杨伯峻:《孟子译注》,北京:中华书局,2008 年,第200 页。而孟子则认为,“水信无分于东西。无分于上下乎?人性之善也,犹水之就下也。”③杨伯峻:《孟子译注》,第200 页。告子的观点就如技术中性论的观点:一把刀可以用来杀人,也可以用来救人,因此刀本身是没有善恶的,而孟子的观点则相反:刀是可以杀人也可以救人,但“切割”是二者共同的属性,就如水不论是往东流还是往西流,都是往下流一样。从这个角度来看,即便刀的使用方式可以多种多样,但“切割”这种技术目的是刀这种技术手段本身就具有的。换言之,按照麦克卢汉“媒介即信息”的观点,“切割”就是刀这种媒介本身所具有的信息,它与刀这种形式是无法分割的。
第二,二者是相互补充的关系。任何事物都存在两面性,人工智能与伦理的关系也是如此,既然人工智能能够带来伦理问题,也能够解决伦理问题,应该采取辩证的视角,既采取“外在主义”进路对人工智能的负面伦理价值进行反思与规约,也采取“内在主义”进路对人工智能的积极伦理价值进行分析与利用,否则就会陷入片面的、绝对的形而上学思维的束缚之中,其结果要么是盲目地崇拜人工智能,从而走向极端的科学主义或科技万能论,要么是盲目的抵制人工智能,从而阻碍人工智能的创新和社会的发展。只有辩证地看待人工智能与伦理的关系,把“外在主义”和“内在主义”两种研究进路结合起来,对人工智能与伦理关系的认识才是完整的。因此,在人工智能与伦理的关系问题上,应该坚持一种双向互动的立场,既不能一味地死守过时的伦理原则,阻碍人工智能的进步,也不能完全不顾伦理原则,放任人工智能的随意发展,在人工智能发展与伦理原则之间保持一种动态的平衡。
二者的互补性还体现在“外在主义”进路和“内在主义”进路分别是人工智能伦理的底线和上线。科技伦理的指导原则分为消极的指导原则(如尊重原则和无害原则)和积极的指导原则(如客观性原则和增进公众福祉),前者是科技伦理的底线原则,后者是科技伦理的上线原则④段伟文:《科技伦理:从理论框架到实践建构》,《天津社会科学》2008 年第4 期。。据此,也可为人工智能伦理设置一个底线和上线,“外在主义”的人工智能伦理只是让人工智能符合相应的伦理规范,可视为底线,而“内在主义”则要求人工智能还要助推人类遵守相应的伦理规范,可视为上线。这就好比说,前者只是要求一个人遵守伦理规范,后者则不但要求这个人自己遵守伦理规范,还要监督和协助他人遵守伦理规范,所以前者的要求相对较低,是底线,而后者的要求则相对较高,是上线。在这个意义上,“外在主义”人工智能伦理可称为消极的或批判性的人工智能伦理,“内在主义”人工智能伦理可以称为积极的或建设性的人工智能伦理。
从另外一个角度来看,批判性的人工智能伦理是“部门伦理”意义上的技术伦理,而建设性的人工智能伦理是“研究纲领”意义上的技术伦理。正如科学哲学有“关于科学的哲学”(philosophy of science)和“科学的哲学”(scientific philosophy),技术哲学有“部门哲学”的技术哲学和“研究纲领”的技术哲学两种传统,“前者作为部门哲学、哲学的分支学科、哲学关注的特殊领域,从属于一种或几种哲学传统和哲学纲领,后者作为一种新的哲学传统、哲学视角、哲学眼光,本身就是一种哲学纲领”①吴国盛:《技术哲学经典读本》,上海:上海交通大学出版社,2008 年,第1 页。,技术伦理也可以是“部门伦理”意义上的技术伦理和“研究纲领”意义上的技术伦理。所谓“研究纲领”意义上技术伦理,即把技术伦理作为一般伦理学来看待,从技术的视角对伦理学体系进行改造,把技术编织进伦理学的理论体系之中,重建伦理学体系,即技术时代的伦理学或技术的伦理学。所谓“部门伦理”意义上的技术伦理学,即把技术作为伦理学的研究对象,把伦理学的理论和方法应用于技术领域,属于伦理学的一个分支或部门。由于“外在主义”进路的人工智能主要关注伦理原则的应用,因此更接近于“部门伦理”意义上的技术伦理,而“内在主义”进路的人工智能涉及伦理学理论体系的调整,因此更接近于“研究纲领”意义上的技术伦理。
第三,二者是相互嵌套的关系。“内在主义”进路的初衷虽然是好的,但是它本身也引发了诸多的伦理争议,如在利用人工智能来规范人类行为中,如果没有一个合理的限度,就会对人的自由和尊严产生威胁和挑战,这无疑需要进行伦理的反思,而这正是“外在主义”进路所从事的工作,因此“内在主义”进路本身就转变为“外在主义”进路的研究对象,这是“内在主义”进路嵌套进“外在主义”进路的表现。与此同时,“内在主义”进路所主张的在人工智能设计中嵌入道德规范,在一定程度上缓和了人工智能与伦理的冲突,减少了人工智能引发伦理问题的可能性,而这正是“外在主义”进路所要达到的目标,“内在主义”进路的实践在某种意义上实现了本属于“外在主义”进路的目标,这是“外在主义”进路嵌套进“内在主义”进路的表现。因此,在这种意义上,两种研究进路的区分只具有理论上的意义,在实际的研究活动中,两种进路往往是交叉在一起的,如人工智能的伦理设计,里面既有通过设计解决伦理问题的“内在主义”进路的影子,也有对设计进行伦理规约的“外在主义”进路的影子。
总之,如果把人工智能伦理比作一只飞鸟,那么“外在主义”进路和“内在主义”两种进路就好比是人工智能伦理的“双翼”,缺少任何一翼都会使人工智能伦理研究框架变得不完整。两种进路的同时存在,归根结底还是因为技术的“双刃剑”效应,人工智能既能为人类带来福祉,也会给人类带来伤害,因此,既应该看到它的积极伦理意义,也应该关注它的消极伦理意义,这是人工智能伦理“外在主义”和“内在主义”两种进路之所以互补存在的内在根据,也是马克思辩证思维和矛盾分析方法的体现。既不能被肤浅的技术主义所蒙蔽,也不能陷入消极的技术悲观主义的泥潭,既不能死守过时的伦理观念而阻碍人工智能的发展,也不能完全不顾伦理要求而由人工智能任性发展。当然,就当前人工智能伦理的研究格局而言,“外在主义”进路仍然是当前的主导进路,处于支配地位,而作为人工智能伦理的一个新的理论生长点,“内在主义”进路目前还处于发展之中,其研究力量和影响力还比较弱小,与“外在主义”进路还不能比肩,但是“内在主义”进路的人工智能伦理价值与影响是不容忽视的,它促使人们重新审视传统伦理学的基本预设与理论框架,重新审视道德共同体的范围与人工智能体的伦理地位,甚至重构伦理学的话语体系。
云南社会科学2021年5期