陈爱华
人工智能(artificial intelligence)亦称智械、机器智能,指由人制造出来的机器所表现出来的智能。约翰·麦卡锡[1](John McCarthy)将其定义为制造智能机器的科学与工程。目前随着大数据时代的到来,人工智能获得了快速的发展——基于人工智能的“万物互联”——无人驾驶、智能家居、自动诊疗、智慧城市等不断呈现,然而,与此同时人工智能的发展亦带来了一连串隐忧,尤其是人工智能产生了生命伦理的困惑与挑战,这是否会威胁人类生存,甚至取代人类?康德曾经在其《纯粹理性批判》中提出的一组问题式:“我能知道什么?”“我应当做什么?”“我可以希望什么?”[2]612后来又在《逻辑学讲义》中提出了“人是什么?”[3]15当下,我们重温康德的这组问题式,应对人工智能的生命伦理悖论大有裨益。
康德问题式之首问是“我能知道什么?”康德认为,“第一个问题是单纯思辨的”[2]612,即关于实有事物的知识问题。因此,我们追问人工智能的生命伦理悖论何以产生,就须追问什么是生命伦理悖论?什么是人工智能?什么是人工智能的生命伦理悖论?
而追问什么是生命伦理悖论?又包括三个层面的问题:其一,什么是“悖论”?其二,什么是“伦理悖论”?其三,什么是“生命伦理悖论”?
就“悖论”而言,它是逻辑学名词,其内涵为,在一个公理系统中,一命题A,如果命题承认A,则可以推得-A(非A);反之,如果命题承认-A(非A),亦可以推得A[4]。由此,称A命题为悖论。
而“伦理悖论”[5]与“悖论”这两者之间不是严格的逻辑意义上的属种关系,而是一种引申意义上的借鉴。所谓“伦理悖论”是指现实的伦理关系的运作中,一种行为的目的是好的或者是善的,然而其产生的结果却是利与害并举、善与恶相伴;或者是如果你得到了预期的伦理的正效应(善),同时也得到了未预期到的伦理的负效应(恶);或者即使预期中认识到,一旦得到其伦理正效应,可能会产生相应的伦理负效应,但是在行为结果中,伦理负效应(恶)大大超出预期。
“生命伦理悖论”与“伦理悖论”具有属种关系。不过“伦理悖论”更多的是行为的目的与后果之间的“二律背反”,即一种行为的目的是好的或者是善的,然而其产生的结果却是利与害并举、善与恶相伴;而“生命伦理悖论”在本文中更多的是基于对生命伦理原则及其履行结果或者产生的实际伦理效应的“二律背反”。
无论“生命伦理悖论”还是“伦理悖论”都是源于人类对于生命的伦理反思。这可以追溯到人类社会产生的早期技术的发展及其生命伦理悖论。正如老子在《道德经·五十七章》中曰:“人多伎巧,奇物滋起。”因而应如何道德地对待生命,我们关于生命的决定和选择如何合乎伦理,如何实现生命的价值等,这些问题都是历代思想家关注的焦点。对于近代工业革命产生的生命伦理悖论,马克思曾对此有深刻阐述:“在我们这个时代,每一种事物好象都包含有自己的反面,我们看到,机器具有减少人类劳动和使劳动更有成效的神奇力量,然而却引起了饥饿和过度的疲劳”;“随着人类愈益控制自然,个人却似乎愈益成为别人的奴隶或自身卑劣行为的奴隶。”[6]当代随着人工智能技术的快速普及,引发人们对由人工智能的生命伦理悖论的担忧。因为目前恶意使用人工智能已经对数字安全、物理安全和政治安全造成广泛的威胁。如,无人机在人工智能的操控下可能会从事犯罪活动,人工智能也会轻易泄露个人隐私或国家机密。
亚里士多德曾在《尼可马克伦理学》中指出:“德性不仅产生、养成与毁灭于同样的活动,而且实现于同样的活动。”[7]38而“造成幸福的是合德性的活动,相反的活动则造成相反的结果。”[3]27因而亚里士多德认为:“我们应当重视实现活动的性质,因为我们是怎样的就取决于我们的实现活动的性质。”[7]36为了追溯人工智能的生命伦理悖论何以生成,须追溯人工智能的学科范畴及其本质。
就人工智能的学科范畴而言,它是自然科学和人文社会科学的交叉。其所涉及学科,包括哲学和认知科学、数学、神经生理学、心理学、计算机科学、信息论、控制论[4]。其研究范畴包括自然语言处理、智能搜索、推理、规划、机器学习、模式识别、逻辑程序设计软计算、不精确和不确定的管理、人工生命、神经网络、复杂系统、遗传算法等。因此,如果我们在发展人工智能的同时,弱化或者忽略了人的自主性、人的自由和尊严,就可能带来人工智能发展的有关安全、生命、健康、幸福等领域的伦理道德问题,进而出现生命伦理悖论。
再就人工智能本质而言,它不仅是对人的思维的信息过程的模拟,实际上也是人思维方式的设计,进而影响人的生存与发展、人的生活方式和生命方式。因为人工智能对于人的思维模拟一般可以从两重维度进行,一是结构模拟:仿照人脑的结构机制,制造出“类人脑”的机器;二是功能模拟:暂时撇开人脑的内部结构,而从其功能过程进行模拟。现代电子计算机的产生便是对人脑思维功能的模拟,是对人脑思维的信息过程的模拟。如今,弱人工智能不断地迅猛发展,工业机器人以比之前任何时候都更快的速度发展,更加带动了弱人工智能和相关领域产业的不断突破,很多必须用人来做的工作如今已经能用机器人实现。而强人工智能虽然暂时处于瓶颈,但是科学家们正在不断探索、努力。因而,无论是结构模拟,还是功能模拟;无论是弱人工智能,还是强人工智能,或者是超强人工智能,如果弱化或者忽略了其关涉人的安全、生命、健康、幸福等领域的伦理道德问题,都会产生生命伦理悖论。
康德之问的第二个问题,即“我应当做什么?”康德认为,“第二个问题是单纯实践的”,是关于道德的问题[2]612。循着这一康德之问,就须从生命伦理的视域追问:人工智能生命伦理悖论在实践中有何种样态。为此,首先须追问相关的道德律(因为道德律规定了人的行为所为和所不为[2]612),即生命伦理学及其生命伦理原则以及与之相关的机器人学定律。
生命伦理学自20世纪60年代产生以来,是迄今为止世界上发展最为迅速、最有生命力的交叉学科。生命伦理学的“生命”主要指人类生命,但有时也涉及到动物生命和植物生命以至生态,而伦理学是对人—自然—社会伦理关系及其人的行为规范性的研究,因而,生命伦理学可以界定为运用伦理学的理论和方法,在跨学科、跨文化的情境中,对生命科学和医疗保健的伦理学方面,包括决定、行动、政策、法律,进行的系统研究。生命伦理学总结了第二次世界大战德国纳粹医生以科学研究为幌子残酷迫害犹太人的惨痛教训,结合医学实践和科学实验的实际状况,制定了尊重人的生命与尊严、以人为本的原则、不伤害和有利的原则、公正公益的原则[8],体现了伦理合理性。进而可以引领我们对人工智能引发的伦理问题及其悖论进行生命伦理辨析,作出相关的生命伦理评价、判断和抉择。
值得一提的是关于机器人学定律是由科幻小说家阿西莫夫(Isaac Asimov)在其《我,机器人》中提出的。机器人行为的三定律分别是:第一,“机器人不能伤害人类或坐视人类受到伤害”;第二,“在与第一法则不相冲突的情况下,机器人必须服从人类的命令”;第三,“在不违背第一与第二法则的前提下,机器人有自我保护的义务”。显然,这三条法则的核心是“不能伤害人类”,体现了对人类安全的重视,同时也确立了人与机器人的主仆关系[9]:“必须服从人类的命令。”但是与生命伦理原则相比,还有很大差距。因为“不能伤害人类”仅仅属于生命伦理原则的底线。为了进一步完善机器人学法则,于1985年,阿西莫夫又提出了第零法则:“机器人即使是出于自我保护也不能直接或间接伤害人类”,进一步强调了人类安全的重要性。
尽管机器人行为的三定律在阿西莫夫的科幻小说中得到遵守,并且在其他作者的科幻小说中的机器人,也遵守这三条定律,同时,也有很多人工智能和机器人领域的技术专家也认同这个准则,然而,这三定律在现实机器人工业,特别在人工智能的应用还有相当大的难度。从生命伦理学的原则和机器人三定律来审视人工智能生命伦理悖论,具有以下三重样态。
首先,人工智能(包括机器人)真的能做到对人的身心发展与健康不伤害吗?实际上,人工智能(包括机器人)应用的后果,很难保证对人的身心不伤害——这恰恰形成人工智能生命伦理的第一重悖论:“不能伤害人类”的生命伦理悖论。尽管科学家先前一直希望以最简单的办法,确保人工智能(包括机器人)不给人类带来任何威胁,但人工智能(包括机器人)会以什么方式伤害到人?这种伤害有多大?伤害可能以什么形式出现?什么时候可能发生?怎样才能避免?这些问题都亟需细化。当代,由于使用多样化的人工智能,人们原来的多样化、多元化的思维可能变得整齐划一,成为单向度地运用人工智能的思维,进而成为人工智能的消费机器,或者成为机器的一部分。因为科学家与工程技术人员总是在工具性层面关注人工智能是否具有更强大智能和力量;而消费者则主要在功用性层面考虑是否使用和如何使用这些具有更强大智能和力量的人工智能?由此虽然会考虑这些人工智能是否对人类有善意,能否与其协作、共存?[10]但是却没有追问这些人工智能是否从珍爱生命作为出发点(初心),并且是否将珍爱生命作为一种顶层设计?进而追问人工智能对人思维方式的生理、心理和生活方式的生命基础到底是推进,还是相反?是促进人思维的全面发展,还是单向度发展?如果不作这样的追问,听任人工智能发展,原来人所具有各种不同的奇思妙想和几百万年进化获得的不同创发力和审美情趣将趋同于人工智能、依附于人工智能,而人自身的智能除了学会使用人工智能的操作,其他能力将随之退化或者被消解。如同现在的智能手机将记事本、通讯录、网络支付、各类电子阅读文本、语言、翻译、邮件、微信、视频、音乐、广播电视、遥控等都囊括于其中,正所谓“一机在手,样样都有”,因此,目前人们对于手机已经达到前所未有的依赖。因而一旦离开了手机,人们似乎一无所有。同时使用手机的低头族的颈椎病高发,危及人的健康;手机智能游戏一族不仅网瘾难解,身心健康堪忧等生命伦理问题不胜枚举。而智能手机的当下效应,也将是人工智能的未来效应,或者更为严重。有可能人工智能越发达,人类思维与智力越愚钝;人工智能发展的功能越多,人类健康水平越低。
其次,人工智能在运用过程中,真的能做到知情同意吗?各种人工智能(包括机器人)的使用说明或者相关协议很多,但是对于生命伦理“尊重人的生命与尊严”原则中的知情同意却无法真正实现——这便形成人工智能生命伦理的第二重悖论:“知情同意”的生命伦理悖论。因为它可能带来一种潜在文化与教育的生命伦理危机:如果说,基因编辑技术可能不仅动摇作为以往一切社会文明基础的自然秩序,其更大危险是世界物种的多样性乃至人种的多样性,会成为少数垄断技术和力量的狂人的家族操控[11],那么人工智能的发展,不仅为犯罪行为拓展了更为广阔的空间,而且当下的智能机器人(弱人工智能)进人们的健康、生活、教育、培训和娱乐等领域[9],它们辅导幼儿—少儿—青少年学习,以后将由强人工智能全面掌控大学教育和自主式学习[12],甚至各行各业行政管理—运营模式等乃至人们的家庭及其日常生活,以至于人类独特的情感[13]亦可能由弱或强人工智能掌控。因为它们借助于大数据平台,设定算法的智能化平台对于上述诸方面都具有很强的主导性[14]。同时,由于在万物互联中,人与物数据的自动产生,对于这些数据的采集、分析,可以对人的行为偏好形成较为客观的数据化表象,再通过意义互联在具体的与境和局域中获得理解[15]。这样,知情同意原则,形同虚设。也许在人工智能高度发展的同时,将导致人类自身经过几百万年进化所生成的奇思妙想、对于琴棋书画审美能力与操作能力等创发力都将消解在键盘的操作中。长此以往,在程序文化和键盘文化的熏陶中,不知不觉将人类已有的非人工智能文明逐渐消解甚至毁灭。
再者,人工智能在运用过程中,真的能实现就业公平吗?由于人工智能(包括机器人)发展与广泛应用,现在人类许多工作可能会被人工智能所替代。这将意味着有更多的人将失去工作的机会,比如让很多蓝领工人和下层白领失去现有的工作岗位——这将形成人工智能生命伦理的第三重悖论:“公平”的生命伦理悖论。从生命伦理视域看,现在人从事工作,不仅是谋生的手段,也是生命存在的方式。因为工作带给他们乐趣、创造力、内在潜能的激发、在工作中与他人默契协作、头脑风暴而产生的相互支持、相互欣赏团队精神等等。这恰恰也是人之为人的意义所在。而由于失去工作,这是一种结构性的失业——失业无商量。因而他们不仅失去谋生的机会,也失去维系生命的经济来源,更重要的是失去了一种作为生命展现的重要方式。因为据麦肯锡发布有关人工智能的报告称,全球约50%的工作内容可以通过改进现有技术实现自动化[16]。那么如何安置失业人员?如何调适社会与人,人与人工智能的关系?仅仅从技术的物性层面考量是难以奏效;退一步说,即使从技术的物性层面获得一定的成效,也只能是权宜之计——缓解当下,却难以产生长期效应;与此同时,这种权宜之计可能又引发新的就业问题。这样便是对人的生存方式,进而是对人存在意义的严峻挑战。
面对人工智能的生命伦理的三重悖论,须追问其何以产生?这就需要思考康德的第三之问——“我可以希望什么?”康德指出,“第三个问题,即:如果我做了我应当做的,那么我可以希望什么?这是实践的同时又是理论的”。因为“一切希望都是指向幸福的,并且它在关于实践和道德律方面所是的东西,恰好和知识及自然律在对事物的理论认识方面所是的是同一个东西”[2]612。即一切希望指向幸福,必须是或者应该是合规律性(自然律)与合目的性(道德律)的统一。由于“幸福是对我们的一切爱好的满足”,因而“出自幸福动机的实践规律我称之为实用规律(明智的规则)”,因此“它在动机上没有别的,只是要配得上幸福,那我就称它为道德的(道德律)”[2]612。值得注意的是,康德在此特别强调“配得上幸福” 就称为道德的(道德律),这里凸显的是道德与幸福即德福的一致性。黑格尔曾指出,“具有拘束力的义务,只是对没有规定性的主观性或抽象的自由、和对自然意志的冲动或道德意志(它任意规定没有规定性的善)的冲动,才是一种限制。但是在义务中个人毋宁说是获得了解放。”[17]这可以看作是对康德德福的一致性思想的最好诠释。由此,我们必须追问发展人工智能的初衷(初心)即发展人工智能“可以希望什么”?是不是为了满足或者增进人类的幸福?它在动机上是不是道德的,或者说符合康德所说的道德律?如果是符合的,为什么会产生人工智能生命伦理三重悖论?
首先,通过追问人类发展人工智能目的是什么?或者说发展人工智能“可以希望什么”?须探察人工智能的发展历史之维,我们发现,人们本来一开始是想用人工智能体代替人做一些事情[14],比如被誉为人工智能之父的麦卡锡认为“人工智能”一词与人类行为几乎毫无关系,它唯一可能暗示的是机器可以去执行类似人类执行的任务[18]。 20世纪70年代许多新方法被用于人工智能开发,比如,如何通过一副图像的阴影、形状、颜色、边界和纹理等基本信息辨别图像,通过分析这些信息,可以推断出图像可能是什么。到20世纪80年代,人工智能发展得更为迅速,不仅进入商业领域,而且在“沙漠风暴”行动中,人工智能技术在军方的智能设备经受了战争的检验,即人工智能技术被用于导弹系统和预警显示以及其他先进武器。与此同时,人工智能技术也进入了家庭;智能电脑的增加吸引了公众兴趣。由于人工智能技术简化了摄像设备,进而促使人们对人工智能相关技术有了更大的需求。这样,人工智能已经并且不可避免地在诸多方面改变了我们的生活。由此可见,从一开始对于发展人工智能的定位就是“执行类似人类执行的任务”,缺乏康德所说的道德律规定,或者说无论是对于人工智能的需求领域顶层设计与规划,还是对于人工智能算法的顶层设计中,其生命伦理原则或者没有完全被纳入其中,或者被弱化、式微甚至缺位,因而不可避免地生产了上述人工智能生命伦理三重悖论,即产生了合规律性(自然律)与合目的性(道德律)性的失衡,道德与幸福即德福的背离。
其次,我们循此须进一步追问人工智能的需求领域顶层设计与规划、人工智能算法的顶层设计的生命伦理原则为什么没有完全被纳入其中,或者被弱化、式微甚至缺位?仅仅探察人工智能发展的历史之维是远远不够的。因为人工智能发展的历史之维只是向我们展开了其是其所是的现状,因此还须进一步探究其生命伦理原则为什么没有完全被纳入其中,或者被弱化、式微甚至缺位的动力之维,即人类发展人工智能目的的内驱力是什么?正如康德所说,“我可以希望什么?这是实践的同时又是理论的”[2]612。如果说人工智能发展的历史之维是是其所是的实践之维,那么,探究人类发展人工智能目的的动力之维,则是蕴含了探究其何以是其所是理论维度。
人类发展人工智能的目的与人工智能所能带来的利益密切相关。正如马克思曾经指出那样,“人们为之奋斗的一切,都同他们的利益有关”[19]。再就利益而言,有短期利益和长远利益之别,有局部利益和全局利益之分,亦有个人利益与集体利益、国家利益的关系,还有私人利益与公共利益的关系。在当前市场经济条件下,受资本逻辑(盈利为目的)运作的影响在所难免。人工智能的发展也不能幸免,加之人工智能的发展和运用前景广阔,虽然风险高,利润也十分可观,因而吸引了许多投资商为了获得利润的最大化而竞相博弈、相互竞争。与此同时,人工智能研究也激发了众多科技人员的好奇心,他们渴望在这一领域开疆拓土,一展才华,一方面可以开拓和研究其中可能存在的众多新课题,另一方面能进一步拓展其在经济、文化、医疗卫生、教育、体育等诸多应用领域的研发。由于眼前的短期利益、局部利益、个人利益或私人利益等多重利益的交织、诱惑、竞争与博弈,加之资本逻辑的操控,其思维底线很难把控,与之相关的长远利益、全局利益、集体利益与公共利益等往往会被轻视甚至被忽略,进而导致合规律性(自然律)与合目的性(道德律)失衡,道德与幸福即德福背离,人工智能生命伦理三重悖论便蕴涵于其中。
如何应对上述的三重人工智能生命伦理悖论,坚持合规律性(自然律)与合目的(道德律)的统一、道德与幸福即德福的统一?须思考康德在《逻辑学讲义》中提出的第四个,也是最后一个问题“人是什么?”这是康德在《纯粹理性批判》中提出三个问题,并且完成了三大批判即《纯粹理性批判》《实践理性批判》《判断力批判》的哲学体系建构以后提出的[20]。在康德看来,“人是什么?”是一个人类学的问题。而前三个问题(即“我能知道什么?”“我应当做什么?”“我可以希望什么?”)“都与最后一个问题有联系”,“从根本上说,可以把这一切都看成是人类学”[3]。同样,人工智能的生命伦理悖论,实际上是人的悖论。因为人在多重利益的交织、诱惑、竞争与博弈中和资本逻辑的操控下,已不能坚持合规律性(自然律)与合目的性(道德律)的统一、道德与幸福即德福的统一,不知应该为人工智能选定什么样的规则[21]。因此应当追问:人对于发展人工智能应该有什么样的担当?或者发展人工智能对于人的存在意义何在?或者说人之为人意义何在?为此,本文拟从以下三重维度提出相关的应对方略。
首先,作为人工智能的设计者在人工智能的顶层设计维度方面,不仅关注人工智能“能做什么”,更应该关注其“应做什么”。为此,可以从我国传统文化中汲取其生命伦理智慧,即以“爱人利物”之仁德(《庄子·外篇·天地第十二》),勿伤物道为伦理原则:“以天为宗,以德为本,以道为门,兆于变化”;“以仁为恩,以义为理,以礼为行,以乐为和”(《庄子·杂篇·天下第三十三》)。坚决抵制资本逻辑的操控,始终把人的生命安全和身体健康放在第一位[22]。正如施韦泽[23]所指出,“善是保持生命、促进生命,使可发展的生命实现其最高的价值,恶则是毁灭生命、伤害生命、压制生命的发展。这是必然的、普遍的、绝对的伦理原则。”我们应当将生命伦理的尊重人的生命与尊严、以人为本的原则,不伤害和有利的原则,公正公益的原则融汇到人工智能的顶层设计思想之中,并且融入算法——将生命伦理及其道德规范“‘写入’技术物之中”[24]。欧盟委员会科技伦理高级专家组成员、荷兰代尔夫特理工大学霍温教授认为,要明确包括认知权、控制权、自由选择权和隐私权等在内的人的权利[25]。这对于人工智能的顶层设计来说,不仅是不可或缺,而且是至关重要的。
其次,作为人工智能的设计者,在人工智能的思维策略维度方面,须坚持底线思维——计算人工智能的风险,其中不仅包括技术方面的风险,而且包括人工智能开发与运用带来或者引发的经济—社会—人们生活、就业等方面的伦理风险[26],须估算可能出现的最坏情况。《礼记·中庸》曰:“凡事豫则立,不豫则废。言前定则不跲,事前定则不困,行前定则不疚,道前定则不穷。”这就是说,做任何事情,事前有准备就可以成功,没有准备就会失败。就人工智能开发与运用而言,不仅存在当下的技术风险和经济—社会—人们生活、就业等方面的伦理风险,而且隐含了未来未知的、不确定的经济—社会—人们生活、就业等方面的伦理风险。因而,只有坚持底线思维,才能“慎终如始”。只有事先估算人工智能可能出现的最坏情况即各类风险,才能克服恐惧心理,制定应对相关风险的技术—伦理策略。由于人工智能的学科范畴是自然科学和人文社会科学的交叉,因而制定应对相关风险的技术—伦理策略,须构建既有科学家与工程技术人员参与,又有伦理学家、社会学家、法学家、心理学家等多方面专家参与研究团队,多层次、多视域综合探索人工智能系统可能存在的安全隐患和伦理风险等问题,构建相关的控制机制,提出有效应对的伦理策略,建立健全相关的法律法规与应急方略。与此同时,在全球化时代,还须建立全球协商机制,以共同应对人工智能可能带来的全球性的多重伦理风险。
再者,无论作为人工智能的设计者,还是作为人工智能的应用者,都须用好人工智能的“最大增量”。人工智能与互联网相辅相成:要用好互联网这个“最大增量”[27],离不开人工智能的开发应用。要将网络安全“变量”变为增量也离不开人工智能的安全控制系统的构建,进而有效提升社会治理水平和智慧城市管理服务系统,增进人们的网络安全感和幸福生活指数。
总之,上述关于人工智能的生命伦理悖论及其应对方略的探讨还是初步的,因为人工智能给生命伦理带来的挑战是全方位的,同时也大大拓展了生命伦理的研究空间,推进了生命伦理学学科的发展。因而生命伦理学不仅仅要关注生物医学、基因编辑等相关领域的伦理问题,还须关注当代科技发展的最新领域——人工智能及其与之相关的网络、信息科学、大数据等的最新发展中凸显的伦理问题和一系列生命伦理危机、生命伦理风险,进而可以从生命伦理学视域提出相关的具有前瞻性的应对策略,推进人工智能及其与之相关的网络、信息科学、大数据等当代新科技的健康发展。