人工智能体道德判断的复杂性及解决思路
——以“人机共生”为视角

2020-02-14 01:05胡术恒向玉琼
关键词:人机伦理学共生

胡术恒, 向玉琼

温德尔和科林指出,当他们1999年涉足机器道德领域时,如何建构人工道德智能体方面的问题,竟然还是未探索的哲学领域(1)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M].王小红,译.北京:北京大学出版社,2017:1.,直到2017年这一领域在我国才成为热点(2)据中国知网查询,1986年第6期《中学政治学教学》杂志发表了方军的《从机器人带来的灾难谈起——谈道德和科学技术的关系》,从2017年开始,研究相关问题的文献迅速增加。。这是因为,道德问题实际上是当代元伦理学的核心结构性难题(3)迈克尔·丝密斯.道德问题[M].林航,译.杭州:浙江大学出版社,2011:11.,而在“人机共生”条件下,人工智能技术伦理变得更加复杂,在研究方法上,从机器人伦理的实在论进路走向机器人伦理的关系论进路又是一个重大转折(4)李小燕.从实在论走向关系论:机器人伦理研究的方法论转化[J].自然辩证法研究,2016(2):40-44.。近20年来,尽管国外理论界在人工智能技术道德伦理方面做出了很多探究(5)从《道德机器——如何让机器人明辨是非》的参考文献大体可看出国外学者2007年以前的研究情况。,但如何使机器自身的道德能力逐渐增进——依然是一个需要研究的课题(6)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M].王小红,译.北京:北京大学出版社,2017:II.。

国内研究人工智能道德的文献大都处于“实在论”阶段,还未迈入“关系论”。有文献探究了人工智能技术的伦理样态,包括人机边界模糊、责任归属困境、价值鸿沟加剧、智能技术依赖四个方面,并提出了协同治理的思路(7)谭九生,杨建武.人工智能伦理风险及其协同治理[J].中国行政管理,2019(10):44-50.。有文献探究了人工智能体伦理建构的内涵、建构的五项原则、基本框架及其实践进路,以此来明确人工智能伦理的基本价值、基本标准及落实人工智能伦理的相关责任(8)于雪,段伟文.人工智能的伦理建构[J].理论探索,2019(6):43-49.。由于人工智能伦理和信息伦理之间存在一定的联系,也有文献希望从信息伦理中获取对人工智能伦理的启示(9)张正清,张成岗.第四次革命:现代性的终结抑或重构——信息伦理对人工智能伦理的启示[J].武汉大学学报(哲学社会科学版),2018(5):177-184.。还有文献意识到“人机共生”关系下人工智能技术必然会挑战既有的人类价值,因此提出要坚持以人为本或以人为中心的发展原则(10)孙伟平.关于人工智能的价值反思[J].哲学研究,2017(10):120-126.。

随着人工智能与人类生活关系的日益紧密,理论界对于“人机共生”状态下人工智能体的道德问题理解得更加深刻。有文献提出,由于机器人和其他人工智能有自主感知世界并自主选择行动来实现目标的特性,因此在设计时,需要让它们遵循人类的社会规范(11)BENJAMIN K. How can we trust a robot?[J].Communications of the ACM, 2018,61(3):86-95.。从人机互动的角度看,需要考虑人与机器人道德地位的不对称性,从机器人外观、社会智能、人工情感等方面入手建构机器人的道德能力(12)杜严勇.论机器人道德能力的建构[J].自然辩证法研究,2018(5):43-48.。还有文献强调,未来的研究需要在全球情景条件下,从伦理体系建设、理论技术的前瞻性、伦理角色塑造和科学发展伦理观等方面做进一步的研究(13)谢洪明,陈亮,杨英楠.如何认识人工智能的伦理冲突——研究回顾与展望[J].外国经济管理,2019(10):109-124.。在人工智能时代,“人机共生”意味着人和人工智能“类人”形成了共生共在的社会关系。因此,在“人机共生”的环境中,人工智能体的道德判断更加具有复杂性。其复杂性主要表现在两个方面:一是因为“类人”要面对人类道德生活的复杂性;二是人类如何赋予“类人”道德判断能力的复杂性。

本文根据温德尔和科林提出的人工道德智能体(AMAs)的两维框架“自主性——伦理敏感性”来探索人工智能体道德判断的复杂性问题,重点探究三个方面的问题:一是“人机共生”关系中道德判断的现实复杂性;二是“人机共生”关系中道德判断理论选择的复杂性;三是提出解决人工智能体道德判断复杂性的三条思路。

一、 “人机共生”关系中道德判断的现实复杂性

人们对技术和道德关系的认识和定义会随着时代的发展而变化。从农业社会到工业社会,技术是工具性、中性,机器的运动是物理运动,既没有自主性更没有情感性。所谓技术的道德是工具性道德,它的主体有两个,即工具设计者和使用者。然而,人工智能体“类人”如同人一样具有自主性,有自主行动和自主决策能力。一旦讨论人工智能体自主性问题就会触及人工智能体的道德判断问题。如果人工智能时代“人机共生”社会出现,那么“人机共生”关系将会成为认识道德判断复杂性的起点。

(一) “人机共生”是一种新社会关系

古希腊思想家将人归为万物之灵时,其目的是希望彻底将人和物区分开来,从人类发展来看,这种区分的价值和意义巨大。当人无需以道德的方式来处理物时,就增强了人开发自然、获得资源的能力。尽管,这个过程破坏了自然,但人类仍然难以遏制,今天,技术依然是人类索取自然的基本工具。但人工智能技术的发展呈现出了新的状态,即“伴随着日益增强的自主性和敏感性的交互作用进行”(14)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M].王小红,译.北京:北京大学出版社,2017:27.。由此可见,具有自主性和敏感性的人工智能体,将给人类社会增加一种有自主性、敏感性的“人造物”。“类人”的出现促使人类社会形成了“人机共生”的新社会关系。这种新的社会关系,对“人是万物之灵”的哲学指引提出了挑战。当具有自主性和敏感性的人工智能“类人”进入到人类社会,人类就需要改变对自然界和人工智能“类人”地位的看法,否则,作为人造物的“类人”将给人类带来伤害,人类和人工智能体都不可能获得可持续发展。这就是“人机共生”关系中最基本的认识。基于这样的认识,人类必须赋予、保证人工智能体具有道德判断能力,将其发展成为具有道德判断能力的“类人”。

人类对人工智能道德判断能力的认识是逐步形成的。一方面,通过文艺作品中机器人的意象,即通过科幻小说和电影建构“人机共生”的故事,将机器人视为人类一样有情感、有智慧又超越人类能力的主体,在人们心目中强化其道德的形象,为人类赋予人工智能体道德判断能力打下了文化基础。另一方面,通过现实生活的要求。一旦人工智能“类人”步入人类社会,就会影响人的行动空间。随着技术的发展,人工智能体将在教育、医疗诊断、经济投资、交通驾驶等涉及人类衣食住行的各种领域里,帮助人类提供数据、进行决策,它们掌握着人类最隐私的信息。因此,人类对人工智能体的道德期待会更加强烈,必然要求它们有道德的行动。如同人类社会中缺乏道德的人将被否定一样,在“人机共生”社会,“类人”必须成为具有道德能力和道德自我约束力的主体,缺乏道德的“类人”将被人类拒绝、遗弃甚至停止“生命”。

(二) “人机共生”是一种新决策关系

在“人机共生”关系中,人工智能体的自主性能力越强,人类与它们的合作就越深入。随着风险社会的来临,人类需要寻求“第二层级的决策支持体系”,来解决具有高度复杂性和高度不确定性的社会问题(15)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M]. 王小红,译.北京:北京大学出版社,2017:25.。人类和“类人”形成了新的合作决策方式,人类需要人工智能程序支持决策,以帮助人类解决超越其决策能力的问题。在解决这些问题时,“这些系统将需要以现代的计算速度来处理复杂情况,在这些情况下所作出的选择和采取的行动方案是无法让设计者和软件程序员见到的”(16)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M]. 王小红,译.北京:北京大学出版社,2017:25.。人工智能因此将获得了人类的决策权,“人机共生”的社会这样的情况会越来越多。

工业革命以来技术设计的目标是使机器更快、更有效率、更精确地实现人的需要。在今天,人工智能的目标是它们根据人类的价值体系做出更好的决策(17)ROSSI F. How do you teach a machine to be moral? the Washington post[EB/OL].[2015-09-05].https:∥www.washingtonpost.com/news/in-theory/wp/2015/11/05/how-do-you-teach-a-machine-to-be-moral/.。这就要求人工智能体既有自主性又有伦理敏感性。如果人工智能体从未意识到或者不考虑过人类社会的道德问题,就会带来严重问题。由于人类依赖人工智能系统的决策,因此需要持续提升人工智能体的自动化程度,所以,“针对道德学科来说,挑战在于怎样在另一个坐标的方向上移动,即道德考量的敏感性”(18)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M]. 王小红,译.北京:北京大学出版社,2017:25.。因此,对于人工智能体而言,自主性和伦理敏感性的统一具有决定性意义。

这就需要将人类的道德观嵌入到人工智能体中,在不断追求人工智能体道德判断能力和道德决策能力提升的同时,保证它们的伦理敏感性、安全性和可靠性,使之更好地服务于人类。在这个意义上,摩尔将人工道德智能体划分为四类:最底层的是伦理效果智能体,其次是隐含式伦理智能体,第三层是显现式伦理智能体,第四层是完备伦理智能体(19)MOOR J H.The nature, importance, and difficulty of machine ethics[J].Intelligent system,2006(24):18-21.。这也说明人类赋予、提升人工智能体道德判断能力的过程是渐进性的。

(三) “人机共生”是一种新的道德生活

与物相比,除了制造、使用工具和具有语言能力外,人还是自主性和伦理敏感性结合的主体。“人的自主性是在文化、政治以及自我的欲望和要求的综合作用下生成的”(20)张康之.论社会运行和社会变化加速化中的管理[J].管理世界,2019(2):101-114.;既来源于自身的意识和决定,又来源于人和社会的相互作用。人的伦理敏感性则来源于人需要有道德的生活,所以从“ethic”(伦理)一词的词源可以看出(21)“伦理”一词源自古希腊文ethos,ethos的本意是“本质”“人格”;也与“风俗”“习惯”的意思相联系。见何怀宏著《伦理学是什么》,北京大学出版社2015年版第14页。,人类社会运行的基础中的重要部分就是伦理道德(22)伦理和道德两个词有区别,何怀宏先生在《伦理学是什么》一书中提出,当表示规范、理论的时候,倾向于用“伦理”一词,而当指称现象、问题的时候,倾向于使用道德一词。。可以说,是人的伦理敏感性促使人将道德判断融合在人类行为中。

道德判断是一个识别道德问题、选择道德行为和评价道德结果的过程。没有道德判断和道德生活的社会秩序难以维持。用道德观点去评价别人的行为和态度,这个是常识(23)迈克尔·丝密斯.道德问题[M].林航,译. 杭州:浙江大学出版社,2011:1.。道德生活对个体的影响主要有三个方面。其一,只有以道德主体开展道德判断并根据道德规范行动,个体才能在社会生活中被认可;其二,道德判断会影响个体的行为、价值观和世界观;其三,失德的个体经常会被社会抵制、制裁甚至惩罚。道德判断是对个体和社会的建构过程。进一步而言,人之所以具有伦理敏感性,是因为社会对人的决策具有自主、理性和责任的要求,社会要求个体考虑自我利益的同时也要考虑他人利益。

在“人机共生”社会,人和“类人”必须要形成一种新的道德关系,以确保避免人机冲突或“种族斗争”。培根认为,人应该通过直接面对世间万物和利用技术改造的方法来取得自然的权威(24)阿明·格伦瓦尔德.技术伦理学手册[M]. 吴宁,等,译.北京:社会科学文献出版社,2017:156.。一直以来,人类被赋予各种复杂的责任,人工智能时代同样需要人来提升人工智能体的道德判断能力。同样,由于人工智能有“类人”性,也会与人一样“类责任化”,即承担和人一样的责任。在两个方面的作用下,伦理敏感性是人工智能体不可缺少的一部分,必须遵守人类的道德原则,具备道德判断能力。“人机共生”的社会关系既是思考人工智能体道德判断的前提,又是思考其道德判断复杂性的起点。

二、 “人机共生”关系中道德判断理论的复杂性

目前,人工智能体的道德判断能力是人赋予的,“人工智能体的道德属性根源于人类自身的道德认识”(25)王东浩.人工智能体引发的道德冲突于困境初探[J].伦理学研究,2014(2):68-73.。道德判断的核心在于人们是基于何种标准作出道德判断(26)COHEN D J, AHN M. A subject utilitarian theory of moral judgment[J]. Journal of experiment psychology: genera, 2016(145).1359-1381.,所以,在赋予人工智能体道德判断能力时,人需要选择理论依据。由于人是有情感、有理性、有公平正义需求的,是道德动机复杂性的综合体,其伦理理论总纠缠在情感、理性、公平正义和动机之中,可以说,人类的伦理道德理论的复杂性是人工智能道德判断复杂性的重要来源。

(一) 休谟:道德判断是同情的产物

人是有情感的。人类如果没有情感,就失去了活着的价值。基于对人类情感价值的深厚考察,休谟成为18世纪英国伦理学情感主义的先驱,现在看来,它的理论依然科学。“休谟的伦理学可以称之为同情的伦理学,他将道德感称之为人的自然感情与同情结合的产物。”(27)孙文玲.同情与道德判断——由同情概念的变化看休谟的伦理学[J].世界哲学,2015(4):125-133.他不认同将道德感作为道德判断的基础。根据他的判断,“把道德感归源于人类心灵原始本源的那些人或许以充分的权威为德性做了辩护,不过却没有那些用人类广泛的同情来阐释道德感的人们所具有的优势”(28)大卫·休谟.人性论[M].关天运,译.北京:商务印书馆,2010:663.。在他看来,同情心能够超越自利的人而关注“他者”。“在同情方面,我们自己并非任何情感的对象,没有任何东西使我们的注意力固定在自我身上。”(29)大卫·休谟.人性论[M].关天运,译.北京:商务印书馆,2010:377.休谟将同情心视为道德判断的基础,正是看到了同情心使“自利的人”脱离了自身自私的局限。

休谟不太同意将理性视为道德判断的基础,这一点与启蒙学者对理性的崇拜不同,在理性和情感的结构上,他认为理性依附于情感,认为理性对道德行为的影响是间接的,它要借助于道德感,理性无法单独发生作用(30)孟繁英.道德判断:情感抑或理性——亚当·斯密的公正的旁观者理论评介[J].兰州学刊,2016(12):122-126.。休谟的伦理学与现实中的道德判断是相符的,因为,人的道德判断与人的情绪密切相联。道德判断的结果包括“错误的”“正确的”“更好的”“更糟的”“无法接受”“可以接受”等,表现出了人愤怒或愉悦的情绪。愉悦的情感产生积极努力的道德行动,不愉悦的情绪会产生消极的道德行动。人可以把消极情绪转化为积极情绪,也可以将消极行动转变为积极行动,这恰好说明情绪影响和支配着行为。人的情感表征和情感实质之间的关系复杂,人在使用同一情感表征时,其情感实质存在差异性。同样是微笑,对敌人和对亲人表征时,其情绪完全不同。这也说明人的情感和道德不完全一致。

休谟的同情伦理学对人工智能体的道德设计非常重要,尤其是对服务型人工智能体更有重要价值。这一类人工智能体与人的生活关系最为密切。人工智能体“读懂他人情绪的能力对于居家服务型机器人与人的互动来说十分有帮助”。然而,“除非工程师有意去设计系统,否则,计算机智能就是建立在一个没有欲望、动机和目标的逻辑平台上”(31)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M]. 王小红,译.北京:北京大学出版社,2017:124-125.。但有些观点认为,具有完全理性的人工智能体的道德计算能力比不完全理性的人要更强大,因此应对伦理挑战的时候,电脑可能相比人类大脑更具优势(32)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M]. 王小红,译.北京:北京大学出版社,2017:61.。其实,这类判断没有认识到“人机共生”关系的复杂性。

基于情感来设计人工智能体依然有三方面的困难。其一,从技术发展过程来看,要使人工智能体获得与人一样复杂的情感非常困难。其二,即使人工智能体可以获得人一样的情感,人也很难对其产生情感认同。因为人对情感认同有排他性,一般只针对人类本身,甚至还可以缩小为同一国家、同一族群等,因此可能拒绝认同人工智能体的情感。其三,“人机共生”的环境下,如果人类和人工智能体不理解、不认同彼此的情感,两者又如何合作呢?

(二) 康德:道德判断是理性选择的结果

康德的道德义务论将道德判断归结为理性选择。他认为人的善良意志由理性决定,将理性视为影响道德判断的第一要素:“在世界之中,甚至世界之外,不可能设想一个无条件善的东西了”(33)康德.道德形而上学[M].苗力田,译.上海:上海人民出版社,1986:42.。所以,道德判断是基于绝对命令而进行理性思考的结果。密尔同样强调理性是伦理道德的基础,他指出:“我们的伦理能力是我们的理性的一个分支”(34)MILL J S. On liberty and other essays [M]. Oxford:Oxford University Press,2008:330.。如同斯密一样,康德和休谟的判断只有一定的合理性。

因为,根据理性进行道德判断,源于人对道德事实的抽象;但是,道德规则与道德事实只有形式同一性,而在内容上很难直接对接和吻合。当道德事实需要道德规制时,道德规则不会简单而严格地吻合道德事实。毕竟,“道德规则所主张的是一种严格论,它抽离现实中道德的特殊因素,因此,它不能包容不同的道德变化,以此缺少对道德感知和道德敏感性的关切”(35)何宇白.道德判断的困境与赫尔曼的康德式变化[J].北方论丛,2016(6):151-155.。从而,在社会生活中,不同地域、不同文化的道德主体的判断标准存在差异,由于道德情景及道德内容的复杂性,从绝对理性出发来作出道德判断存在困境。

从技术发展来看,根据康德的理性选择论设计人工智能道德体,自上而下地赋予其道德判断能力是重要方式。目前,设计者持有这样的观点,“电脑做出的道德选择从一开始就不受情感所干扰。因此机器就不会受你的暴怒或者性嫉妒这样的情感所劫持”(36)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M].王小红,译.北京:北京大学出版社,2017:61.,因此要抛弃情感,使“无人驾驶汽车和其他人工智能道德主体,特别是具有自主决策能力的道德主体必须根据设计者赋予的道德原理,依据所面对的道德问题,形成合理的道德判断”(37)AMITAI E,OREN E.AI assisted ethics[J]. Ethics information technology,2016(18):149-156.。很明显,抛弃情感来思考纯粹“理性”的道德,是过于简单的方式。因为,任何道德判断都在具体情境中进行,必不可少地包含着情感等非理性因素。如果不考虑这些,人工智能体很难做出恰当的道德判断。

进一步而言,在设计人工智能体道德程序的过程中,“为机器创建一个伦理准则框架”(38)MICHAEL A, ANDERSON S L. Machine ethics[M]. Cambridge: Cambridge University Press, 2011:1.的设想,很难实现。因为,针对不同的道德主体、道德赋予主体和道德事实,道德判断主体的判断依据及判断结果,都会有很大差异,无法统一在一个“大一统”的伦理框架内。只有从宏观方面和微观方面仔细考虑,明确道德的区域性、差异性和情感性,再将这些普遍性和特殊性的道德规范设计成为道德判断程序,才能帮助它们识别道德问题,形成合理的道德判断。

(三) 斯密:道德判断需要公正的旁观者

在美国物理学家伯姆看来,人的思维具有情感性、社会性和文化性,基于人的思维的道德判断,理应是情感和理性的结合。斯密指出:“美德在于服从理性,就某些方面来说是正确的,而就某一意义来说,理性也可以很恰当地被看作是赞许与非难以及所有稳健的是非判断的源头与原理。”(39)亚当·斯密.道德情操论[M].谢宗林,译.北京:中央编译出版社,2009:317.他认为,合理有效的道德判断过程,是公正的旁观者、理性和同情共同作用的过程。为了克服理性和情感自身的弱点,道德判断时内心需要有一个“公正的旁观者”。因为,“没有同情,理性可能是不人道的或者无力的,但是,没有这个公正的旁观者,没有理性判断,同情也是徒劳无益的”(40)侯红霞.亚当·斯密的美德理论[M].上海:上海三联书店,2013:96.。

公正是衡量一个社会合理性的重要因素,是二元的,它希望建构一种平等的关系。追求公正既是人类道德判断的重要部分,又是法律判断的重要部分。这种平等的关系主要是指人和人之间的平等,而很难扩展到人工智能体之中。如果目前人工智能技术都没有足够的能力赋予人工智能体情感和理性,在此情况下,又如何能再为它设置“一个公正的旁观者”角色?而且,公正本身就是人类社会中的复杂问题,在“人机共生”的关系中,公正的问题将更为复杂。

有文献提出,企业需要一种新型的人工智能程序监督,即人工智能伦理辅助监管体。通过这类人工智能体监视、审核其他人工智能体的行为,以保证人工智能机器守法律、有道德、负责任运行,从而为人类提供更好的服务(41)AMITAI E,OREN E. AI assisted ethics[J]. Ethics information technology,(2016)18:149-156.。这个观点,无论从理论还是实践上看都是一个悖论,因为我们的困难本身在于,难以赋予人工智能体道德判断力,又如何能进一步设计出以道德判断力为基础的监督程序呢?此外,在某种程度上,人工智能伦理辅助监管体也否定了人对人工智能体完全的道德判断能力。在“人机共生”的环境中,使用人工智能程序监督,有可能会进一步加剧人和人工智能体之间的矛盾。

(四) 现代道德判断机制理论的复杂性

现代心理学研究认为:“围绕道德判断及决策过程的研究越来越深入和细化,但是道德判断形成的机制一直是学术界争论的热点,尚未形成统一的理论。”(42)李良,李路云.直觉还是推理,道德判断如何形成?[J].心理学探新,2019(4):300-307.这一研究还存在着很大的争议。这些争议也增加了“人机共生”关系中,赋予人工智能体道德判断的复杂性。

其一,在道德动机和道德判断的关系上,理论界存在着内在主义和外在主义的理论,但是,这两种理论之间都无法圆满解释生活中的不道德现象,即一些人可以做出道德判断但没有道德行动(43)杨松.道德判断与道德动机——内在主义与外在主义的理论交锋[J].哲学动态,2018(12):75-83.。在“人机共生”的关系中,人工智能体也会如此吗?

其二,有文献提出,“道德判断和道德动机涉及我们对信念、欲望等概念的理解;而从道德心理学角度来看,道德动机是否由道德判者决定存在争议”(44)王奇琦.道德判断与道德动机[J].求索,2016(12):55-60.。如果人工智能体有了意识、情感和信念,那么,它们和人的意识、情感和意识一样吗?

其三,人们的道德标准是不一致的,甚至个人的选择在不同的具体情境中也不一致(45)李宏翰,温舒雯.道德判断研究的历史、现状和展望[J].广西师范大学学报(哲学社会科学版),2017(4):91-98.,虽然人工智能体中“程序员已经敲进去了那些重要的关乎建立信任和合作的价值”(46)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M].王小红,译.北京:北京大学出版社,2017:23.,由于人们很难理解人工智能体的运行过程,也无法读懂人工智能体的程序运行过程,这些程序是否真正能达到道德判断的作用,依然并不明确,只能通过结果来体现。这也增加了人类赋予人工智能体道德判断的复杂性。

弗罗里迪和桑德斯提出人工智能机器E的伦理标准:(1) 交互性,E与环境互动;(2) 独立性,E有能力改变自身和它的相互作用,而不受外部条件的直接影响;(3) 适应性,E可能会基于(1)的结果而改变在(2)中的实现方式(47)FLORIDA L,SANDERS J W. On the morality of artificial agents[J]. Minds and machines,2004(3):349-379.。设计师可以赋予人工智能主体宏观道德标准,然而,在不同道德情景下,宏观道德标准如何实现,则是重要的问题。根据生活经验,在道德判断的过程中,个体的人不是教条主义者,很难有一成不变的道德标准。所以,道德标准的选择与不同的道德情境、道德问题及其道德判断主体的关注点有着紧密的联系。

总体而言,人的社会活动形成了具有多层次、多功能、多领域、多情感、多态度、多角色、多动机的系统,人的道德判断是在复杂性社会活动中的判断活动;加之,在“人机共生”关系中,道德判断不仅和道德问题、道德情景和道德主体相关,而且和道德动机和道德文化相关。在现实生活中,道德标准既复杂又充满差异性:“从某个特定的道德参照系出发,试图树立所有人接受的公正观念,这是一件十分困难之事”。(48)阿明·格伦瓦尔德.技术伦理学手册[M].吴宁,等,译.北京:社会科学文献出版社,2017:296.因此,目前的道德伦理理论,很难直接给人工智能体的道德设计提供理论依据,而且,以此来寻找合适的理论进行道德编码,同样是复杂的选择问题。正如人总是在情感、理性、公正中徘徊一样,人的道德动机也是漂浮不定的,这让人类赋予人工智能体道德判断能力成为复杂的问题。

三、 解决人工智能体道德判断复杂性的思路

“道德主体是指具有自我意识,能够进行道德认知,能够进行推理并形成自我判断,能够进行道德选择与实施道德行为且承担道德责任的道德行为体。”(49)闫坤如.机器人伦理学:机器的伦理学还是人的伦理学?[J].东北大学学报(社会科学版),2019(4):331-336.人作为道德主体很容易理解,而且每个成年人都被界定为一个道德主体。人工智能体的“道德”不是简单移植人的道德,机器道德是通过程序编码形成和运行的,两者具有本质的不同。在“人机共生”关系中,人们对机器伦理的认识越来越清晰,“机器伦理是重要的,我们想要机器对我们更好。因为机器正在变得越来越复杂,并且使我们的生活更加愉悦,而将来的机器可能自主地去做这些。机器的能力越强就越需要更强的机器伦理”(50)MOOR J H.The nature, importance, and difficulty of machine ethics[J]. Intelligent system,2006,24(4):18-21.。然而,摩尔也认为,对人类对机器人伦理能力的期望不能太乐观。然而,在“人机共生关系”中,机器伦理又非常重要。因此,为了使人工智能体成为具有道德判断能力的主体,我们提出三条供参考的思路。

(一) 技术设计思路:坚持技术自主性和伦理敏感性相融合的原则

尽管只有当一个人工智能体具有充分的自由意志时,才能说它知道什么是伦理冲突,才能是一个真正的道德决策者(51)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M].王小红,译.北京:北京大学出版社,2017:28.;但是,随着大面积使用越来越多的人工智能体,其技术自主性和伦理敏感性的分裂会产生巨大危害。其一,人工智能体的自主性,意味着其行动可能超出程序准则,脱离了控制,因此产生非道德行为。其二,人工智能自主性能力的发展速度,可能远远超过人类赋予其道德判断标准并确保其成为道德机器的速度。其三,为了提升竞争能力,暂时忽视了对人工智能技术自主性的伦理监管。其四,为了获得竞争利益,部分企业可能只关注发展它的自主性技术而忽视其伦理敏感性。但是,如何让机器融合伦理自主性是一个难题。

《道德机器》一书介绍了“自上而下”和“自下而上”的原则。“自上而下”是指在设计AMAs时,选取一个具体的伦理理论,进而设计能够执行这个理论的算法和子系统。“自上而下”的模式隐含地给这些系统嵌入了特定的价值观(52)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M]. 王小红,译.北京:北京大学出版社,2017:24.。这种人造的代码道德,既受伦理理论的复杂性的限制,也受道德技术的提供者、人工智能公司等利益相关者的限制。“自下而上”的进路则类似于儿童大脑的发育,是在一个环境中让机器自己去学习,生成一个道德模型。由于人类对道德的理解和将这些理解变成技术的能力十分有限,因此,在实施中存在诸多困难。因为行为数据具有历史性、社会性,既包含着人类普遍的道德价值,又包含着地域性和文化差异性、道德歧视甚至是道德歪曲等。而且,人的行为数据不是简单的数字,而是在既有经济、文化和社会背景下的行为,体现了不同的道德认知水平。从而,经过这些数据喂养、学习成长的人工智能体,其道德判断不可避免地会有人的痕迹(53)KATE CRAWFORD K, RYAN C. There is a blind spot in AI research[J]. Nature, 2016(20):311-313.。但是,人工智能体是否能深层次理解这些行为数据的意义,并进行加工和再现,尚未可知。

《道德机器》一书介绍的第三种方式是“混合式”的进路。它是“自上而下”和“自下而上”的联合,即通过普遍性的伦理规则,与具体的道德情境相结合来赋予人工道德智能体道德判断能力。这种方式实现起来更加困难,毕竟,人类作为有机体是从生物化学环境中进化而来的,推理的能力形成于有情绪的大脑,而人工智能体在现阶段是在逻辑平台上建立的(54)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M]. 王小红,译.北京:北京大学出版社,2017:61.。同时,经过漫长进化的人,其道德判断能力来源于鲜活的道德事件,这是目前的人工智能体无法比拟的。所以,人工智能自主性技术的发展非常迅速,而获得伦理敏感性则十分艰难。

从人工智能体技术的意义看,所有的研究都要立足于使人工智能体成为道德主体。在“人机共生”的社会,确保人工智能体的自主性和伦理敏感性融合非常重要,这是发展人工智能技术需要坚持的原则。因为,道德判断对社会合作有重要意义(55)李明晖,饶俪琳.解释水平视角下的道德判断[J].心理科学进展,2017(8):1423-1430.,对“人机共生”关系的维护更有重要意义。“随着自主决策技术变得更为普遍,我们设想,未来(软硬件)机器人专家会认识到,他们自己的职业规范使AMAs的发展成为一项势在必行的工程。”(56)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M]. 王小红,译.北京:北京大学出版社,2017:23.这一工程,就是追求人工智能体的自主性和伦理敏感性的融合发展。

(二) 社会治理思路:坚持对人工智能体的合作治理

人们都希望与一个有道德的人工智能体为伴,“如何建构一个好的人工智能社会已经成为技术引领性国家所共同考虑的事项”(57)CATH C, WACHTER S, et al. Artificial intelligence and “the good society”: the US, EU, and UK approach science and engineering ethics[EB/OL].(2017-03-28)[2018-01-04].http:∥doi.org/10.1007/s11948-017-9901-7.。为了达成这一目标,需要坚持对人工智能体进行合作治理,具体要注意以下三个方面的问题:

其一,成立由多元主体构成的人工智能伦理委员会。尽管,学术界和公众对人工智能风险进行了激烈讨论,但各国政府还没有将人工智能的道德风险放在首位,也没有对人工智能道德问题开展全球治理。在差异性条件下,对人工智能的伦理道德限制将妨碍技术创新的观点也比比皆是。为了消除差异性,达到自主技术性和伦理敏感性的融合,有必要成立由多元主体,包括政府、企业、社会组织和学者等组成的人工智能道德委员会。委员会经常性地就人工智能道德的设计进行公共对话,并将对话机制制度化,以此更好地消除伦理失范。当然,这一过程要求多元主体客观中立嵌入进来,理性指引。进一步而言,委员会还需要分领域来开展活动。因为,无论是智能教育、服务、医疗诊断、无人驾驶还是智能潜水器、水下机器人、矿山机器人、自动飞行器或者远程战争机器人,正确赋予其道德伦理能力是必不可少的。有研究者提出一个设想:全世界应该建立一个“国际人工智能道德委员会”,并确保该委员会得到应有的支持并避免受到不当的影响(58)Protect AI panel from interference[J]. Nature,2019,572(8):415.。这一提议确有必要。

其二,加强对人工智能体道德偏见的治理。目前,可能导致人工智能体形成道德偏见的主体主要有三个:一是深度学习的智能体。人工智能体可以通过深度学习来获得道德能力,而“深度学习取决于对一个对代价函数的优化”(59)特伦斯·谢诺夫斯基.深度学习:智能时代的核心驱动力量[M].姜悦兵,译.北京:中信出版集团,2019:320.。由于人类社会到处存在偏见、不平等、歧视、淡漠与对抗,但是,AI不但有强化所习得的偏见的潜能,而且它们不像人可以有意识地去抵制偏见(60)温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M]. 王小红,译.北京:北京大学出版社,2017:I.。二是智能体设计师团队。归根结底,人工智能体的道德判断能力依然取决于“设计师团队”。由于利益的驱动,可能形成部分技术精英控制人工智能体道德判断能力的困境。三是公司或政府。公司以营利为取向,它可能采取一些临时性的举措来消除产品的不道德取向,比如,用暂停键来停止其道德侵害,但企业的逐利取向会导致其行为的短视性;同样,一些政府也可能有类似行动。因此,这就要求政府、企业、行业能自我规制;此外人工智能伦理委员会应积极治理此类的道德偏见。

其三,充分发挥政府的监督职能。在人工智能体生产的合作治理过程中,政府将起到非常重要的作用。作为社会发展的稳定器,政府有义务调整技术发展对社会秩序的冲击,其主要功能是提供法律、规章和制度来约束人工智能生产企业、设计者及其他主体的不良行为;此外,要有效监管人工智能体可能造成或者已经造成的各种伤害。

(三) 伦理规范思路:走向人工智能时代的智慧伦理学

人工智能体获得道德判断能力的复杂性不仅有现实缘由,还有理论缘由。不能回避的问题是,赋予人工智能体道德判断能力时,价值多元问题必然要体现出来。虽然研究和预测人工智能时代伦理规范的走向是很难的问题,但是改变目前思考伦理规范的理论研究思路是一个可探索的路径。在“人机共生”关系中,人工智能伦理理论的发展需要以“关系型”研究为进路。以此为基础,我们提出,人工智能伦理学引向“智慧伦理学”是需要探索的问题。

一方面,在多元价值的条件下,智慧伦理学能够帮助行为者在技术范畴中辨别方向(61)阿明·格伦瓦尔德.技术伦理学手册[M].吴宁,等,译.北京:社会科学文献出版社,2017:263.。智慧伦理学并不创造或建立什么许可和禁令,而是提出看问题的观点,从而认清什么是好的(睿智的和随机应变的)劝告和建议——这里所针对的问题是鉴于特定技术的使能作用,如何对优先权问题进行确定(62)阿明·格伦瓦尔德.技术伦理学手册[M].吴宁,等,译.北京:社会科学文献出版社,2017:263.。

另一方面,智慧伦理学是一种“使能的伦理学”,因为它所思考的问题是,什么可以通过技术来引起我们生活环境的根本改变或为之所固定化,同时,它还对这些情况是否符合人们的愿望进行质疑(63)阿明·格伦瓦尔德.技术伦理学手册[M].吴宁,等,译.北京:社会科学文献出版社,2017:263-264.。这些新的思路可能为“人机共生”关系下伦理学的发展提出新的探索方向。人类社会正在走向智慧社会,智慧伦理学的形成也反映了社会发展的要求。走向智慧伦理学是伦理学研究的巨大转向,也是一个需要理论界着力探索的问题。

猜你喜欢
人机伦理学共生
人机“翻译员”
实践音乐教育哲学中的伦理学意蕴探析
从内到外,看懂无人机
“纪念中国伦理学会成立40周年暨2020中国伦理学大会”在无锡召开
人与熊猫 和谐共生
论马克思伦理学革命的三重意蕴
共生
优生共生圈培养模式探索
优生共生圈培养模式探索
伦理批评与文学伦理学