闵 明
(上海师范大学 哲学与法政学院,上海 200234)
随着人工智能的发展,人们对于人工智能的关注与依赖逐渐增多,而在人机交互关系中,人工智能所带来的各种问题也随之增加,如何处理与人工智能的关系成为新的关注点。其中,我们需要解决一些复杂的问题,如人类是否要赋予人工智能自我更新、自我学习的能力?是否要以人类的道德规范来约束人工智能的一切行为?若需要,那么嵌入的道德规范具体内容为何?或者说要以何种道德规范来约束人工智能的一切行为?诸如此类问题层出不穷,而问题的关键还是人类自身如何看待道德的问题,在辨明这一基础性问题之后,才能根本解决发展人工智能遇到的伦理问题,所以有必要以人工智能的伦理问题为切口,回复到对道德问题最原初的讨论中去。
讨论人工智能的应用问题,需要澄清两个基础概念,即什么是人工智能与道德规范。对于前者学界仍处于讨论阶段,概因AI科技的发展还处于初级阶段,很多重大的技术融合与场景应用尚属阙如。尽管如此,我们仍可在现有科技呈现的场域内,对人工智能做出当下概念澄清。何为人工智能?1936年阿兰·图灵(Alan Mathison Turing)提出了关于“图灵机”的概念,其后“人工智能”(Artificial Intelligence,AI)的专业术语首次出现在了1956年的达特茅斯会议上,但直到现在学界未达成对人工智能这一概念的统一定义,美国斯坦福大学的尼尔逊(Nilson)教授认为:“人工智能是关于知识的学科—怎样表示知识以及怎样获得知识并使用知识的学科。”[1]麻省理工大学的温斯顿(Winston)教授认为:“人工智能是研究如何使计算机去做过去只有人才能做的智能的工作。”[2]当然关于人工智能的定义很多,概括来说人工智能是指用人工的方法技术,模仿、延伸和扩展人的智能,实现机器的智能化。从广义的角度看,情感是一种特殊的认识,意志又是一种特殊的情感,广义的人工智能包括狭义人工智能、人工情感与人工意志三个方面[3]。
讨论人工智能的伦理问题,还需明晰什么是道德规范。道德规范就是一定社会认可并确立的用以调整社会道德关系的行为准则,也就是判断、评价人们行为善恶的基本价值标准……道德规范总有特定的客观的社会基础,也体现着特定的社会意愿和意志。[4]道德规范是对人实践行为的约束力量,它某种程度上体现社会总体的规范要求,也体现全体公民对理想人际状态的向往,但是道德并不是天然存在于全体社会成员中的,人们通过社会生活、自我道德修养形成高低不同的德性品质,所以人的道德境界有高低差别,这是文明社会内最实际的道德状态,即道德规范随文明发展不断形成与更新,而人们生长其中,并形成不同的道德品格。
伴随人工智能发展的同时,“人工智能威胁论”也随之盛行。诚然,人工智能为人类带来越来越便捷、高效的生活,但同时隐藏在背后的安全问题也不容忽视,其中一个非常核心的问题在于,人工智能的全部行为是否能以人类现行的道德规范进行约束,在此基础之上是否可以期待其行为符合人类的利益。倘若在人工智能的核心算法中嵌入人类的行为约束规范,那么是否说明人工智能获得了人格确认呢?我们知道,道德可理解为“道理得之于心”,这里的道理是为人伦之理,即“人与人的关系的道理或准则”。[5]伦理道德是用于处理人与人之间关系的道理,当然随着社会的进步,人类对于生存世界的思考不断深入,伦理学所探讨研究的范围也进一步扩大,我们不再拘泥于人际关系,人们不再紧守人类中心主义不放,开始思考如何处理与动物、植物等自然界一切生命的关系问题,在当代,随着人工智能的日益发展,如何合理处理人机关系问题显得尤为迫切。
史蒂芬·霍金、比尔·盖茨、埃隆·马斯克等都对人工智能的未来抱有忧患态度,对于人工智能的作用似乎可以预见,在很多领域中人工智能已经替代人类完成很多高难度工作,问题是如果赋予了人工智能自我学习、完善的能力,人类能否保持对人工智能的控制权呢?而一旦失去控制,人工智能将拥有人类无法达到的优势,最后所面临的将是人与机器之间的战争,电影《终结者》中的情节也非杞人忧天。埃隆·马斯克(Elon Musk)将人工智能称之为“召唤恶魔”,“越来越多的人开始对人工智能带来的威胁感到恐惧。据英国的一项社会调查显示,有将近80%的人认为,在未来的100年以内,人工智能将会对人类的生存产生威胁……霍金则更加直接地表示,在未来的一段时间内,人工智能继续发展,这种重大技术的灾难将会威胁到人类的发展和生存。”[6]比尔·盖茨说:“我属于担心超级智能的阵营。最初机器可以为我们做很多事情,而非超级智能。如果我们能够管理好它,它应该可以发挥积极作用。但是数十年后,人工智能将变得足够聪明,值得我们去担忧。”[7]思想家瓦托夫斯基说:“一方面知道科学是理性和人类文化的最高成就,另一方面又害怕科学业已变成一种发展得超出人类的控制的不道德的和无人性的工具,一架吞噬着它面前的一切的没有灵魂的凶残机器。”[8]这一领域有相当一部分专家学者对人工智能的发展表现出担忧的态度,认为未来AI似乎会完全战胜并取代人类,而几年前引人注目的AlphaGo大败围棋高手柯洁正验证着人们的担忧。
面对这种担忧,人类政府积极制定人工智能的伦理规范,随着伦理学的研究领域渐渐拓宽到人工智能领域,相关的研究文献也越来越多。中国也积极关注并思考构建人工智能的伦理规范。2017年国务院发布了《新一代人工智能发展规划》,规划首次正式提出了“开展人工智能行为科学和伦理等问题研究”,“制定促进人工智能发展的法律法规和伦理规范”。2018年1月,国家标准化管理委员会发布了中国《人工智能标准化白皮书2018》,我国政府已经认识到人工智能发展的种种问题,其中构建人工智能伦理规范问题已经迫在眉睫,而人工智能发展涉及到的学科极为繁复,其中的艰难颇多,在道德哲学视域下,规范人工智能的行为成为需要关注的核心问题。
人工智能产品的各种行为设定首先要符合人的利益,目的在于从根本上要保障人类的安全。技术层面使人工智能拥有道德不是本文所要关注的,我们需要前瞻性地去讨论应当由什么人赋予人工智能以道德规范、赋予人工智能什么样的规范。不论以何种形式使人工智能拥有道德规范,都需要解决这种“赋予”应当由谁来实现的问题,是由智能机器的建造者吗?如果由某一个或者某一群的仍智能建造者来赋予其道德规范,那么所赋予的规范是谁的规范,是建造者所奉行的道德规范吗?前文提到了,社会个体之间是存在着道德差异的,那么如果某一智能机器的制造者的道德与社会存在严重偏差,那么在他手中诞生的人工智能便可能会危害社会。如果将赋予人工智能以道德规范的权利让渡给政府呢?这里需要追问的是,这里的政府是什么政府,是以各个国家为单位的政府,还是一个代表人类全体的政府。众所周知,各国各地区的政府所代表的群体也存在差异,所遵照的道德规范也有所不同,那么若以各国政府为单位,对本国人工智能赋予道德规范,是否会因此而造成人工智能在国别上的对立冲突,所以订立全球的标准是一件尤为重要的事情。
似乎理论上关于人工智能赋予道德规范问题并不是很难,只需要订立全球标准,但只要深究就会发现,统一标准的问题是一件人类数千年都未完成的事情,从伦理学的历史演变轨迹看,目的论伦理学、德性论伦理学、义务论伦理学所追求的最高“善”(好)是不同的,当前学界也未能界定出什么是最高的“善”(好),也就是说“人类的最高目的是什么”我们并不能确定。从个人来说,有人追求物质满足,并以此为最高的善;有人追求名誉,以此为最高善;有人向往精神的绝对平静,并以此为一切行为的最终归宿……可以说因为个体的差异性,所以我们并不能界定出一个总的道德原则,也不能以此形成所有人都遵行的道德规范体系。所以难点就在于,我们需要安全的使用人工智能来服务人类,但是我们却并不能制定出一致认可的用于限制人工智能算法行为的道德规范。
阿西莫夫在其《我,机器人》一书中提出了“机器人三定律”:第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。后来意识到三定律的漏洞,阿西莫夫又添加了第零定律:机器人必须保护人类的整体利益不受伤害。如前所述,道德规范本身难以形成全球标准,三定律中提到的人类整体利益也是难以界定的,以“电车难题”为例,一个人和几个人的利益谁高谁低难以简单界定,所以归根到底还是要回到道德规范的制定上。
即使我们解决了道德规范的统一问题,那么接下来还要面对一个棘手的问题:在同一道德体系之下,还存在不同规范之间的冲突问题,这便是我们经常遇到的“道德困境”。面对道德困境,需要丰富的实践智慧帮助我们进行道德选择,而良好的道德选择便是儒家所说的达致“中道”。比如上面提到的“电车难题”,在面对个体与群体利益冲突时,人工智能应当如何选择?如果更进一步加强选择的难度,在1位知名科学家的生命和5位普通民众的生命之间,应该如何选择?我们知道,功利主义者是追求绝大多数人的幸福主义,一般意义上说,利于群体的行为具有更高的优先级,行为最后结果的好坏成为判断依据,那么在赋予了智能机器这样的道德规范之后,用不正当的手段(这种手段是与义务论者、美德主义者相违背的)带来利于多数人的结果是否也能被接受?其本质还是道德规范之间的冲突问题。那么人工智能能否做出正确判断,而这种正确是基于什么样的判断标准呢?人类是否能承受人工智能做出自主行为选择的后果?再举一个极端案例,当人工智能判断当下的地球人口数量过巨,不能支撑人类的生存繁衍,那么基于人类整体,就会出现人工智能通过屠杀一部分人类以实现理想人口数量的情况。可以预见的是,以上情形如果是基于功利算法并非不会出现。所以说规范本身的订立是一个极为艰巨的任务,人工智能所涉及的学科又是如此的复杂,这为人工智能的发展带来巨大难题。
其一,人工智能所当遵循的道德规范不可能是某一个人或者某几个人来确定,所以必须订立适用于一定范围的标准。无论是基于义务论判断,还是基于功利主义判断,亦或是基于美德论判断,我们都应当根据不同群体需要,制定出针对人工智能的标准,毕竟相对于制定人类统一的道德标准来说这要容易得多。否则,产生于不同利益群体的人工智能也会形成“派别”,结果是为各自背后的人类群体的利益而“各行其是”。当前全球竞争态势下,我们并不奢求于达成具有普世意义的道德规范体系,但是因为人类所共通的道德情感(“同情”概念),使得我们可以达成某些普遍认可的道德准则,比如人们都有追求“美好”生活的意愿,从这一意义上来看,我们能够有边界地制定出广泛认可的AI行为准则(虽然不是全部意义上的行为准则)。
其二,我们还应该思考能否开放人工智能在道德领域的自我学习与自我更新能力。有学者提出:“如何培养人工智能伦理,使它具有可靠性,应当采用心理学家的方法——让人工智能意识到自己,还有人类的环境,然后让其接触日常生活中错综复杂的道德问题,以此来获取经验,逐渐形成人工智能的伦理化。”[9]似乎人工智能可以通过学习获得人类的道德规范,但这一想法无疑是难以实现的。倪梁康认为:“建立在后天习得基础上的道德判断,只能是先天道德本能的补充”,人的“本性中一开始就蕴涵着善的能力”。[10]人具备一种道德本能,而这种本能是AI难以先天拥有的,在此理论基础上,即使AI具有道德的学习能力,也难以发展出人类的道德情感。“先进的机器一旦出现,其自身的进步将传给其余AI(人工智能):它们也将指数式进步。”[11]基于人类社会的安全性考虑,我们极有必要对人工智能的行为加以把控、约束。越来越多专家试图使AI拥有人类的思考方式,以使智能机器是用于服务而非危害人类,而一旦赋予人工智能以自主选择行为的能力,使其可自主定义行为,这将会带来前所未有的混乱,因为我们并不能在技术上保证人工智能自主所学后产生的行为皆有利于人类,所以这样的做法非常危险且应当禁止。因为技术上的复杂性,开放人工智能的自我学习,会导致整个人工智能伦理化的不可控,极端状况下可能会给人类带来灭顶之灾,人工智能作为人类智慧的产物,不应该游离于人类控制之外。道德属于人类所有,就目前的科技来看,再逼真的模仿终究难以脱离机械属性,故而应该否定AI道德的自主获取,将AI的行为规范设定交由人类完成。
人工智能归根结底是人化物,一切研究的出发点和应用归宿都应该是人类自身,如果单纯追求技术进步,而不去考虑人类自身的发展、存续,那么这才是真正地打开了“潘多拉魔盒”。虽然人工智能延展了人的感官,使人们开始讨论后现代中新的生存样态,也为未来社会建构提供全新的可能,但蕴含在人工智能技术中的伦理问题当是最先在的问题,不应该是技术发展迫使我们进行相关谈论,而是需要我们前瞻性地在科技发展过程中就给出符合人类利益的解决办法。人工智能的伦理问题归根结底是人类自身如何对待道德的问题,它的发展方向取决于是否达成群体性道德共识,并使之应用于人工智能技术之中。科技本身也有道德,因为背后的人是道德的人,是存在于现代文明中的人。人工智能对现代化的推动无可置疑,但其应用边界、行为的标准等问题尚需进一步讨论。