人工智能伦理将何去何从

2021-11-10 14:32赵晓阳
科学与生活 2021年17期
关键词:未来伦理人工智能

摘要:人工智能并非21世纪出现的新兴概念,早在上世纪50年代就有以人工智能为主题的文学和影视作品问世,畅想着未来人类的生活方式。但自李世石和柯洁两位世界顶尖围棋选手在谷歌阿尔法狗面前折戟,未来人工智能与人类的关系开始变得扑朔迷离、发人深省,人类不再是世界上最聪明的物种,人类的地位似乎会在不远的将来变得岌岌可危。人工智能作为一种新兴事物,其产生与发展正如历次科技革命一样,成为了一种不可逆的历史潮流,人类与人工智能的关系问题也一定会在未来的某日摆在我们面前,成为无法绕行与回避的重要课题。本文将以审慎的视角,回顾人工智能与人工智能伦理的发展过程,分析人工智能伦理的现状,展望人工智能伦理未来可能的发展方向。

关键词:人工智能;伦理;科技;未来

人类与科技的密切关系可以追溯到人类起源,从人的定义——能制造和使用工具来看,工具制造和使用的方法完全可以称之为最源初的科技,人类通过科学认识自然,并通过技术改造自然,在认识自然与改造自然的过程中,科技也逐步完善,发展壮大。如同《人类简史》所描述的观点,“人类利用小麦种植得以果腹,小麦利用人类种植得以延续和扩张”1,由此观之,科技与人类更类似于一种共生关系,科技的进步标志着人类的发展,人类的发展依靠科技的进步。在这种依存关系中,为避免科技所带来的风险而裹足不前显然是不现实的,历史的车轮不可能由于人类的意志而停止,人类也不可能为了规避或然的风险而选择开历史倒车。人工智能纵使伴随着诸多争议,其产生与发展、应用与推广、并最终融入我们的生活却是大势所趋,人工智能走入我们的生活只是时间问题,我们所要考虑的是需要以何种方式迎接人工智能的到来和普及,以及人工智能普及之后,我们需要如何与人工智能相处。

1 人工智能的起源与发展

1950年,马文·明斯基(后被称为“人工智能之父”)与其同学邓恩·艾德蒙一起,建造了世界上第一台神经网络计算机,这被认为是现代人工智能的一个起点。同年,有“计算机之父”之称的阿兰·图灵提出了图灵测试,以判断机器是否具有智能。按照图灵的考虑,如果一台机器能够与人类开展对话,而其交流对象有三分之一无法判断其是否为机器,则这台机器具有智能。他还大胆预测了具备真正智能机器出现的可能性。

1956年夏天,约翰·麦卡锡、马文·明斯基、克劳德·香农等科学家在美国达特茅斯学院开会,商议用机器来模仿人类智能,会议持续了两个月的时间,虽然没有达成共识,却作为会议议题首次提出了“人工智能”这一概念,这是“人工智能”概念的正式提出,1956年也成了人工智能元年。

从人工智能自身的发展程度来划分,学界通常将人工智能的发展分为三个阶段2,其一是属于图灵机概念的AI,亦即可以与人交流,通过图灵测试的AI,其二是等价于人类智能的人工智能AGI(通用人工智能,artificial general intelligence),其三则是全面超越人类智能的高端智能称为SI(超级智能,super intelligence),目前我们应当处于向AGI发展的阶段。不过,这种划分仅仅是从智能程度上来区分。另外一些学者从哲学性质上将人工智能进行了重新划分,以是否具备笛卡尔“我思”特征为标准,提出将人工智能划分为尚未达到“我思”标准的非反思性人工智能,以及达到或者超越笛卡尔“我思”标准的反思性人工智能,称为ARI(artificial reflexive intelligence)。一种观点认为,奇点的标志即ARI的诞生,由于人工智能具备了反思能力,成为了单独的思维主题,它或许有能力对自身的行为进行不断自我修正以实现进化,而这种进化或许是超出人类预期的,甚至是对人类有害的。

从这个视角来看,人工智能技术可以与一切传统科学划清界限,因为既有的科技成果,无论是汽车飞机还是核武导弹,无论是手机电视还是信息网络,其本源是一种工具,而具有反思性的人工智能除具有工具性以外,很可能还具有使用工具的能力,它或许能够决定汽车要走那条路、飞机何时起飞、导弹射向何处,那么回溯到“人”的概念,会制造和使用工具的人工智能应当如何界定呢?

2 人工智能伦理的起源与发展

目前,关于人工智能的伦理尚未单独成为一门学科,但已经有一些学者前瞻性地意识到,人工智能伦理学体系的建立对调整人类与人工智能的关系,规范人工智能的发展方向必将产生积极和深远的作用。麻省理工学院于2020年4月出版了《人工智能伦理学》一书,从技术层面解释了人工智能,并对相关哲学探讨进行了调查研究,或许是人工智能伦理学作为单独学科发展的一个不错的开端。

虽然在人工智能蓬勃发展的今日,人工智能伦理开始备受关注,不过人们关于人工智能伦理的思考却早已存在了半个世纪。

1950年,科幻作家阿西莫夫提出了著名的“机器人三定律”,对人工智能伦理的发展无疑具有深远的影响3,其要求机器人遵守“不伤害”“服从”和“自保”三条行动原则。这些虽然都是一些概要性原则,但我们不难发现其本质是确保AI为人类服务,这个内核在以后数次关于人工智能伦理的讨论中被保留了下来。2017年1月初,在美国加州的阿西洛马市举行的“beneficial AI”会议上,形成了“阿西洛马人工智能原则”4,其6-18条指出了人工智能的伦理和价值,主要包括安全性、故障透明性、司法透明性、责任、价值归属、个人隐私等条款,旨在确保人类在新技术出现时能有效规避其潜在风险。MIT媒体实验室和哈佛大学伯克曼克莱恩互联网及社会研究中心还共同成立了“人工智能伦理和监管基金”,用于解决人工智能所带来的人文及道德问题。次年,微软发表的《未来计算》一书中,提出了人工智能開发的六大原则:公平、可靠和安全、隐私和保障、包容、透明、责任,反观当前的人工智能技术应用,不难感受到微软提出的六大原则直指要害、很有必要。反观当下关于人工智能的种种,大数据杀熟显然违背了公平原则,特斯拉刹车失灵违背了可靠与安全原则,算法黑箱则与透明原则相悖,至于责任原则,国内乃至世界上对于人工智能开发及应用的立法较之技术的发展都显得滞后和无力。

国内较早提出人工智能伦理问题的是百度的李彦宏,在2018年的中国国际大数据产业博览会“人工智能高端对话”环节的演讲中,李彦宏提出了“AI伦理四原则”, 包括:AI的最高原则是安全可控;AI的创新愿景是促进人类更平等地获取技术和能力;AI的存在价值是教人学习,让人成长,而非超越、替代人;AI的终极理想是为人类带来更多自由与可能。作为全国政协委员,李彦宏在2019年的全国政协十三届二次会议上进行了题为《加快推动人工智能伦理研究》的发言。发言中,他就建设人工智能伦理架构提出了三点建议,一是明确人工智能伦理原则,二是强化领军企业担当,加快人工智能伦理原则落地,三是加强国际交流,引领行业发展,凝聚全球共识。

对比国内外的人工智能伦理原则,我们不难发现,安全和平等(公平)都被放在了比较重要的位置,而国外提出的人工智能伦理原则对于透明有着不同寻常的执著,国内却并未提及有关内容。一些资料显示,人工智能借由深度学习而掌握的技能背后的算法,甚至连开发者都并不掌握,使得透明原则成为了一种奢望,这无疑是对人工智能的一种放任,与安全和平等(公平)原则相背离,使“安全可控”成为一句空谈。因此,算法透明无疑是十分重要的,对于其他原则来讲,或许算法透明应当作为优先级更高的人工智能伦理原则。

国内对于人工智能伦理的研究成果在近几年呈现出蓬勃发展的态势,但总体上来看,高水平的研究成果仍然较少。根据中国知网(CNKI)检索结果显示,以“人工智能”“伦理”为关键词的文献从2010年开始出现了较为显著的增长,更是在2015年之后呈现快速增长的态势,其中2019和2020年更是分别达到1115篇和1111篇,但以相同关键词在中文社会科学引文索引(CSSCI)中检索发现,关于人工智能伦理的高水平研究成果全部分布在2017年以后,2017至2020年分别发表1篇、4篇、5篇、10篇,较之上千的基数来讲,占比微乎其微。在人工智能迅猛发展的今天,各界应当对人工智能伦理给予更多的关注,以确保人工智能技术能够持续快速健康地发展,不断为人类创造新的财富与便利。

3 人工智能伦理的发展现状与展望

3.1 人工智能伦理现状

伦理是人伦道德之理,是处理人与人、人与社会之间的关系以及处理这些关系时所应遵循的道理和准则。而伦理学是哲学的一个分支学科,其本质是关于道德问题的科学,是道德思想观点的系统化、理论化,其基本问题是道德和利益的关系问题,即“义”与“利”的关系问题。其主要包括两方面的内涵,一方面是道德和经济利益的关系问题,另一方面则是个人利益与社会整体利益的关系问题。5

前文提到,人工智能伦理可以认为滥觞于上世纪50年代由阿西莫夫提出的“机器人三定律”,而在近几年伴随着人工智能技术的发展与应用,人工智能伦理逐步发展起来,不同的国家,不同的组织纷纷提出了人工智能的伦理原则和规范,例如美国五角大楼提出的“负责、公平、可追踪、可靠和可控”,日本政府提出的《以人类为中心的人工智能社会原则》,欧盟提出的《AI伦理指导方针》,澳大利亚英联邦科学和工业研究组织提出的《人工智能:澳大利亚的道德框架》……其具体内容虽各不相同,本质内涵却大同小异,但这些所谓的伦理规范或框架存在着一个不容忽视的通病——目标太宽泛,操作性不强。较之历史较悠久积淀较丰厚的医学伦理学来讲,人工智能的伦理架构显然容易使人无所适从,例如在医学伦理中有公正的原则,禁止非医学用途的胎儿性别检查就很好地体现了这一点,又比如医学伦理的尊重病人原则,其一个体现就是要求男医生为女性患者检查时,必须有第三位女性在场。而当前阶段的人工智能伦理仅停留在一些基本原则和框架层面,对于实际操作中的规范和要求并没有明确的规定,执行起来自由空间很大,从实际执行效果来看,甚至可能尚不及原始的阿西莫夫机器人三定律。

人工智能伦理的另一个问题是其滞后性,虽然这种滞后性可能一方面是由于人工智能技术的发展过于迅速,但较之其他技术伦理,人工智能伦理仍然显得颇为迟滞,至少从现阶段看,我们并未发现和提出人工智能技术应用的严格禁区。克隆羊多利诞生十年后联合国即通过了禁止克隆人的克隆禁令6,人类基因组草图绘制完成后的第三年,我国科技部和卫生部即联合下发了12条《人胚胎干细胞研究伦理指导原则》。这些存有较大争议的技术从其出现到伦理框架的搭建完成虽也经过了一定的周期,但相较于发展了半个世纪的人工智能技术来讲,其伦理架构无疑更加及时和未雨绸缪。

人工智能伦理的第三个问题是片面性。目前世界上的人工智能伦理规范多为人工智能应用方面的指导原则,而对于人工智能的主体性,以及未来如何与人工智能相处,目前仍多停留在哲学讨论层面,或许随着人工智能技术的不断进步,人工智能伦理也将逐步完善,但在市场经济的大潮之中,面对新技术的诱惑,人类能否保持克制,是否会出现个别狂热分子,谁都没有能力打包票。

3.2 人工智能伦理展望

伴随着人工智能技术的飞速发展,人工智能伦理也必将得到越来越多的关注,近段时间的人工智能伦理的发展将以人工智能技术应用规范为主,其基本原则将与人类的主流价值观相吻合。而随着奇点的逐渐临近,人类也将会越来越多的审视人类与人工智能之间的关系,目前不少前瞻性的作品中甚至出现了人类无机化的预期7,如果人类无机化成为现实,人类与人工智能之间的壁垒将彻底被打破,我们不得不接受人工智能作为我们的一份子。届时,新的悖论将会出现——我们无法以人类的伦理去规范“新人类”的行为。对于“新人类”来说,或许会产生革命性和颠覆性的伦理体系,这是属于“新人类”的伦理。

参考文献:

[1] 尤瓦尔·赫拉利. 《人类简史:从动物到上帝》[J]. 中国民商, 2015(11):63-64

[2] 赵汀阳.人工智能提出了什么哲学问题?[J].文化纵横,2020,{4}(01):43-57

[3] 本刊编辑部.“阿西莫夫三定律”与技术伦理[J].社会科学文摘,2020,{4}(11):1

[4] 商瀑.从“智人”到“恶人”:机器风险与应对策略——来自阿西洛马人工智能原则的启示[J].电子政务,2020,{4}(12):69-76

[5] 何怀宏. 伦理学是什么[M]. 北京大學出版社, 2015

[6] 龚群. 克隆人的问题伦理及其前景伦理[J]. 上海师范大学学报(哲学社会科学版)(04):27-33

[7] 尤瓦尔·赫拉利 . 未来简史[M]. 上海社会科学院出版社, 2010

作者简介:赵晓阳,1992年1月生,男,汉族,河南平顶山人,北京科技大学文法学院硕士研究生,研究方向公共政策分析。

猜你喜欢
未来伦理人工智能
浅谈我国社会工作伦理风险管理机制的构建
2019:人工智能
人工智能与就业
数读人工智能
亲组织非伦理行为研究
亲组织非伦理行为研究
托夫勒引发的“未来”探讨
探究如何着眼未来优化初中数学教学设计
下一幕,人工智能!
非伦理领导对员工职场非伦理行为的作用机制研究