人工智能设计的道德意蕴探析

2021-04-15 01:01:45闫坤如
云南社会科学 2021年5期

闫坤如

人工智能正在引发继蒸汽革命、电力革命、信息革命之后的第四次革命。人工智能革命既是科技革命,也是社会伦理实验;既是社会革命,也是认识论革命。人工智能正在改变着人类认知,重塑人与自身以及人与世界之间的联系。人类是否能够设计出具有思维的机器进入了人工智能专家的视野,设计的机器是否能够嵌入人类价值也引发人们思考。价值并非经验性描述,价值往往不是描述性陈述,而是规范性陈述,价值依赖于人类生存的人文环境,包含了人类的价值观。人工智能设计也不是简单的结构—功能关系,其中蕴涵了人类价值。2017 年,西蒙(J.Simon)在《价值敏感设计与负责任研究与创新》中提出:“明确地说,我们并不否认有必要研究技术中蕴含的价值观,以及设计和构建具有符合人类利益的价值观的技术的重要性。”①Simon,J.“Value-sensitive design and responsible research and innovation,”in S.O.Hansson ed.,The Ethics of Technologymethods and Approaches,London:Rowman &Littlefield.2017:pp.219-235.

一、人工智能设计蕴涵价值

(一)人工智能设计嵌入了主体价值

设计是为了达到主体目的创造出新的人工物的活动,人工智能设计是为了达到主体意愿创造出会思考、能推理、能自主学习、甚至能够具有情感的智能机器的活动。人工智能设计目的是设计出智能的技术人工物——机器。人工智能专家西蒙(Hubert A Simon)提出:“(设计)考虑的是人工物(artifacts)应该是怎样的,也就是什么样的人工物才能实现目的,才能发挥其作用。”②Simon H A.The sciences of the artificial,Cambridge:MIT press,1996:pp.4-5.人工智能设计是为了达到主体目的的活动,它以设计主体的事实认知与价值评价为基础。在设计主体看来,人工智能不仅仅局限于制造简单的机器,从图灵开始就意图设计出“会思考”的机器。不同研究背景的人工智能专家从不同视角设计智能机器,以钮厄尔(Allen Newell)、西蒙等人基于符号主义(symbolicism)进路,用符号系统模拟人类智能活动来设计机器;以鲁梅尔哈特(David Everett Rumelhart)和桑代克(Edward Thorndike)等人为代表的联结主义(connectionism)进路主要的研究方向是人脑的神经网络,人脑的神经元是人类认识自然、发展知识的基本物质结构,认识的基本过程是神经元对外界信息进行分析和处理的过程,联结主义的理论预设是同样结构具有同样功能,人工智能的行为由算法结构来决定;行为主义(actionism)的主要代表是维纳(Norbert Wiener),主要研究方向是计算机如何模拟人类的各种控制行为。人工智能专家不管从哪种进路出发,都通过对人类行为的模拟来设计、制造机器,因此,为谁设计机器、设计什么样的机器、设计的机器具有何种功能都依赖于设计主体。机器并非价值中立的,人工智能的设计包含了设计主体意愿,主体价值受主体信念、知识背景、社会价值等主观价值的影响。人工智能设计涉及利益相关者之间的利益协调和博弈。人工智能致力于制造出会思维的机器,特别是制造出具有类人智能的机器,这样的机器蕴涵主体价值观,人工智能设计更关涉人类价值取向。

(二)社会价值观影响人工智能设计

社会价值观念会影响人工智能的设计。如中世纪之前,欧洲人信仰天主教禁止解剖,阻碍医学技术发展,人类价值观影响了技术的发展。手机的智能化影响交通安全,在智慧设计中必须考虑到安全性的社会价值。社会公平性的价值观念也会影响技术设计。人工智能领域一般遵守长期以来制定的研究伦理行为规范和指南,如计算机编程规范、传统伦理的公平性、安全性、隐私观等问题,但人工智能作为新技术带来新的伦理观念和价值观念的改变。人工智能的两个要素是算法和数据,算法一般是基于数据驱动的,数据是人工智能时代的重要资源。因此,人工智能技术需要搜集人类数据,引发人类对于隐私权的关注,人工智能时代人类隐私权增强了。2019 年,美国旧金山市颁布《反监控条例》(Anti-surveillance Ordinance),发布了人脸识别技术禁令,全面禁止使用人脸识别技术。如果每个城市都禁止人脸识别的应用,将会阻碍人工智能识别算法的发展。在汽车设计中,不同时代考虑也不相同,汽车设计在内燃机动力时代主要考虑快速、便捷,现在汽车设计主要考虑安全、舒适。不仅如此,汽车设计安全性受时代价值的影响,根据西姆斯(Simms C)和伍德(Wood D)的研究,汽车一开始考虑驾驶员安全,后来因为汽车责任归属的变迁,汽车撞人需要驾驶人员承担责任,因此,汽车设计也要考虑行人或者他人的安全。①Simms C,Wood D,Pedestrian and Cyclist Impact,Dordrecht:Spring Netherlands,2009,p.166.社会的价值观影响人工智能设计,现在的无人驾驶汽车要充分考虑乘客和行人的安全。因此,在人工智能设计中必须考虑到设计蕴涵的价值,即使最简单的机器也涉及伦理问题,扫地机器人可以自动清洁房间,但也会面临道德挑战:抽成真空来杀死虫子还是绕开虫子或者赶走虫子呢?这就需要设计者在设计之初就要进行价值判断才能有合乎伦理的设计理念。自动服药机器人如果强制让病人服药则干涉病人的自由;如果不强制服药,则危害健康。这些都依赖于设计者的道德决策,在设计之初也须考虑伦理问题,即使简单的机器也并非价值中立的,如果使用一组不恰当的价值观作为设计行动的基础,那就是机器作恶的“罪魁祸首”。

(三)人工智能技术具有价值导向性

人工智能技术具有价值导向性表现为人工智能技术促进社会价值观变革。技术改变了人类的价值观。如避孕药技术的出现改变了有关“性”的价值框架,它让性与生殖之间失去必然联系。技术进步也会导致人类价值观的改变。鲨鱼泳衣和兴奋剂在体育赛事中的应用引发人类对于比赛公平性的思考;B 超的发明与应用,使得腹中胚胎清晰可见,这种技术让人类观察到胎儿具有生命体征,可以观察到胎儿会根据孕妇的行为做出相应的反应,在很多国家和地区把胎儿作为独立的法律主体和道德主体,随意堕胎有悖道德,也违反法律;等等。“技术破坏了道德惯例,而道德惯例又引发了道德反思和讨论,从而产生或不产生新的道德规范,”②Swierstra T,“Nanotechnology and technomoral change,”Etica e Politica,Vol.15,No.1(2013)pp.200-219.社会价值观念会影响技术发展,如基因编辑除了技术的不确定性、脱靶的后果不可知、不可控之外,基因编辑也会导致人与人之间的不公平,因此,很多国家不支持对人类进行基因编辑。技术改变人们对世界秩序的认识以及人类在世界秩序中的地位的既定认知方式。X 光技术的发展让人们意识到肺中的焦油和肿瘤,人工智能技术的发展揭示了吸烟和癌症之间的统计关系,使得人类认识到吸烟的危害。技术进步也会导致人类价值观和伦理规范的变革。随着社交软件的流行,人们的隐私观念正在发生变化,B.Debatin 等人通过对美国人的调研发现,Facebook 的使用已经导致人们对隐私的态度更加宽松。①Debatin,B.,Lovejoy,J.P.,Horn,A.-K.,&Hughes,B.N.,“ Face-book and online privacy:Attitudes,behaviors,and unintended consequences,”Journal of Computer-Mediated Communication, Vol.15,No.1(2009),pp.83-108.在人工智能时代,社交网络用户热衷于晒家庭住址、旅游地点、收入以及其他的个人隐私。1980 年,英国学者科林格里奇(David Collingridge)提出科林格里奇困境(Collingridge Delimma),它指的是某项技术发展的后果在初期难以预测,人们不知道它将如何影响社会。平板电脑、手机本来为了便捷,结果引来生活方式的改变;计算机本来是为了数据处理迅速,却带来生产方式的变革;等等。技术会影响价值,价值又会促进或阻碍技术的发展。

人工智能技术带来新的伦理问题,同时也会促进道德意识的变革、道德规则改变,甚至道德主体的变革。随着机器人自主性增强和自我推理、自我决策能力的提高,一旦人工智能具有了自我意识、能够承担独立的责任,道德的主体范畴是否将不仅仅局限于人类,还会拓展到机器呢?机器权利如何保障?机器人必须承担哪些责任呢?不管是人工智能技术发展带来的道德标准的改变,还是道德主体的重新定义与思考,都是人工智能发展带来的结果。技术影响人理解世界,以及人如何与世界互动。社会价值具有动态性,技术常常改变人们用来评估它们的价值框架。人工智能设计应该能够考虑到主体价值和社会价值观,更要明确其中的道德和伦理因素。人工智能在社会中的地位是一个规范性问题,而不是描述性的伦理问题,从人工智能设计之初,就应该规范人工智能技术的发展。

二、人工智能蕴涵价值的设计进路

对于人工智能设计关注的是人的道德还是物的道德呢?学界具有不同意见,对于人工智能的设计,应该从两个层面进行分析:第一,人工智能算法设计者的伦理规范(人的道德);第二,设计的智能机器的价值导向(物的道德)。对于物的道德,指的是设计的机器这个人工物具有道德约束作用,让机器来调节和规范人类遵守道德,或者人类授权机器具有某种道德,承担某种责任。人工智能力图于制造能够思维的机器,可能具有道德主体地位,可能既具有人的道德也具有物的道德,被称之为机器道德(Machine ethics)。下面就从人的道德和物的道德以及机器道德这三个层面来分析人工智能蕴涵价值的设计进路。

(一)设计者的价值敏感性设计理论分析

美国的弗里德曼(Batya Friedman)关注计算机系统设计中的人为因素,1992 年他与卡恩(Kahn P H)在论文《人类主体与负责任计算:计算机系统设计启示(Human agency and responsible computing:Implications for computer system design)》中提出“价值敏感性设计(Value Sensitive Design)”方法②Friedman B,Kahn P H,“Human agency and responsible computing:Implications for computer system design,”Journal of Systems &Software, Vol.17,No.1(1992),7-14.,他们主张应该在设计中系统全面地考虑人类价值,如人类福祉、人类尊严、隐私安全、公平公正等。他们关注信息系统设计,提倡在人机交互领域的设计中嵌入道德价值,全面系统地考量设计中的人类价值,“价值敏感设计是一种基于理论的技术设计方法,在整个设计过程中以一种原则和全面的方式考虑人类价值”③Friedman B,Kahn P H,Borning A,“Value Sensitive Design and Information Systems,”in the Handbook of Information and Computer Ethics, John Wiley &Sons,Inc,2006,pp.69-101.。弗里德曼在其伦理的基础上提出设计的“三重方法论”,即概念性方法、经验性方法和技术性方法,该方法可以为人工智能技术设计过程提供借鉴。首先是概念性方法,需要哲学家和伦理学家的介入,主要解决在人工智能技术的设计环节中经常出现的伦理冲突和价值取向的次序问题;其次是经验性方法,在人工智能技术的设计环节,需要通过多种方式获得社会因素对于该项技术的具体期待和要求,以避免出现设计目的与需求的偏离,在人工智能技术的运行阶段,要考虑技术设计的目的是否满足了实际需求,这是沟通技术设计者与社会因素的关键环节,双方可以建立有效的对话,以明确传递和表达各自不同的诉求,减少设计偏差和设计失误;再次是技术性方法,指的是通过专业的技术设计将取得的经验转化为技术可以读取的逻辑数据,它是概念性方法与经验性方法最终在技术层面的体现。人工智能技术在技术层面面临的数据泄露、算法权力本质上仍是技术发展不全面的问题,而通过概念性方法与经验性方法可以完善技术的发展。价值敏感性设计的三种主要方法并不是单一存在的,而是共同作用的。弗里德曼认为“在设计过程中,以一定的原则和系统性方法来解释人类价值并保障价值的实现”①Friedman,B,Kahn PHjr,Boming a value sensitive design:theory andmethods, Washington,D.C.:University of Washington,2003,pp.1-25.。在人工智能的设计中,人工智能的设计者应该预测到设计的机器可能带来的社会影响和伦理问题,在设计之初,评估人工智能可能带来的一些伦理问题或者经过人工智能协会的伦理审查,对人工智能技术进行哲学反思,通过人工智能设计者的专业设计,协调不同人工智能主体的利益诉求,确保设计出来的机器合乎伦理规范。

(二)“物道德”中的人工智能设计方法

技术哲学家安德鲁·芬伯格(Andrew Feenberg)将技术的本质界定为两类:工具论(instrumental theory)和实体论(substantive theory)。工具论认为技术是价值中立的,不负载主体价值和社会价值,技术工具论者支持在人与物之间进行一种严格的划分:人可以成为道德分析的主体,而物则不能,而实体理论认为技术是独立于人的实体,具有价值负载。一些技术哲学家沿袭技术实体论的观点,认为技术设计的人工物具有道德调节作用。拉图尔(B.Latour)提供了一个关于人与技术互动的视角,他认为不管是警察还是减速带都能让司机减速,因此,影响人的人与影响人的技术之间的差异变得无关紧要。拉图尔认为人类把责任“授权”给人工物才使得人工物具有了道德责任。司机在减速带前会减速,否则会损坏汽车,也可能伤害到乘客的背部。所以,人类赋权给减速带让司机减速的责任,道路上的减速带也被称为“熟睡的警察”②Latour,B.Pandora’s Hope:Essays on the reality of Science Studies. Cambridge,mA:Harvard University Press.1999,pp.186-189.,与道路上的交警发挥着同样的道德调节作用。因此,技术不仅仅干扰行动,而是影响人类行动的理由。

荷兰后现象学技术哲学家维贝克(P.P.Verbeek)继承美国技术哲学家伊德(Don Ihde)的技术意向性与拉图尔的行动者网络理论,提出“道德物化(Materializingmorality)”思想,他在《道德物化:设计伦理与道德中介(Materializingmorality—design ethics and technologicalmediation)》③Verbeek P P .“Materializingmorality -Design ethics and technologicalmediation,”Science,Technology and Human Values, Vol.34,No.3(2006),pp.361-380.中阐释了“物道德”观点,他认为技术作为人与世界的中介具有道德调节作用,主张把抽象的道德理念嵌入到具体的设计过程中,让设计出的技术人工物具有道德调节作用。如减速带可以让司机养成刹车慢行的习惯、投币使用的超市手推车让人们养成整齐排列摆放的习惯等等,通过设计来培养使用者的良好习惯,从而起到道德约束作用。维贝克认为设计师通过将道德规范嵌入到技术人工物来提出和回答道德问题,而且这些道德规范可以对用户的道德生活产生影响。密勒(J.Millar)也坚持“物”具有道德调节作用,“设计师、人工物和使用者之间存在着复杂的道德关系。设计师可以将道德规范嵌入到人工物中,为道德问题提供实质性的答案。”④Millar Jason,“Technology asmoral Proxy:Autonomy and Paternalism by Design,”IEEE Technology &Societymagazine, Vol.34,No.2(2015),pp.47-55.福格(B.J.Fogg)沿袭物具有道德规范作用的观点,提出劝导技术(persuasive technology),提倡利用计算机和软件来影响人们的想法和行为,“当被视为社会行为体时,计算机产品可以利用这些社会影响原则来激励和说服人。”⑤B.J.Fogg.Persuasive technology:using computers to change what we think and do. ACM,2002,p.90.人工智能领域的设计在讨论人工智能体成为道德主体(moral agents)的标准和条件的同时,也要多关注设计出具有道德调节作用的智能体。

(三)机器道德中的人工智能设计方法

最初的机器是工具,是人类器官的投影,手机是耳朵和嘴巴作用的延伸,汽车是人腿作用的延伸。人工智能如果处于弱人工智能阶段,便是工具的延伸,如果处于强人工智能阶段,机器不是简单的工具,智能机器是人脑的延伸。目前的人工智能技术发展处于弱人工智能阶段,机器不具有思维能力。在强人工智能阶段,机器能够思考,这个阶段的伦理问题比较复杂,设计这样的机器也涉及更多伦理问题,“制造会思考的机器的可能性可能引发一系列的伦理问题,这些问题既与确保机器不伤害人类有关,也与其他道德上关联的存在者有关,也与机器本身的道德地位有关”①Bostrom N,Yudkowsky E,“The Ethics of Artificial Intelligence,”in Frankish K,Ramsey W.eds.,The Cambridge Handbook of Artificial Intelligence,New York:Cambridge University Press,2014,pp.316-334.,这既涉及机器是否是道德主体的讨论,这也涉及道德主体标准的界定,这还涉及人工智能与人类智能的区别问题。研究以人为核心的伦理还是以机器为核心的伦理是区分机器伦理与机器人伦理的重要标志,机器伦理(machine ethics)研究是以机器具有了道德主体能力为前提的,以道德主体(moral agents)标准的讨论为核心内容。机器人伦理(robot ethics或者是roboethics)以机器人设计者的伦理规范为前提,讨论设计中的伦理问题。人工智能是潜在具有人类智能的机器,在弱人工智能阶段,机器的属性是工具的延伸,这个时候的机器负载着人类价值,智能体也具有道德约束作用,因此,人工智能设计者应该在设计之初就具有价值敏感性,把人类价值嵌入到设计出的智能体中,使得设计的智能机器具有道德约束作用。当人工智能技术能够提供类似人类的智能时,便不得不考虑给予它们权利。“无论程序的机械特性在多大程度上是透明的,人们都会把机器人当作不仅仅是工具。”②Prescott,T.J,“Robots are not just tools,”Connection Science, Vol.29,No.2(2017),pp.142-149.机器不仅可以像人一样感知、思考,可以模拟人类行为。机器甚至可以自主的思考,可以智能的感知、控制、理解和执行,这样的机器就不仅仅是工具,而是具有道德调节作用的道德主体。在设计人工智能机器时,应该考虑到它是否具有道德主体地位,然后再利用不同的设计方法来设计。

三、人工智能的合乎伦理设计

设计的研究对象是物,伦理学研究的对象是人。设计伦理就是研究人在创造新的人工物中的伦理规范。如果人工智能设计的约束对象是人,那就需要对设计者的行为规范进行约束;如果人工智能设计的约束对象是物,那就对设计出的机器及其影响进行规约。因此,人工智能合乎伦理设计应该基于三个层面进行分析:第一,设计者的规范,通过提倡设计者的责任与设计师群体的规范来实现;第二,设计的人工物规范,应该基于对人工智能技术发展的经验性的观察,考虑设计过程本身的动态性并探讨该语境下设计出的机器的伦理问题。

(一)提倡人工智能设计者的责任

对于设计者的责任,应该区分不同语境下的责任。2018年,荷兰代尔夫特理工大学的学者迪格纽姆(Virginia Dignum)在《人工智能伦理》对“经由设计的伦理”(ethics by design)、“设计中的伦理”(Ethics in Design)和“为了设计的伦理”(ethics for design)进行了区分③Dignum V .“Ethics in artificial intelligence:introduction to the special issue,”Ethics &Information Technology, Vol.20,No.1(2018),pp.1-3.。其中“经由设计的伦理”指的是“将伦理推理能力作为人工自主系统行为的一部分进行技术或者算法整合”,特指的人工智能设计中的伦理理论反思;“设计中的伦理”指的是“当人工智能系统整合或取代传统社会结构时,支持分析和评估其伦理含义的监管和工程方法”。指的是人工智能系统中的分析方法;“为了设计的伦理”指的是“确保开发人员和用户在研究、设计、建造、使用和管理人工智能系统时的完整性的行为准则、标准和认证程序”。上述三个部分都应该包括在人工智能的设计伦理范畴之内,其中“为了设计的伦理”指的是人工智能设计师为了合乎伦理设计必须尊重的规范、追责和标准,也就是人工智能职业标准、职业准则和认证程序等。“经由设计的伦理”和“设计中的伦理”指的是设计中的理论与方法,关注的是设计者或者自动机器对其决策的伦理方法进行推理的能力所需要的方法、算法和工具等,确保机器在给定的伦理范围内活动。人工智能伦理关注设计者的责任,关注设计者制造的机器可能带来的社会影响和伦理变革。设计师个人伦理强调个体的责任和美德,设计师群体伦理强调设计的后果与正义。2015年,塞西(Sethy S S)在论文《设计伦理:工程伦理教育(Ethics in Design:Teaching Engineering Ethics)》①Sethy SS,“Ethics in Design:Teaching Engineering Ethics,”contemporary Ethical Issues in Engineering,2015.中探讨工程师将对人的理解融入到他们的技术创新中,以及在技术设计中涉及的一些风险、责任和社会价值,还讨论了在工程设计过程中纳入社会道德价值观的重要性以及在机械工程中遵守职业道德规范的优势。人类为算法承担责任,人类是算法设计者,算法的后果自然由人类来承担。乔安娜·布莱森(Bryson,Joanna J)在《道德受体不是美德:智能系统和伦理体系的设计(Patiency Is Not a Virtue:The Design of Intelligent Systems and Systems of Ethics)》中提出“人工智能在社会中的地位是一个规范的问题,而不是描述性的伦理问题”②Bryson,Joanna J,“Patiency is not a virtue:the design of intelligent systems and systems of ethics,”Ethics &Information Technology, Vol.20,No.1(2018),pp.15-26.。设计者应该对于设计的机器负有责任。数据和算法是人工智能的两个基本要素,算法黑箱导致算法歧视和偏见的出现。人工智能系统的行为可能会导致意想不到的负面后果,除非它们的目标与人类的利益准确一致。设计者应该提前评估机器风险,尽量规避人工智能技术本身的风险以及使用风险等,人工智能设计者应该具有责任意识,使人工智能的行为与设计师的目标直接一致。人工智能设计者应该对机器可能带来的后果负责。

(二)发挥人工智能职业协会的伦理作用

为了规范人工智能合乎伦理的发展,不同国家、行业协会或者企业制定了人工智能的职业准则与标准,来规范人工智能工程师的行为。“据不完全统计,迄今为止国际上由不同国家、机构和团体公布的人工智能和机器人伦理标准文件已多达50余份。”③北京大学国家机器人标准化总体组编著:《中国机器人伦理标准化前瞻(2019)》,北京:北京大学出版社,2019 年,第1 页。2015 年,美国电气与电子工程师协会首次提出“合乎伦理设计”(Ethically Aligned Design,也有学者译为“伦理基准设计”,简称EAD)理念;2017 年12 月14 日,IEEE 发布《合乎伦理设计:利用人工智能和自主系统优化人类福祉的愿景》,主动解决人工智能和自主系统设计中的伦理问题;2018 年,欧盟执行《通用数据保护条例(GDPR)》提出数据保护的风险评估模型;2016 年,英国标准学会(British Standards Institution)通过《机器人和机器人系统的伦理设计指南》;2018 年,新加坡政府设咨询委员会,探讨使用人工智能与数据的道德标准;印度研究人工智能应用可能产生的问题,并计划设立道德委员联合会,以制定有关隐私、安全和道德的行业特定准则等;2019 年4 月,澳大利亚工业创新和科技部颁布《人工智能:澳大利亚的伦理框架》。2018 年,欧盟发布了《可信人工智能伦理指南草案》,该指南提出一个可信人工智能框架,强调伦理规范性和技术健壮性;2019 年,世界经济与发展组织成员国采纳了首个由各国政府签署的AI 原则,即“可信赖人工智能的负责任管理原则(Principles for responsible stewardship of trustworthy AI)”,成为首个人工智能治理方面的政府间国际共识。2019 年4 月,中国国家人工智能标准化总体组通过《人工智能开源与标准化研究报告》和《人工智能伦理风险分析报告》两个政策性文件,对人工智能算法风险、数据风险以及人工智能引发的社会伦理风险进行分析,为了保障人工智能的安全应该对人工智能伦理风险进行定期评估,提出人工智能开源与标准化联动的思考。2019 年,腾讯研究院和腾讯人工智能实验室联合发布人工智能伦理报告《智能时代的技术伦理观——重塑数字社会的信任》,倡导“科技向善”,报告提出人工智能技术发展需要价值引导,提出人工智能的“四可(ARCC)”理念,即可用(Available)、可靠(Reliable)、可理解(Comprehensible)、可控(Controllable)的人工智能技术伦理理念。不同职业组织和设计群体提出职业规范或者职业准则来规范人工智能发展,使得人工智能设计合乎伦理的规范。

(三)保证设计的人工智能机器安全可控

人工智能伦理是一个工程伦理,安全是人工智能设计的首要之义。按照皮特森(Petersonm)的观点,“人工智能伦理中的一个基本问题可以表述为一个价值取向问题:我们如何构建与社会持有的价值观相一致的自主人工智能。”①Petersonm,“The value alignment problem:ageometric approach,”Ethics &Information Technology, (2018),pp.19-28.人工智能合乎伦理设计就是要设计安全可控的人工智能机器。

首先,保证人工智能设计的安全性。要保证人工智能技术的安全性,就要在设计之初对人工智能技术本身可能潜在的风险进行合理评估,尽量规避人工智能技术风险;对技术自身存在的风险、技术对于人类的危害、技术对于社会的负面影响等进行充分的评估,如果这项人工智能技术的应用弊大于利,则这种机器将禁止制造出来危害人类。强人工智能阶段,人工智能具有自我推理、决策能力,具有与人同样的自主性,因此,设计的机器应该自主地分辨信息,“构建一个道德人工智能的技术挑战在于,它能够在给定上下文中的大量可用信息中有效地区分道德相关信息和道德无关信息。”②Cave S,Nyrup R,Vold K,et al.,“Motivations and Risks ofmachine Ethics,”Proceedings of the IEEE, Vol.107,No.3(2019),pp.562-574.并把这些信息转化为道德代码,嵌入到人工智能设计中。但如何把人类道德嵌入到机器中是一个难题,“用一整套人类价值观对人工智能进行编程将被证明是一项极其困难的任务。”③Yudkowsky,Eliezer,“Artificial Intelligence as a Positive and Negative Factor inglobal Risk,”Global Catastrophic Risks,2008,pp.308-345.2019 年,宾夕法尼亚大学计算机与信息科学系的教授(Michael Kearns)和(Aaron Roth)在《伦理算法:社会感知算法设计的科学(The Ethical Algorithm:The Science of Socially Aware Algorithm Design)》一书中提出:“仅仅将我们所关心的社会价值形式化并将其设计成我们的算法是不够的。”④Michael Kreans,Arron Roth,The Ethical Algorithm:The Science of Socially Aware Algorithm Design,Oxford:Oxford University Press,2020,p.8.一方面要审查人工智能的道德问题;另一方面要为人工智能的设计制定具体的道德准则和建议。荷兰技术哲学家珀尔(Poel I V D)认为“在设计中实现价值的一种方法是将其转化为规范和设计要求”⑤Poel I V D,“Translating Values into Design Requirements,”in Philosophy and Engineering:Reflections on Practice,Principles and Process.Springer Netherlands,2013.。根据具体的规范设计合乎伦理的智能机器。

其次,保证人工智能使用安全。设计的智能机器对于人类来说是安全的,机器不能伤害人类,甚至威胁人类生存。人工智能设计问题是一个工程伦理问题,工程的第一要务是安全性。设计的人工智能机器不能威胁到人类存在,不能对社会的公平、正义、和平、稳定造成危害,更不能对环境和生态造成危害。设计的人工智能机器尽量避免因为算法而导致的人员损失、工人失业等现象,不应该使得人类上瘾,不应该让机器控制人类,人工智能设计也应该尽量减少能源消耗,保证环境安全。如果发现人工智能有潜在风险,可以设置紧急制动装置,为了应对人工智能系统的潜在危害,学者已经开始研究在系统变得具有破坏性之前阻止它的方法。阿诺德(Arnold T)和舒茨(Scheutzm)在《“大红色按钮”为时已晚:人工智能系统伦理评估的另一种模式(The' big red button' is too late:an alternativemodel for the ethical evaluation of Al system)》⑥Arnold T,Scheutzm,“The ‘big red button' is too late:an alternativemodel for the ethical evaluation of Al systems,”Ethics &Information Technology, 2018.https://www.onacademic.com/detail/journal_1000040190183710_a9e7.html.提出了人工智能系统中装配应急按钮的建议,并讨论紧急停止机制的可行性。该机制使操作人员能够中断或转移系统,同时防止系统得知此类干预对其自身存在构成威胁。通过这种紧急制动装置,保证设计的人工智能机器使用安全性。

再次,保证人工智能伦理安全。人工智能技术的发展不应该挑战和改变人类固有的伦理规范,应该遵守人类长期以来遵守和执行的伦理规范。人工智能设计不应该扩大社会差距,不应该带来新的伦理问题。“算法不可避免地会做出有偏见的决定。一个算法的设计和功能反映了它的设计者和预期用途的价值,如果只是在某种程度上,一个特定的设计是首选的最佳或最有效的选择。”①Winfield A F,michael K,Pitt J,et al.“Machine Ethics:The Design andgovernance of Ethical AI and Autonomous Systems,”Proceedings of the IEEE, Vol.107,No.3(2019),pp.509-517.不应该把社会中存在的伦理问题嵌入到算法中,如社会中存在的性别歧视、种族歧视等,在算法中应该剔除这种歧视;算法也不应带来新的伦理问题,如数据鸿沟、算法鸿沟等问题就是因为对于数据、算法技术的国家间、地区间差异带来的新问题。必须确保这种算法至少是非歧视性的,而且在理想情况下也是公平的。伦理用以维持一个社会的一系列行为,机器伦理学的目标是建立一个自主的人工智能,它可以在没有人为干预的情况下做出合乎道德的决定和行为。要想保证人工智能合乎伦理设计,就须尽量保证算法的透明性,避免算法黑箱存在,“人工智能推理应该能够考虑到社会价值观、道德和伦理因素;权衡不同利益相关者在不同多元文化背景下持有的价值观各自的优先次序;解释其推理;并保证透明度。”②Turiel Elliot,“The culture ofmorality:Social development,context,and conflict,”in the culture ofmorality :social development,context, and conflict,Cambridge University Press,2008.透明度的主要组成部分是信息的可获得性和可理解性,只有保证人工智能算法的透明度,才能明确其中的伦理问题,从而保证人工智能的伦理安全。

综上所述,人工智能设计不是一个描述性问题,而是一个规范性问题,人工智能机器具有价值导向,负载着设计者价值,技术也需要道德强化。因此,人工智能应该在设计之初就要考虑到其蕴涵的价值,更要考虑到其应用可能带来的社会影响,通过约束和规范设计者的行为,通过发挥人工智能职业协会的作用,设计合乎伦理规范的人工智能机器。