人工智能伦理的哲学意蕴、现实问题与治理进路

2021-04-17 04:16:04尹铁燕代金平
昆明理工大学学报·社科版 2021年6期
关键词:伦理人工智能

尹铁燕,代金平

(贵州师范大学 马克思主义学院,贵州 贵阳 550001)

一、研究背景与文献综述

(一)研究背景

2017年7月,国务院颁布《新一代人工智能发展规划》,提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架。”[1]2018年,《人工智能标准化白皮书》阐述了人工智能的安全、伦理和隐私问题。2019年6月,国家新一代人工智能治理委员会发布《发展负责任的人工智能:我国新一代人工智能治理原则发布》,突出了“发展负责任的人工智能”这一主题,同时提出了人工智能发展的八大原则,即“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作与敏捷治理。”[2]“开放协作”强调在人工智能伦理治理中多主体之间协同治理。人工治理伦理的“敏捷治理”强调治理的适应性与灵活性。敏捷治理是一种政府、科技工作者、设计制造者、社会公众共同参与的多元治理模式。2021年1月,全国信息安全标准化技术委员会正式发布《网络安全标准实践指南——人工智能伦理安全风险防范指引》(以下简称《指引》)。《指引》对人工智能伦理安全风险进行了分类,对研究开发者、设计制造者、部署应用者和用户提出了相应的操作规范和基本要求。《指引》为我国人工智能伦理安全标准体系化建设奠定了重要的理论基础。世界上其他各国也都陆续制定了人工智能国家战略文件。例如,德国于2013年4月制定了《德国工业4.0战略》,日本于2016年1月制定了《超级智能社会5.0》,美国于2016年10月制定了《国家人工智能研究和发展战略计划》,英国于2016年10月制定了《人工智能:未来决策制定的机遇与影响》,俄罗斯于2017年7月制定了《数字经济列入俄罗斯2018—2025年战略》,法国于2018年3月制定了《国家人工智能战略》。各国制定人工智能国家战略文件,旨在应对人工智能潜在的伦理和法律挑战,以期为人工智能向善发展提供理论指导和智力支持。

(二)文献综述

近年来,随着科学技术的快速发展,人工智能伦理已经成为学界研究的热点议题。如何正确处理好科技与人类的关系、确保科技向善已经成为当务之急。人工智能的研究进路、研究架构、研究方式已经取得了丰硕的研究成果,但是相关问题还有待进一步深入研究。张卫提出“外在主义”和“内在主义”两种研究进路,认为两种进路在治理手段和治理对象上实现了互换,从而厘清了二者的关系,构筑起“外在主义”和“内在主义”二者相互补充、相得益彰的人工智能伦理完整的研究架构[3]。朱琳等提出要构建“人工智能伦理生态圈”,强调伦理规范在人工智能伦理生态圈中的核心地位,认为在人智能伦理生态中最重要的生产关系即为数据的权力、权利和权益[4]。赵志耘等提出了人工智能伦理风险的理论内涵、表现形式和生成机理。研究指出,人工智能伦理风险主要包括人类决策自主受控、侵犯隐私、偏见和歧视加剧、安全责任划归困难与失当、破坏公平、生态失衡6大类风险。人工智能伦理风险源于技术—人—社会—自然之间的复杂交互,主要包括技术内生型伦理风险和技术应用型伦理风险两大生成路径[5]。王东、张振认为,人工智能面临一定的伦理风险问题,诸如技术伦理风险、社会伦理风险和人类生存伦理风险等。规避人工智能所带来的伦理风险,需坚持维护人类共同利益的最高伦理规范,在全面深化基本原则遵循的基础上,推进伦理制度建设和新型人机关系建构[6]。戴益斌以人工智能产品的典型代表即智能机器人为例,从道德主体和道德接受者的角度出发,讨论了人工智能伦理是何以可能的问题。研究指出,智能机器人无法成为真正的主体,因为它不可能拥有心智状态[7]。陈凡、徐旭认为,人工智能伦理设计面临着结果不确定性、非公正性和建构缺失,为此,我们需要对当前人工智能伦理设计进行必要的解构与反思,并从伦理张力、协同性和客体主体化中寻找解蔽之路[8]。吴红、杜严勇对已有的人工智能伦理原则进行简要介绍与特征分析,然后论证伦理原则发挥积极作用的可能性,最后针对不同行为主体提出实现从伦理原则到行动的可能途径[9]。李伦、孙保学提出人工智能伦理研究的四个维度:人工智能道德哲学、人工智能道德算法、人工智能设计伦理和人工智能社会伦理[10]。总而言之,学界已经对人工智能伦理的研究进路、体系建构、风险管理、伦理设计与反思等展开了深入研究,对人工智能伦理治理和人工智能伦理教育提供了有益参考。

人工智能技术在带给人类种种益处与便利的同时,也引发了形形色色的伦理问题。人工智能伦理是处理人类与人工智能产品或服务之间相互关系时应该遵循的基本道德准则。人工智能发展可以划分为弱人工智能、强人工智能和超人工智能三个阶段。用认识论审视,弱人工智能还处于人类认识的感性阶段,对外界刺激还只是形成感觉、直觉和表象的感性认识;强人工智能和超人工智能已经处于人类认识的理性阶段。强人工智能在外界刺激下能够形成概念、判断和推理的理性认识;而超人工智能已经完全具备人类的思维方式和创造能力。弱人工智能在人类生产和生活中扮演着辅助的角色,执行人类写好的代码、编好的逻辑,完成人类交给的某项具体的任务;而强人工智能或超人工智能可以在人类生产和生活中扮演主角,完全可以代替驾驶员进行自动驾驶汽车,能够取代医生独立进行外科手术,亦能代替投资顾问进行商业投资等。强人工智能或超人工智能已经具备较高的自我决策能力,甚至能取代或超越人类的智慧,从而引起人类社会秩序的真正变革。那么,人工智能会不会在未来取代人类而存在?人会不会在未来受制于自己创造的机器人呢?随着人工智能的迅速发展,如何应对强人工智能或超人工智能时代的“人机伦理”问题呢?从人工智能的长远发展来看,构建完善的人工智能伦理治理体系具有现实性和必要性。对人工智能伦理问题的讨论必须站在“人”的立场上,对人类面临的伦理困境进行理性审视并找到破解人工智能伦理困境的出路。本文试图探讨人工智能伦理的哲学意蕴、现实问题和相应治理进路,以期为人工智能伦理治理提供有益参考。

二、人工智能伦理的哲学意蕴

(一)主奴与平等:人机关系与人际关系

人机关系是人工智能时代不可回避的一对核心关系。那么,在人工智能时代,人机关系是平等主体之间的关系还是主体(人)与客体(物)之间的关系?人机关系能取代人际关系吗?人类在使用情侣机器人、助老机器人、军用机器人时,如何正确处理好人机关系?黑格尔的主奴辩证法可以很好地分析人机关系。黑格尔在《精神现象学》中引入劳动这一中介的概念,论证奴隶是如何在劳动中形成独立自我意识并逐步摆脱主人的控制的;同样,人类利用人工智能为自身服务,而人工智能产品(比如机器人)通过深度学习可以形成自我意识,进而有可能控制人类。这样,人机关系就发生了易位。人工智能产品本身不具备人的心智状态,因而只能作为道德接受者而存在。布赖森的新工具主义把机器人视为奴隶,认为机器人的责任归属在它的生产方或操作方,机器人本身不能承担责任。用辩证法审视,人机关系的本质是人与物的关系,是一种主奴关系,而人际关系的本质是人与人之间的关系,是一种平等的社会关系。用人机关系代替人际关系是一种科技异化,更是一种社会关系的异化。“无论当下还是未来,智能机器的本质仍是“属人性”,是人类自我生成和自我实现的“高级”对象化产物,其归根结底应作为手段服务于作为目的的人。”[11]因此,智能机器在医疗、教育、金融、交通、军事等各个领域的应用都是最终服务于广大人民群众,为人们的生产生活提供便利。对于侵犯人类生存权、发展权的人工智能产品(脑机接口、芯片植入、基因编辑等),应严格控制其设计和应用,否则就会导致人机关系的异化。因此,在人工智能发展中,人与机器的关系必须始终是主奴关系,进而保证人工智能研发和应用中的向善性,确保人的道德主体性得到充分彰显。

(二)核心与多元:政府管理与社会治理的关系

政府管理强调政府的单一主体地位,而社会治理突出多元主体的协同治理效能。从政府管理到社会治理的转化,体现了国家治理体系和治理能力现代化的实践探索取得重要进展。用辩证法审视,政府管理是社会治理的前提和基础,而社会治理是政府管理智能化的生动体现。政府管理强调政府对人工智能的宏观指导和监督,而社会治理强调多主体参与人工智能设计、生产、使用、评价的全过程。政府对人工智能产品研发负有指导、监管的责任和义务。政府管理部门要对人工智能的发展方向进行宏观把握和整体规划,制定相应的人工智能伦理规范和安全标准。政府管理部门对人工智能的开发与应用负有管理责任和义务。政府必须建立关于人工智能的管理方案,对人工智能产品研发的全员、全程、全方位监督,并落实各个环节的责任负责制。由此可见,政府管理强调政府对人工智能的宏观管理功能。

在社会治理中,党委和政府在社会治理中起主导性作用。党的十九届四中全会公报提出:“社会治理是国家治理的重要方面。必须加强和创新社会治理,完善党委领导、政府负责、民主协商、社会协同、公众参与、法治保障、科技支撑的社会治理体系。建设人人有责、人人尽责、人人享有的社会治理共同体,确保人民安居乐业、社会安定有序,建设更高水平的平安中国。”[12]人工智能伦理治理强调多主体之间的协作。人工智能伦理仅依靠政府管理是远远不够的,需要全体社会成员参与人工智能伦理的设计、制造、使用、售后的全过程。从多元治理的主体来看,政府管理是伦理治理的核心,科技工作者是伦理治理的主导,社会公众是伦理治理的关键。

(三)价值与底色:人工智能设计与人工智能伦理的关系

人工智能伦理是人工智能设计的底色,而人工智能设计是人工智能伦理的价值诉求,蕴含人工智能伦理的底色之美。人工智能设计需要考虑人类福祉与人工智能产品的双重价值。就增进人类福祉而言,需要把公正性、多元包容性、责任性、AI可控性作为其基本标准,就人工智能本身的发展而言,需要把安全性、可解释性、可持续性作为其基本标准。人工智能设计彰显人类的主体价值,是创造人类生产生活需要的、具有自主学习能力的、会思考的人工智能产品的主体性活动。一方面,人工智能设计与社会价值观念密切相关,传统的伦理观、宗教观、隐私观都会对人工智能设计产生深刻影响;另一方面,人工智能设计反过来促进社会价值观的变革。人工智能技术本身具有价值导向性。例如,B超技术的应用可以让人们预知胎儿的性别,由此引发“堕胎是否合乎道德”的思考。许多国家已经把胎儿作为独立的法律主体和道德主体,以此维护胎儿的生命权。由此可见,人工智能已经并将持续对人类社会产生深远影响。人工智能设计必须合乎伦理性,否则人工智能就会导致社会秩序的混乱。用辩证法审视,人工智能伦理是人工智能设计的前提和基础,人工智能设计中渗透着伦理。完善的人工智能设计是人工智能伦理的充分彰显和完美体现。用范畴学审视,人工智能伦理是人工智能设计的子范畴,是人工智能设计不可或缺的重要组成部分。人工智能设计者在人工智能产品的研发中起关键作用,其不仅需要有人工智能的专业知识,还需要具备伦理学的知识背景。在人工智能设计中要充分运用伦理学知识,树立前瞻性的道德责任意识。“从人工智能的发展现状来看,人工智能伦理关系讨论的实际上是人工智能设计者、人工智能使用者、人工智能监管者和智能机器本身之间的交互关系,它贯穿人工智能运行、管理和决策的全过程,其中居于核心位置的是人工智能设计者的设计。”[13]人工智能进行合伦理设计,体现了一种道德责任意识。设计者要对人工智能产品的安全性和可靠性负责到底。因此,人工智能设计不仅包括产品自身的功能设计,还包括人工智能伦理设计。人工智能伦理的实践路径可以采取嵌入设计的方式,把伦理原则和伦理规范嵌入到人工智能设计之中,并通过人工智能技术建构人工智能伦理。人工智能发展必然要求对人工智能产品进行伦理规制,从而实现人类与人工智能产品的和谐相处。

(四)自律与他律:人工智能伦理与人工智能法律的关系

伦理和法律是处理人类社会关系的两种基本方式和基本工具。伦理和法律有何区别和联系呢?伦理是一种自发形成的,处理人与人、人与社会、人与自然之间相互关系的道德准则,而法律是依靠国家强制力执行的规范体系。人工智能伦理与人工智能法律遵循伦理与法律的一般逻辑关系。人工智能伦理强调在人工智能开发和应用中形成人类的自觉、自律的道德行为,对人工智能设计者、使用者和监管者的伦理要求较高。而人工智能法律强调国家作为统治阶级工具的管理职能,体现国家对人工智能赋予制度性的法律规范。不管是人工智能伦理还是人工智能法律,都是实现人工智能发展的重要保障,二者在人工智能发展中不断进行深度融合与实践转化,即实现道德法律化和法律道德化。用辩证法审视,人工智能伦理是制定人工智能法律的前提和基础,而人工智能法律是人工智能伦理的重要保障,是对人工智能伦理规范中无法实现的部分进行强制性规定并运用国家机器保证其强制力执行。为了解决人工智能带来的现实问题,并保证人工智能的有序发展,必须综合运用伦理和法律的规范体系。例如,“机器人法律资格的民事主体问题、人工智能生成作品的著作权问题、智能系统致人损害的侵权法问题、人类隐私保护的人格权问题,以及智能驾驶系统的交通法问题、机器‘工人群体’的劳动法问题”[14]等,可以运用法律规范予以强制性规制,亦可先进行伦理价值指引,为相应的法律法规出台提供学理支撑。对于智能机器人的设计和使用,可以预先设立法律规范和道德准则,对其进行伦理指引,对智能机器人的设计者、使用者进行法律约束和伦理约束。总之,为保证伦理规范的自觉履行,可设立相应的法律法规,实现道德的法律化;同样,当法律已经内化为人们的道德规范时,可以转化为一种道德,实现法律的道德化。

三、人工智能伦理引发的现实问题

(一)人工智能伦理引发的道德主体问题

道德主体问题的实质就是责任伦理问题。那么,什么是道德主体?道德主体即承担道德责任的、具备自我意识的行为者。依此类推,人工智能伦理引发的道德主体问题即人工智能到底由谁来负责的问题。人工智能可以作为除人类之外独立的伦理主体吗?人工智能时代道德主体是人还是机器?还是二者都可以成为道德主体呢?道德主体决定人工智能产品售后产生的责任分配与划界问题。人工智能能够成为责任主体吗?亚里士多德在《尼各马可伦理学》第三卷中对责任主体进行了经典诠释,提出了担负责任的主体应符合的基本标准。基于这一标准,人工智能不具备承担道德责任的能力,人工智能自身作出的伦理判断也是人类进行设计的,并非出于自身的意愿,人工智能在无知状态下作出的伦理决策是可以免责的。例如,2016年5月7日,一辆特斯拉汽车在美国佛罗里达州高速公路上与一辆垂直方向开来的挂车发生相撞,造成司机死亡。2018年3月18日,美国硅谷优步公司的自动驾驶汽车撞伤亚利桑那州的一名女子,之后不幸身亡。这是全球首例自动驾驶车辆致人死亡的事故。在汽车开启人工智能自动驾驶模式时,到底谁是道德主体?机器人是否具备人的基本属性并使自身成为道德主体呢?在自动驾驶中,行人和乘客同时面临危险时应该如何抉择?是保护行人还是乘客?面对不同生命的取舍时,是选择保护多数人还是少数人?自动驾驶导致的交通事故应该由谁来承担责任?是启动自动驾驶模式的汽车司机还是自动驾驶系统设计者呢?当我们把人的生死权交给人工智能技术及其提供的服务时,我们不得不思考一个问题,就是人工智能能否代替人类成为道德主体呢?阿西莫夫的三定律原则为道德主体的界定提供了有益参考。1942年,阿西莫夫提出机器人行为的三定律原则,即机器人不能伤害人类或坐视人类受到伤害;在与第一定律原则不相冲突的情况下机器人必须服从人类的命令;在不违反第一与第二定律原则的基础上机器人有自我保护的义务。1985年,阿西莫夫进一步提出第零法则,即机器人即使出于自我保护也不能直接或间接伤害人类。根据阿西莫夫的三定律原则,如果人工智能的存在是以保护人类、服务社会为最终目的的话,那么此时的人工智能就不是伦理主体,而只是人类的附属品而已。如果人工智能具有自我保护意识,在面临风险时优先保护自己的话,人工智能就会给人类带来灾难性的后果。笔者以为,人工智能产品(比如机器人)不能作为“完全的道德主体”而存在。随着人工智能产品(比如机器人)自我意识不断增强,其本身具有一定的伦理判断能力,可以作为“有限的道德主体”而存在,必须正确引导其更好地为人类社会服务。

(二)人工智能伦理引发的政府管理问题

随着人工智能的广泛使用,探讨政府如何有效运用人工智能为国家和社会服务具有现实性和必要性。人工智能发展必须在政府治理的框架中进行,换言之,人工智能应该为社会治理提供新方法、新路径。政府必须对人工智能发展进行宏观把控,必须坚持以人民为中心的基本原则,把人的根本利益作为人工智能发展的终极目标,引导人工智能向善发展,构建友好型人工智能。以大数据为依托的人工智能技术对公共决策产生重要影响。人工智能深入经济、政治、社会、生态、党的建设诸方面。例如,在2020年以来的疫情防控中,我国迅速构建了以大数据技术和人工智能技术为重要依托的疫情防控体系,充分彰显了国家治理体系和治理能力现代化建设的能力。随着人工智能在政府决策中的广泛应用,也带来一系列的人工智能智能伦理问题。人工智能伦理如何体现其透明性和可解释性呢?人工智能导致的政府决策失误应该由谁来买单?人工智能用于政府决策如何解决算法歧视问题呢?政府决策中如何体现其公平性和反歧视性呢?算法歧视可能会进一步强化人类的刻板印象,算法歧视会导致性别歧视、种族歧视、地域歧视等。这些人工智能发展带来的社会问题应该如何应对?政府在运用人工智能进行公共决策时如何保证数据样本的精准性呢?深度决策中如何避免人工智能(机器人)深度学习的“黑箱”现象呢?笔者以为,在人工智能算法方面,人工智能设计与应用必须确保人的基本权利不受侵害,同时要保证人工智能算法的透明性、公正性、可控性。

(三)人工智能伦理引发的社会发展问题

人工智能对现代社会秩序产生重要影响。怎样保证人工智能更好地为社会服务,既是一个重大的理论问题,更是一个重大的现实问题。人工智能发展将会引起社会秩序的重大变革,必须在解构中重构社会新秩序。一是人工智能引发的社会公正问题。从经济学视角看,“大数据杀熟”是一种价格歧视,是商家实现利润最大化的手段和方法。“大数据杀熟”的前提和基础是电子商务凭他对消费者有充分的了解,从而针对消费者个体制定潜在客户可以承受的价格。二是人工智能引发的婚姻伦理问题。未来学家伊恩·皮尔森博士预测,“到2050年左右,人类与机器人的性爱将变得非常流行,机器人有可能最终取代人类性伴侣。”那么,性爱机器人是否会给人类带来婚姻危机呢?已婚人士使用性爱机器人能否认定为婚内“出轨”?人与机器人结婚是否符合社会伦理规范?这些问题值得反思和研究。三是人工智能引发的性别歧视问题。性爱机器人大多数都以女性样态呈现,即将女性物化,这种做法是否会加剧对女性的性别歧视?四是人工智能引发的种族繁衍危机。性爱机器人可能引起社会基本结构的变迁,导致家庭关系的消失。在人工智能时代应如何维护家庭的和谐,进而维护整个社会的和谐呢?五是人工智能引发的就业问题。就业是最大的民生问题。在未来,大批工人将会被工业机器人取代。如何保证失业工人的权益成为社会将会面临的重大课题。六是决策歧视问题。具有自主学习能力的人工智能往往会对根据数据记录的部分群体产生地域歧视、种族歧视、性别歧视等。例如,在人工智能决策和管理中,“黑人”更容易与“犯罪”联系在一起。七是人工智能引发的个人隐私保护问题。在大数据时代背景下,个人的健康信息、所在的位置信息、浏览的网络信息等都会暴露在公众面前,个人隐私处于随时被窥探的状态。

(四)人工智能伦理引发的教育瓶颈问题

教育是最大的民生问题。当今世界正面临百年未有之大变局。教育必须面向现代化、面向世界、面向未来。人工智能伦理教育遵循教育的一般规律。随着人工智能的飞速发展,进行人工智能伦理教育具有现实性和必要性。

1.人工智能技术的科技工作者的伦理意识不强已经成为人工智能发展的重要瓶颈。人工智能设计者对其产品投放市场后的伦理风险估计不足,可能损害公开利益和个人利益。

2.同时拥有人工智能与伦理学专业背景的高级研究人员不足。人工智能伦理作为一门交叉学科,需要人工智能和伦理学的双重学术背景和知识储备。然而,人工智能伦理一般都是由拥有马克思主义哲学、西方哲学的学者们进行研究。

3.缺少人工智能伦理研究的科研平台。人工智能伦理的学术体系、学科体系、话语体系尚未真正建立,人工智能伦理课程建设和教材建设明显滞后,人工智能专业的学生缺乏人工智能伦理教育。

4.人工智能伦理的学科支撑不足。人工智能伦理的基础研究理论支撑不足,研究范式还有待进一步创新;对人工智能的国际发展的最新成果研究把握不足,还有待进一步深入研究。

5.人工智能伦理的大众化教育体制机制不健全,社会公众的人工智能伦理知识缺乏。加强人工治理伦理的知识科普具有极大的现实意义。

四、人工智能伦理的治理进路

(一)坚持以人为本原则,彰显人民利益至上的人工智能发展理念

人工智能技术最终服务与广大人民群众,必须以人的利益为根本出发点和落脚点。马克思主义的基本立场就是人民立场。马克思、恩格斯在合写的《神圣家族》中提出:“‘思想’一旦离开‘利益’,就一定会使自己出丑。”[15]“为了人民,依靠人民,保护人民是马克思主义政党的本质要求,是中国共产党的宗旨体现,脱离人民,背叛人民,与人民为敌,终究会走向失败。”[16]中国共产党继承和发展了马克思主义关于人民立场的思想。毛泽东鲜明提出:“人民,只有人民,才是创造世界历史的动力。”[17]邓小平指出:“群众是我们力量的源泉,群众路线和群众观点是我们的传家宝。”[18]江泽民强调:“党的理论、路线、纲领、方针、政策和各项工作,必须坚持把人民的根本利益作为出发点和归宿。”[19]胡锦涛强调:“坚持发展为了人民、发展依靠人民、发展成果由人民共享。”[20]习近平总书记多次提出:人民立场“是中国共产党的根本政治立场,是马克思主义政党区别于其他政党的显著标志。”[21]中国共产党领导下的一切工作都必须坚守人民立场。

人工智能发展过程中必须始终坚守人民立场,让人工智能真正服务于人们的生产和生活场域。

1.在人工智能技术的开发和应用中,要以国家、社会和个人的现实需求作为其价值归宿,实现精准开发和精准营销。国家、社会和个人的现实需求是多样化的。例如,应对国防和军队现代化的需要,为了减少战争伤亡和军人数量,可以考虑未来使用军用机器人;应对老年化趋势,为了解决养老难的问题,可以考虑未来使用助老机器人;应对道德失范、诚信缺失等社会不良现象,为了重构社会信用体系,可以考虑使用人工智能决策。

2.在人工智能技术的开发和应用中,要坚持普惠性原则,逐步降低人工智能产品的研发成本,把人工智能产品作为大众化的商品进行开发和推广,把人工智能作为人们实现美好生活的重要载体和实践方式。习近平在《我们的目标就是让全体中国人都过上更好的日子》中指出:“我们的目标很宏伟,但也很朴素,归根结底就是让全体中国人都过上更好的日子。我们有充分的信心实现我们的目标。”[22]党和国家的利益与人民的利益是一致的,党和国家的奋斗目标就是要实现国家富强、民族振兴和人民幸福的中国梦。人工智能服务于国家治理体系和治理能力的现代化建设。人工智能技术的开发、推广和应用,就是要让广大人民群众在生产和生活中体验到幸福感、获得感、安全感。

3.在人工智能技术的开发和应用中,要建立人工智能产品的售后评价体系。通过售后评价体系不断优化其产品性能,从而不断提升使用者的高质量价值体验。

4.人工智能的研发和应用中应体现其向善性、透明性、公平性和可控性,把人的利益始终作为人工智能的终极价值诉求。

(二)坚持权责一致原则,构建权责高度一致的人工智能社会治理体系

在人工智能发展中,权利与义务应保持高度统一:

1.建立人工智能伦理审查制度。成立人工智能的公开审查机构,完善人工智能伦理的公开审查制度。人工智能的公开审查机构可以由政界、学界和商界的专业人士组成。通过政府主要领导人、学术界的科研工作者和商界精英的通力合作,对人工智能产品研发进行前瞻性思考。

2.构建人工智能伦理的解释话语体系。人工智能伦理解释话语是指其蕴含的伦理内容的阐释,包括公平、正义、民主、平等、责任、权力等,伦理解释话语客观上要求用伦理的眼光反思人工智能技术、产品和服务。在人工智能技术的开发中,要保证人工智能算法的公开透明性,具体表现为确保“人工智能算法的可解释性、可验证性和可预测性。”[23]38可解释性客观上要求人工智能决策或者行为的机制机理能够被人类所理解和接受,对人工智能设计者或使用者的综合素养要求较高,要求其对算法的过程和特定的决策提供解释,从而维护人工智能产品消费者的知情权,也能使消费者对人工智能算法进行有效的监督和避免算法决策的失误。可验证性就是算法结果的可重复性,要求在特定的条件下再现算法运用产生的结果,以便解决算法解释和算法追责问题。可预测性要求保证算法的准确性和使用数据的全面性,及时发现并统计不准确预测结果的数量,不断提升其数据的准确性和算法的精准度。

3.构建人工智能监察体系。设立人工智能伦理委员会,建立人工智能伦理问责制度。在人工智能的应用中,要坚持权利与责任相统一的基本原则,对人工智能产品的开发和应用实行问责制度,即“在人工智能的设计和使用中留存相关的算法、数据和决策的准确记录,以便在产生损害结果时能够进行审查并查明责任归属;即使无法解释算法产生的结果,使用了人工智能算法进行决策的机构也应对此负责。”[23]38

4.构建人工智能安全保障体系。在数据处理方面,要充分保障人工智能产品使用者的个人权益。为保障人工智能使用者的个人信息相关权益,要建立个人敏感信息的严格审查制度。对个人敏感信息要进行严格的访问控制,利用相关技术降低个人信息的敏感度,采取有效措施保障个人信息主体的知情权;同时,要充分保护人工智能使用者的隐私权益,避免人工智能产品应用中个人信息的泄露。

5.构建人工智能可持续发展体系。在社会效益方面,要建立人工智能的可持续性发展的指标体系,保障人工智能的向善性。向善性要求对人工智能发展的经济效益和生态效益进行综合考量,还要对人工智能系统是否伤害或欺骗人类进行深入思考。

6.构建人工智能法律体系。“从自动驾驶、智能媒体、智能医疗、智慧风控等各领域立法中进行体系化梳理和理论抽象,建立完整的人工智能法律体系。”[24]

7.建立面向国际社会的人工智能合作治理的体制机制。面对经济、科技的迅速发展,世界越来越成为你中有我、我中有你的命运共同体。中国要积极与其他国家合作,构建面向世界的人工智能伦理治理体系,为全球人工智能伦理治理提供中国智慧和中国方案。总之,人工智能对经济社会发展产生深刻影响,必须深刻反思人工智能发展中带来的伦理困境,实现人工智能发展与和谐社会构建的有机统一。

(三)坚持多主体参与原则,构建人工智能伦理安全风险防范体系

人工智能在带给人类更多福祉的同时,也可能产生安全风险。因此,政府相关职能部门要鼓励人工智能产品的研究开发者、设计制造者、部署应用者和用户等共同参与,构建多主体参与的人工智能伦理安全风险防范体系,科学应对人工智能可能造成的失控性、社会性、侵权性、歧视性、责任性风险。

1.建立人工智能伦理的政府审查制度。政府在人工智能伦理治理中扮演引导者、监督者的角色。政府可以成立专门的人工智能伦理审查委员会,对人工智能产品进行伦理评估。人工智能伦理审查委员会可以由政府职能部门负责人、知名大学教授、企业高管等组成。

2.研究开发者在进行伦理设计时要有前瞻性的风险防范意识、合作意识,可以吸收设计制造者、部署应用者和潜在用户等参与人工智能产品的伦理设计,对人工智能产品进行客观、公正、全面的伦理安全风险分析,在设计中要避免研究开发可能被恶意利用的人工智能产品,从而预防对人工智能的误用、滥用;同时,在伦理设计中要把人的基本权利放在首位,尽量避免人的人身权、隐私权、财产权受到侵害。此外,还要提防人工智能对特定群体的主观和客观偏见,厘清人工智能使用中的责任划界问题,对人工智能设计全过程,特别是关键决策进行详细记载,以便在需要时启动回溯机制进行追责。

3.建立人工智能伦理安全风险的保障机制、事故应急处置机制等,避免设计损坏公共利益和个人利益的人工智能产品。设计制造者应充分认识研究开发者的设计意图,在人工智能产品的制造中要严格执行设计理念,并对制造中的伦理风险进行客观公正的研判;同时,要谨慎开展对自主学习能力和自我改进能力很强的人工智能产品的研发,不断提升人工智能产品的可解释性和可控制性。

4.建立人工智能产品的应急处置机制、反馈和赔偿机制等。部署应用者要充分了解研究开发者的设计意图和设计制造者的制造原理,指导用户合理使用人工智能产品。部署应用者是连接设计制造者和用户的中间商,需要直接对用户提供售前和售后服务,特别要重视对用户提供人工智能产品提供机制机理的解释性服务和风险防范告示。

5.建立用户使用前的伦理培训制度,引导用户科学合理地使用人工产品。用户是人工智能产品的直接使用者、受益者,应认真阅读产品说明书,在使用中遇到问题应及时反馈给部署应用者,再由其反馈至研究开发者和设计制造者。

6.建立人工智能多元主体的制衡机制,明确多元主体的治理边界。必须明确多元主体各自扮演的角色,实现分工合作,彰显多元治理效能。多元主体共同参与人工智能伦理治理是一种协同治理,更是一种精准治理,是对国家治理体系和治理能力现代化建设的积极回应。

(四)坚持创新发展原则,建立文理深度融合的人工智能伦理教育体系

创新的关键在人才,人才培养的关键在于教育。发展人工智能的关键在于技术,而技术必然掌握在人的手中。人工智能技术一旦被广大人民群众所掌握,就会转化为人工智能发展的巨大引擎和强大动力。

1.构建大中小学一体化的人工智能课程体系、教材体系和教学体系。在大中小学开设人工智能通识课程,为不同学段的受教育者提供人工智能技术的基础理论和研究范式,全面提升国民的综合素养;同时,针对高校人工智能专业,应加速推进人工智能伦理课程建设,把人工智能伦理课程纳入学分,同时编撰人工智能伦理课程的统编教材。

2.构建人工智能伦理专业的学术体系、学科体系和话语体系。加强人工智能伦理的基础理论研究,不断发掘新的研究范式,实现人工智能专业和伦理学专业的深度融合发展。在高校研究生阶段开设“人工智能伦理方向”的伦理学专业,鼓励人工智能、哲学等相关专业的本科生报考“人工智能伦理方向”的伦理学专业;同时,可以组建“人工智能安全工程”学科,建立人工智能强制性安全标准与规范,培养大批高水平的人工智能安全员。

3.构建人工智能伦理人才培养体系。把高级技术人才的培育摆在核心位置,加快培养伦理学专业的人工智能伦理方向的高级技术人才,鼓励有条件的高校培养“人工智能伦理方向”的博士生,还要设立人工智能伦理方向的博士后流动站,为人工智能伦理学研究提供基础理论支撑和研究范式创新。

4.建立人工治理伦理人才引进机制。大量引进海内外优秀的人工智能高级技术人员,并且要用待遇和平台留住人才。“在世界人工智能发展的竞争中,各国对优秀人才的争夺尤为激烈,同时也极为重视对本国人才的培养。”[25]人工智能时代必须高度重视人才引进,用人才引领科技创新。

5.建立人工智能高端智库建设的体制机制。设立人工智能智库建设平台,高度重视人工智能的理论成果转化为实践创新成果,为国家制定具有战略性、前瞻性和可行性的人工智能政策发挥关键作用。

(五)坚持开放共享原则,构建面向世界的人工智能伦理的对外话语传播体系

人工智能伦理问题是人类社会共同面临的核心议题。中国特色社会主义进入新时代,习近平总书记提出人类命运共同体理念,构建面向世界的人工智能伦理的对外话语传播体系,是对人类命运共同体理念的时代回响。中国在人工智能伦理方面取得的理论成果和基本经验,要与世界各国“共建共享”。人工智能伦理的对外传播要充分彰显中国的国际话语权、国际影响力。通过构建面向世界的人工智能伦理对外话语传播体系,拓展中国智慧和中国方案的世界生存空间,让更多的外国人了解中国的最新科技进展。中国人工智能伦理发展和研究不是僵化封闭的,而是对外开放的。当今世界正面临百年未有之大变局,中国作为国际社会重要的组成部分,在国际社会扮演着重要的角色。

1.以人工智能伦理为主题,采取宏大叙事的方式,讲好中国的人工智能伦理原则,为人工智能伦理的全球治理提供中国方案和中国智慧。

2.发挥海内外高端人才、海外留学人员的作用。利用他们国际化的学术背景,传播好中国人工智能伦理的研究进展。一方面要吸收海内外的人工智能高端人才参与中国的人工智能伦理研究项目,提升中国人工智能伦理研究的国际化水平;另一方面,要充分发挥有人工智能伦理学术背景的留学人员的作用,鼓励他们传播好中国人工智能发展的声音。“广大留学人员既有国内成长经历又有海外生活体验,既有广泛的国内外人际关系又有丰富的不同文化交流经验,许多外国人通过你们了解中国、认识中国,许多中国人通过你们了解世界、认识世界。”[26]

3.创新人工智能的对外传播载体。利用人工智能电影、短视频等,引领观众对人工智能技术进行创生反思。人工智能伦理发展和研究必须增强对外传播,以期引起国际社会的话语共鸣,从而争取更大的国际话语表达权。

4.充分尊重传播对象的语言、文化、民族等,准确把握人工智能伦理的对外传播对象的特殊性,对传播对象进行细分,不断把潜在受众群体转化为现实受众群体。习近平总书记指出:“要着力推进国际传播能力建设,创新对外宣传方式,打造融通中外的新概念新范畴新表述,把我们想讲的和国外受众想听的结合起来,努力争取国际话语权。”[27]人工智能伦理的对外话语在把握受众群体喜好的基础上,需要不断采取新方法新手段。

5.充分运用大数据技术,准确把握人工智能伦理的中国特色,实现精准传播。以公共安全、公正、平等、人权等为主题,打造国内外观众喜闻乐见的传播载体,推动人工智能伦理的传播方式的多样化。

6.构建人工智能伦理文化的对外传播体系,增强人工智能伦理智库建设的道路自信、理论自信、制度自信和文化自信,推动人工智能发展的国际话语自信。中国特色社会主义道路、中国特色社会主义理论、中国特色社会主义制度和中国特色社会主义文化为人工智能伦理全球治理提供中国方案和中国智慧。

7.充分发挥人工智能伦理的话语主体的权威效应,利用主流媒体扩宽人工智能伦理的话语场域。人工智能伦理的话语传播主体多为政界和学界的权威人士,通过他们在主流媒体的发声,不断创新人工智能伦理的对外话语表达。

8.建立人工智能伦理国际交流与合作机构,广泛开展各国之间的人工智能技术合作与交流。

五、结语

构建完善的人工智能伦理治理体系是推进国家治理体系和治理能力现代化的重要渠道。人工智能技术与伦理学的深度融合和创新发展,既有利于促进人工智能的创新性发展,也有利于提升国家治理的现代化水平。“我们应主动适应科学技术迅猛发展的态势,将人工智能技术应用于社会治理,更新治理理念,提升治理水平,推进国家治理体系和治理能力现代化。”[28]人工智能的伦理治理是一种前瞻性伦理治理。面对人工智能迅速发展带来的风险和挑战,前瞻性伦理治理要求尊重人工智能的发展规律,动员全体社会成员参与人工智能的开发与应用的全过程。人工智能伦理治理的关键在发挥人的作用。政府的监管和公众的参与是科学家进行“负责任创新”的重要保障。人工智能发展引发的公共安全、责任划界、科技异化、人权保障、教育保障等问题还有待进一步探讨。人工智能伦理的治理原则、治理框架、研究范式、实践转化等还有待进一步深入研究。

猜你喜欢
伦理人工智能
《心之死》的趣味与伦理焦虑
我校新增“人工智能”本科专业
护生眼中的伦理修养
活力(2019年19期)2020-01-06 07:37:00
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能与就业
IT经理世界(2018年20期)2018-10-24 02:38:24
数读人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南风窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南风窗(2016年19期)2016-09-21 04:56:22
医改莫忘构建伦理新机制
中国卫生(2014年6期)2014-11-10 02:30:52
论《觉醒》中的伦理关系