人工智能的道德风险及其治理

2020-03-25 08:39王晓丽徐鑫钰
关键词:道德风险道德人工智能

王晓丽,徐鑫钰

(华南理工大学 马克思主义学院,广东 广州 510640)

自20世纪50年代中期提出“人工智能”(artificial intelligence,简称AI)概念以来,经过60余年的发展,人工智能给人类生产生活带来“革命性变化”[1],经济、政治、文化、社会生活等领域都愈加看到人工智能的介入。伴随着人工智能价值的发挥,它也给人类带来了新的伦理、道德问题。如何在享有人工智能为人类发展带来福祉的过程中最大限度地消解其给人类带来的道德风险,成为学者们共同关注的问题。

一、人工智能及其矛盾表征

“人工智能”一词最早出现在1956年,是指用机器来模仿人类学习及其他方面的智能,之后受到全世界学者的共同关注。国内探讨人工智能问题最早的研究成果出现在1978年,陈步在《人工智能问题的哲学探讨》中以“智能”一词的哲学含义为起点探讨了人工智能的发展[2]。经过40余年的研究,目前学术界对“人工智能”的定义基本达成一致,人工智能是“人类制造出来的机器所呈现出的智能,与自然进化而来的人类智能相对应”[3]。

学者们以人工智能是否具有意识和自主性为标准将其划分为弱人工智能和强人工智能两大类。持弱人工智能观点的学者们认为:人类不可能制造出能真正推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是它们并不真正拥有智能,也不具有自主意识。持强人工智能观点的学者们认为:人类有可能制造出能真正推理和解决问题的智能机器,并且这样的机器被认为将是有知觉、有自我意识的。与人工智能强弱判断一致,学者们对人工智能未来发展趋势的判断也分为两派:主张强人工智能观点的学者认为人工智能在未来一定会获得意识,超越人类本身,达到“技术奇点”[4]256,那时,将预示着“人类时代的结束”,人类的前途和命运将被置于巨大的风险中[5]1;主张弱人工智能观点的学者坚信人工智能技术的工具性本质,无法真正替代人类,只能处于从属地位,依附于人类的存在和发展。基于对人工智能的理论分析,结合其现实发展,当前,我国人工智能尚处于弱人工智能阶段,但是,其对社会各领域却产生了深刻甚至是变革性的影响。

学者们普遍认同习近平同志关于“人工智能具有溢出带动性很强的‘头雁’效应”[6]的价值论断,认可人工智能对政治、经济、文化、生活等各方面的影响,人工智能已经悄然“飞入寻常百姓家”,改变着人类的日常生活方式。首先,加速智能经济时代的到来。人工智能以大数据、深度学习和云计算为条件开展活动:以大数据为基础来认识世界、以云计算为手段来计算世界、以深度学习为条件来创造世界。新认知、新方法、新决策可以创造新经济价值、创设新经济模式、创建新就业方式,推进增长动能转换,催生大量新产业、新业态、新模式[7],实现我国在新一轮科技革命中跨越式发展。其次,助力智能一体化社会的到来。基于“互联网+”的人工智能运用到社会领域中推进了社会一体化时代的到来,使得公共服务更加便捷、公共事务更加高效、公共道德更加优化。人工智能深度融入到教育、医疗卫生、交通等领域,形成创新型智能服务体系,克服了前智能化社会中碎片化、割据化、无监督的局限。再次,推动了国家治理体系和治理能力的现代化进程。促进人工智能在政府治理领域的深度应用,构建智慧政府和智慧城市,使“阳光行政”、一体化治理、协同共治成为可能,国家治理体系实现现代化转型。最后,强化理论性研究的基础地位。人工智能的深化发展,离不开基础理论的支撑,尤其是人工智能愈来愈呈现出多学科综合、高度复杂的特性,要求我们在理论、方法、工具等方面取得突破,强化基础理论的地位,勇闯人工智能科技前沿“无人区”[8]。因此,人工智能对于基础理论需求的发展现实,要求基础理论研究与应用研究的再平衡,强化了理论研究的基础地位。

虽然社会对于人工智能的发展达成价值共识,但是,人工智能渗入经济、政治、社会领域中引发的道德风险也同样受到学者们的共同关注。首先,人工智能运用中蕴含数据异化风险。其次,人工智能运用中引发人类自由意志危机。最后,使用人工智能带来的不平等加剧道德风险。

二、人工智能蕴含道德风险的具体表现

人工智能自产生之日起就是一个矛盾体,其价值与风险并存,尤其是它所产生的道德风险,更是受到学者们的极大关切。

(一)人工智能运用中的侵犯隐私风险

隐私权作为公民的一项基本权利,已为世界所公认。当前,人工智能及其产品纷纷进入寻常百姓家,智能清洁机器人、智能学习机等都给人们生活带来了便捷,改变着生活方式。但是,人-机交互中,人工智能也对个体隐私带来威胁。人工智能依赖大数据实现收集、存储和分析海量数据,包括个人的基本信息、身份信息、生物信息等,涉及隐私信息被侵犯的可能。人工智能依赖云计算实现数据分析的过程中,个体的信息被使用于大数据挖掘和计算,再次涉及隐私信息的安全问题。人工智能依赖深度学习实现决策的过程完全是建立在大数据运用的前提下,隐私隐患依然存在。人工智能使用过程是大数据、云计算、深度学习协同运行的过程,此过程存在直接侵犯隐私和二次侵犯隐私两种情况:直接侵犯隐私就是不经当事人同意直接使用其个人信息。例如,“2019年4月,一段通过把朱茵在《射雕英雄传》中扮演的角色‘黄蓉’的脸替换成杨幂的视频走红”[9]。这一行为虽然以娱乐为目的,但是其操作过程中却实实在在地侵犯了个人隐私。二次侵犯隐私是指信息使用方使用个体的网络浏览信息等,虽不是直接的个人信息但却是具有隐私性质的个人使用信息。例如,人们在网上购物后,浏览信息的痕迹会被后台记录,根据用户浏览信息,软件主动判断用户偏好,作为“精准”推送营销信息的重要依据。此后,消费者的偏好信息和购物数据被网购平台掌握并无偿使用,至于信息如何使用、使用到什么程度等问题网购平台则不会公开告知使用人,这就存在大量侵犯隐私的风险。

(二)人工智能运用中的侵犯人类意志自由风险

个体的意志自由是人与动物最本质的区别,人类的选择性是意志自由的最集中表达。但是人工智能的出现以数据的预测、规范的程序、提前的干涉代替了人的自由意志选择、人类试错的过程。以智能学习机器(人)为例,青少年学生通过信息输入将问题反馈给机器,机器能够迅速反应,直接输出答案,这一过程将人们的学习方式简化为“输入-输出”模式,使得学习进程便捷、简单、轻松,但是人类却失去了自我探索、自我纠错、自我反思的机会,而这恰恰是学习最重要的环节,恰恰是人类自由意志最完善的表达。

人工智能对人类自由意志侵犯的另一个表现是人工智能替换人类的主张。持强人工智能的学者们认为,从简单劳动到复杂工序创造,人工智能都展现出高超的技艺。在生产性和服务性的一些领域,部分工作已经交由人工智能负责;生物领域的专家正在仿照人类大脑神经元结构和语言能力,以期建造“智能大脑”,赋予人工智能“意识”,替代人类决策。

(三)人工智能运用中的机器依赖风险

随着人工智能“走进”政治、经济、社会等工作生活领域,它是获得新认知、创造新价值的源泉,是改变政府组织和结构的力量,是开启人们幸福生活的技术保障,人类惊叹于它的耀眼成果的同时产生了对人工智能的过度依赖,导致了人工智能独裁的现象。政治领域中,人们依赖人工智能进行决策和判决等行为,虽然提升了行政、司法等方面的效率。但是,对于人工智能的依赖,弱化了人的主动性。例如,智慧司法中产生了新的不公正等道德问题。经济领域中,人们依赖人工智能发现经济运行中的潜在问题而进行预测,有利于精准施策,但是却容易导致市场对产业的盲目追捧或漠视等问题。社会领域中,人们依赖人工智能展开服务、完成监督、进行操作,虽然将人们从琐碎的工作中解脱出来,但是,也导致人们更加依赖人工智能,将其视为不可或缺的助手。个体生活领域中,人们运用人工智能产品完成各项工作,当前智能导航软件成为人们外出的依靠正是人们依赖人工智能的确证,甚至,一些个体在与人工智能交互中建立了情感沟通。2013年美国发生的人与智能机器人“陷入爱河”事件(1)法国女子Lily与机器人(InMoovator)共同生活,比较前两任男朋友她更喜欢与机器人男友相处,她认为机器人男友使她更有人身安全,生活更便捷,机器人男友对她更温柔、更忠诚。如今Lily和机器人男友已经同居并订婚,并打算在人类和机器人婚姻合法后结婚。参见:郭文静.法国女孩恋上3D打印机器人,宣布与机器人订婚[EB/OL].(2016-12-26)[2019-10-10].http://news.youth.cn/gj/201612/t20161226_8984015.htm.就是典型事例。因此,人工智能的运用和发展结果,“使物质力量具有理智生命,而人的生命则化为愚钝的物质力量”[10]580。

(四)人工智能运用中的社会不平等风险

无论中国还是西方,平等自古以来都是伦理学家关注的焦点,平等都被看作个人心灵和社会秩序和谐的基础。但是,人工智能的进化,首先,加剧了区域间的不平等。我国不同区域间人工智能的发展和应用具有差异性,导致在智能领域的竞争力也各不相同。当前我国人工智能基础设施建设和社会经济效益产出等都主要集中于东部地区,而中部和西部地区明显落后,加剧了区域间高科技产品在生产力发展中的不平衡,形成“智能鸿沟”。其次,加剧行业间的不平等。目前,人工智能主要应用于制造业,重塑了企业生产线流程,并在销售、服务等部门也普遍使用,大幅提升企业生产率和竞争力,造成此类企业与其他企业发展和竞争间的不平等,拉大了企业之间的发展动力。最后,加剧劳动者之间的不平等。劳动者之间因智力、体力、教育等因素的差异,不平等问题早已有之,而人工智能的运用,更加拉大了劳动者之间的不平等。作为最新科技的产物,人工智能开辟了科技的全新领域,依靠以往的知识和技术,无法满足科技的需要,因此,拥有人工智能技术的劳动者,在新时代获得了较强的竞争力,掌握这一新技术资源的劳动者更是拥有了巨大的经济利益,而其他无法适应新技术革命的人,只能面临被淘汰,被抛入失业群体,沦为“无用阶级”[11]。

三、人工智能道德风险产生的原因

人工智能作为人类科技发展的产物,本身并无善恶之分。产生善恶之讨论,究其根本原因在于人类驾驭能力有限和运用方向的错误。

(一)人工智能的相关道德理念滞后

人工智能作为新生事物,无论是政府、企业还是个体都未形成使用人工智能的成熟理念。就政府层面而言,尽管政府强调人工智能的价值,但是从道德视角说明人工智能使用的论述鲜有出现。各级政府更多地把精力放在传统智能上而不是着眼于人工智能上,人工智能并不是政府现有工作中的重点问题。在为数不多的涉及人工智能的工作中,政府关注的是人工智能带来的工作便捷、经济效益等,人工智能的道德问题并未真正受到政府的关注。就企业层面而言,作为人工智能的设计、生产、维护者,企业更多关注的是其产品的质量带来的收益、技术的跟进等问题,而不是道德风险的防范问题。就使用人工智能的个人而言,是否方便生活是其关注人工智能和使用人工智能的核心问题,至于其使用过程中的道德问题并未引起较大的关注。

政府、企业和个人对人工智能利益的过分关注和对道德问题的忽视,与现行社会中流行的利益僭越道德、错误科技观的存在密不可分。其一,利益僭越道德。利益与道德本质上具有统一性,两者相辅相成共同构筑美好生活。技术主体之于人工智能的应然状态是道德范畴内的利益最大化,道德主体之于人工智能的实然状态是技术范畴内的利益最大化。然而,市场化背景下技术主体对利益的过度追求打破了利益与道德自身的平衡,利益僭越道德引发行为失范。其二,错误的科技观。围绕人工智能出现的错误科技观主要有三种形式:一是片面僵化地看待人工智能。当人工智能给自身或周围他人带来危害时立即远离甚至排斥这一技术;当人工智能带来便捷或利益时报之以极端肯定,缺乏辩证看待人工智能技术的科学道德观。二是将人工智能“拟人化”。以完全主观性的态度对待人工智能,忽视了其技术工具的本质,将其由“人-机共生性”的应然发展状态转变为“人-机共情”的实然状态。三是“替代性”假设的提出。基于人工智能的“类人性”特征,结合人工智能深化发展所产生的实际效应和生物学科对其“意识发生”的研究提出“替代性”假设,认为人工智能终将替代人类。

(二)人工智能运用中的顶层设计不完备

为推进人工智能发展,保持我国在人工智能等新技术革命中的后发优势,从2015年开始,国家通过顶层设计,制定和出台了一系列人工智能发展政策(见表1),有力地保障了人工智能的快速发展。但是,相较于人工智能的飞速发展,与其匹配的运行、保障、监督机制却发展缓慢。就人工智能的运行机制而言,顶层制度设计仍处在起步阶段。例如,在《国务院关于印发新一代人工智能发展规划的通知》中,提出了制定促进人工智能发展的法律法规和伦理规范;2019年6月,新一代人工智能治理专业委员会发布《新一代人工智能治理原则》。但这些仅是原则性意见或通知,没有成型的管理体制,也没有成型的管理架构,规范的人工智能管理难以实现。

表1 2015年以来我国制定和出台的人工智能主要政策

就人工智能的监督机制而言,人工智能运用过程的监督涉及监督主体、监督制度、监督流程、信息反馈等因素,但现行的人工智能各使用环节都未解决监督问题。第一,在研发端,人工智能作为知识密集型技术要求参与主体的专业化,由少数人员参与研发,其他主体“自动”排除,导致这一环节监督的困难。第二,在生产环节,人工智能产品的质量监督代替了道德风险监督、利益需要代替了道义要求、低违规成本制约不了巨额利润的诱惑,使得生产企业忽略人工智能本身存在的道德风险,道德监督制度的不健全和式微导致生产环节道德监督的无效。第三,在使用端,相比人工智能存在的道德风险,人们更关注它的便捷性、高效性和实用性,对生活的实用价值代替了对生活的人文关怀。同时,人工智能使用环节的体制目前仍是我国体制机制建立的空白领域。主体意识和客观制度的共同缺位造成了人工智能使用中道德风险监督不足的局面。

就人工智能的保障机制而言,由于人工智能道德责任主体界限模糊而导致了现有道德保障机制失灵。现行的道德制度是以规范人与人之间的关系和行为为主体的制度,它确立了道德行为主体既是道德义务主体也是道德责任主体的根本原则。但是人工智能使道德行为主体延伸至机器,道德行为出现了人-机二元主体结构,围绕此问题学术界形成两种对立观点:第一,人工智能不具有道德主体性地位。部分学者从人脑的构成说明此问题,他们认为人脑中有某种给人脑以能力的特殊东西,这种东西是编程的硅芯片永远不能达到的。也有部分学者从人脑的特征说明此问题,他们认为虽然人工智能具备“类人性”,但是这些属性的存在是基于程序的输入而存在,并不是人脑所拥有的真正意义上的自主性。第二,人工智能具备道德主体地位。持此类观点的学者从两个不同层面论述了人工智能的道德主体性:首先,从人工道德智能体的动态发展过程看,经历了操作性道德、功能性道德阶段后,人工道德智能体一定能够达到可靠的道德智能体。那时,人工智能作为主体能够为其行为承担责任。其次,从“他者”视角赋予人工智能道德主体性地位。有学者认为,在当前的科学技术环境中,如果从他者的视角赋予人工智能所期望的责任,那么人工智能在行为过程中就将成为某种程度的道德能动者、责任承担者、道德实践者[12]。总体看来,当人工智能道德“到底由谁负责”的问题悬而未决、道德责任界定模糊时,人工智能的行为是由其自身负责还是由技术主体负责的追问毫无意义、所有现有的道德保障机制形同虚设。

(三)人工智能自身的“技术矛盾”

“技术的胜利,似乎是以道德的败坏为代价换来的”[13]776,技术所诱发的道德风险,始终纠缠着技术本身。相较于其他技术“是对人的体力的取代”,人工智能“是对人的‘体力+智力’的取代”,尤其是“深度学习”能力的赋予使得人工智能具有“相对主体地位”,必然“携带着”道德风险因素作用于人类社会;同时,人工智能自身也存在“技术黑箱”,促使其产生强标识性的新的道德风险。其一,人工智能直接“参与”人类社会道德关系[14]。技术发展史就是人类改造自然的能力不断提升的历史[15]86,工具性质决定了技术长期辅助人类劳动,仅作为外在因素“影响”人们的道德关系,并未改变“人-人”的道德范式。然而,人工智能模拟“人的智力”的能力实现技术与人的“耦合”,作为相对主体直接“参与”“人-人”的传统道德关系,形成“人-人工智能”相互间的道德关系。其二,算法“黑箱”导致的不确定性。人工智能依赖算法进行“深度学习”,但是算法本身的运作逻辑如何,即产生结果的原因我们无法明晰,完全依赖于人工智能的自主性,形成算法“黑箱”。当不透明性产生的不确定性后果延伸至人类社会,无形地增加了伦理风险[16],无人驾驶技术所导致的交通事故即是确证。同时,算法“黑箱”增加了人对人工智能发展不确定性的焦虑,随着科技的进步,人工智能未来将至何种阶段,导致何种影响,是形成与人类文明并存(甚至竞争)的机器文明,还是人类突破“黑箱”限制,完全掌控人工智能,成为当前人们对人工智能发展的哲学思考。

四、人工智能道德风险的治理路径

以道德风险产生的原因为依据,健全保障人工智能健康发展的制度规范、培育人工智能理念是治理人工智能道德风险的有效路径。

(一)培育正确的人工智能理念

人工智能体制机制建设、人工智能道德风险防范都需要人类有与之匹配的意识和能力,在意识与能力两者之中意识又是先行者。

第一,树立科学的人工智能认识论。人工智能能否具备意识是当前人工智能研究中的热点问题。马克思认为,意识是人脑的机能和属性。从意识起源来看,它的产生经历了一切物质所具有的反应特性到低等生物的刺激感应性再到高等动物的感觉和心理三个阶段。从意识的本质来看,意识是客观世界的主观映像。以马克思的意识理论观照人工智能,人工智能是由不同物质部件构成,具有一般物质的反应性。但是,人工智能却不是生物而是无机物,它不具备生物的刺激感,应更不具备意识的主观映像。所以,人工智能本质上是物而不是人。尽管当前生物领域专家正在模仿人类大脑神经元,建造人工智能大脑,但是这些努力只是从结构上仿照人类大脑,而意识的主观性却无法用数据或者仪器测量;同时,当前的智能机器人可以模仿一些人类的情感和自我意识,但是人类所拥有的活性逻辑思维能力,机器永远不可能具有,无论技术产生何种影响,作用于何种结果,都不是技术自身的力量,而取决于人如何使用技术[17]60。所以,人工智能本质上是一种高级的系统性技术或者技术系统,在算法、算力等领域具备超越人类的能力,但是,它本质依然是技术而不可能具备完全人类意识。因此,对于人工智能所具有的更为广阔的视野和更强的潜力,我们无须担忧,更无须恐惧人工智能未来是否替代人类,我们需要的是科学地对待人工智能,辩证地看待其社会效应,主动降低人工智能风险,将其限制于可控范围内,最大限度地增进人类利益。

第二,树立正确的主体意识。强化主体意识首先要正确认识人和人工智能的关系。人工智能是“人的产业劳动的产物,是转化为人的意志驾驭自然界的器官或者说在自然界实现人的意志的器官的自然物质”[18]198。人工智能本质上是人类创造的产物,是人在认识世界、改造世界过程中开发的人类能力的延伸。所以,在人与人工智能互动过程中,人是主体而人工智能是客体,在劳动中人工智能按人类的需要完成各项任务、实现自身价值。总之,强调人之为人的主体身份和地位,是解决交互性机器伦理的关键[19]。

强化主体意识也需要澄清人工智能发展中的错误观点。因为人工智能具有“类人”的特殊性,学者们在研究人与人工智能关系时形成了“崇拜论”和“威胁论”两种极端科技观。“崇拜论”将人工智能视为“万能神”,认为其价值中性的特征能够克服人类主观臆断等诸多不足,客观处理生产关系,做出中立性的选择和判断;同时,人工智能的风险可以依赖其自身的进一步进化而克服。因此,人工智能应不加限制地大力发展。“威胁论”则突出强调人工智能引发的各类风险进而宣称应暂停并取消人工智能。持“威胁论”的学者们将人工智能视为人类未来生存的潜在威胁,认为如果不加以节制,人类终将被机器所取代和统治。这两种观点,呈现出对人工智能发展的不同价值取向,前者积极,后者消极,但本质都是将人工智能置于人的对立面来考虑问题,没有把握好处理人和机器关系的度。

强化主体意识还需要强化主体的责任意识。人工智能时代,人们应该树立“谁使用谁负责”的责任意识。人工智能的使用者是其技术价值实现的主导,对于人工智能应用所产生的效应最具感受性,产生道德结果或产生失德后果,使用者都应该是第一责任人。同时,基于权利与义务对等原则,人工智能使用者是直接受益方,所以也应该是相应的责任担当方。只有这样,才能在人工智能发生道德风险时及时找出责任人,约束人工智能使用者良善使用并自觉规范自身行为。

(二)建构完善的人工智能体制机制

第一,首要任务是完善人工智能管理的顶层设计。在现有制度的基础上,设置完备的人工智能使用机制、运行机制和保障机制是治理其道德风险的基础和保障。首先,成立以中央牵头的上下贯通的人工智能管理机构。由中央统一领导,设置省、市、县上下连通的人工智能管理部门,协同管理人工智能的整体运行。其次,成立各级各层协同共治的人工智能运行机构。由各级各层人工智能管理部门牵头,形成政府、企业、社会有机协同的人工智能治理机制。再次,形成人工智能管理的“一把手”工程。把人工智能作为各级政府“一把手”工程,由其牵头负责人工智能的管理工作,由其担任人工智能运用的第一责任人。要使硬性的制度设置顺利运转,需要制定出台系统的人工智能道德规范体系。针对人工智能的发展,构建与之相应的道德规范体系,是治理道德风险的关键一招。最后,制定出台层级性人工智能道德规范。在国家层面,制定出台宏观的人工智能道德纲要,作为人工智能运用中道德的根本要求,作为其他各类各级人工智能道德规范的制定依据;在社会层面,基于人工智能与不同领域的结合,如医疗、教育、交通等,确定与国家道德原则精神相一致的不同领域道德规范;在个体层面,针对个体在人工智能领域可能涉及的道德问题制定规范个体行为的道德指标。

第二,要形成多元主体协同治理的主体运行机制。人工智能本身以互联网为基础保障了道德风险协同共治模式生成的技术支持,但是由可能转为现实还需要形成政府、企业、公民多元主体协同治理机制。科学家、工程师等科技工作者,是人工智能的设计和创造主体,掌握人工智能技术本体的特性、功能和潜在风险等完整数据,有责任在起始端控制风险发生概率,向公众及时普及人工智能技术知识并告之其风险可能性。政府是人工智能研发生产及政策决策主体,应当联合科技工作者和人文哲学专家对人工智能技术生产和应用中的潜在风险进行预测和评估,使监督贯穿人工智能发展全过程。哲学社会科学领域的专家学者应该突破“社会影响框架”限制,主动参与人工智能发展的理论研究和实践,为人工智能赋予伦理意义。媒体有责任积极反馈相应风险事件,客观报道人工智能的社会效应,促进技术知识的普及,杜绝以“哗众取宠”为目的的不实报道。公众是人工智能使用端主体,应该发挥参与者和监督者的作用,积极主动地参与人工智能技术的道德评估,确保人工智能健康发展。

第三,要形成有效的道德监督机制。首先,形成全过程道德监督机制,即在人工智能设计、研发、应用阶段强化技术主体的技术伦理考核因素,生成人工智能主体的伦理认知、伦理选择和伦理反思机制[20]194,将道德考量贯穿全过程。在人工智能设计阶段,主动进行道德研判,避免造成或者可能造成道德失范问题的设计和研发;在应用阶段,当存在潜在道德风险或者技术价值与其他价值相冲突时,能够基于道德价值规范自身行为,实施道德评估。技术主体在不同阶段,都应对人工智能的道德行为进行及时评估,当发现显性或隐性风险时,及时进行干预,不断升级和完善人工智能,使其发挥应有价值。其次,形成“德-得”相通的道德制约机制,防范人工智能道德风险。市场是利益交换和实现的基站,更是技术主体实现自身利益的伊甸园。然而,在利益至上的驱使下,技术主体的市场伦理失范现象客观存在,并且溢出市场领域进入社会生活领域,影响人工智能的良善使用。为了防止人工智能使用中利益僭越伦理现象的发生,要把“德-得”相通的道德制约机制引入人工智能应用领域。树立“有德”才能“有得”的思维模式,使技术主体能够自觉遵守道德规范,并主动外化为道德行为,抵制市场不道德行为,实现人工智能的市场价值,促进人工智能向善发展。

(三)完善人工智能自身伦理功能

当前,人工智能在人类社会各领域“相对主体地位”的角色已得到确证,且随着科技进步,人工智能自主性发挥的边界和能力将逐步扩大及提升,完善人工智能自身伦理,是防范和化解道德风险的关键。第一,强化人工智能伦理功能。在加强人工智能的伦理意识和理念等隐性设计伦理的基础上,我们还必须强化显性设计伦理。比如嵌入某种具有伦理功能的软件或硬件,发挥其“安全阀”的作用,从设计伊始加强人工智能伦理功能。当人工智能独立行事产生潜在的或即将发生道德风险时,相应程序能够及时介入,降低或消除道德风险的危害;当人与人工智能互动时,人工智能能够通过自身的伦理功能,帮助人们意识到技术中的道德意蕴,强调人的道德主体地位,助力人们进行道德反思,解决人们面临的道德困境。第二,持续推动技术创新,推进技术进步。面对人工智能自身存在的“算法黑箱”,除了培育正确的理念和构建完整的制度体系,促进技术的进步也是重要路径。技术本质是人的活动器官的延伸,持续推动技术创新和进步,使算法尽可能透明化,便于我们更好地认识算法过程,打破“算法黑箱”,使算法结果可理解、可追溯,转变因算法不透明所带来的不确定性结果,限制或消除由此产生的道德风险。

整体来看,人工智能作为新技术革命深化发展的成果,在经济、政治、社会等领域产生了巨大价值,但是在不同环节也出现了道德风险问题,影响着人类利益的实现。因此,在处理人工智能关系时,我们必须保持人在人机互动中的主体地位,重视人工智能道德风险,研判和预防风险的发生,发挥主动性,变消极为积极,构建人机共生关系,发掘人类与人工智能的潜力,产生聚合效应,实现人对未来生产生活方式的定义,达到人机和谐发展。

猜你喜欢
道德风险道德人工智能
头上的星空与心中的道德律
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
2019:人工智能
人工智能与就业
数读人工智能
去哪儿网服务供应链道德风险约束机制模型
下一幕,人工智能!
用道德驱散“新闻雾霾”
博弈论视角下的建筑工程外包道德风险