人工智能技术的伦理问题研究

2020-03-13 23:46
广西科技师范学院学报 2020年4期
关键词:个人信息机器伦理

龙 岭

(苏州科技大学马克思主义学院,江苏苏州 215009)

近年来,人工智能技术突飞猛进,机器人、图像识别、语音识别、指纹识别和人脸识别等人工智能技术应用广泛。机遇与挑战并存,技术进步与应用发展的同时也引发了不少实际问题和矛盾风险,人类社会道德秩序甚至遭到前所未有的伦理挑战。处理好人机关系实质上就是处理好科技和社会协调发展之间的关系,如何划定人工智能发展的道德边界,伦理学应该在场。本文试图在伦理学视域下探究人工智能技术发展中潜在的伦理问题,并提出相应的对策。

一、人工智能技术引发的哲学思考

追溯人工智能的起源,1950 年英国“计算机科学之父”艾伦·图灵提出了“图灵测试”:假定一台机器通过电传设备的显示方式,能在5 分钟内回答由人类测试者提出的一系列问题,并且有超过30%的测试者认为是人类在作答,那么这台机器就通过了测试,这台机器具有智能[1]。这一测试使得图灵能够说明一种可能性:能创造具有真正智能的“思考的机器”①1950年图灵发表在论文《计算机器与智能》(Compu-ting Machinery and Intelligence)提及的“智能”概念仅为粗略描述,并无准确清晰的定义。。机器真的能思维吗?一旦机器语言通过了“图灵测试”,人们分不清正在交谈的对象到底是机器还是人,这种真假难辨的情境令人产生恐慌和焦虑,不得不引发人类对人和机器关系的重新认识和思考。

1956 年,约翰·麦卡锡在达特茅斯会议上首次提出了“人工智能”(Artificial Intelligence,简称AI)这一术语。所谓人工智能技术就是人类制造模仿人类的机器,使其具有能读懂语言、创建抽象概念等智能特征的科学技术[2]。

当前,人类对AI 领域一直持续关注,依托AI 技术高效推动技术创新和生产应用,“智慧+”生活正加速人类和世界的发展进程,并勾勒出未来生活的图景和无限可能。然而,现实中“机器替代人类”的现象屡有发生,特别是在劳动服务方面。马克思认为,劳动是人的本质,是凸显人的社会性的活动。一旦制造、服务等行业使用智能机械、机器人实现某些工作自动化,如自动驾驶的汽车改变出租车和共享汽车雇佣模式等,“机器换人”的态势必然会导致部分人陆续被迫丧失劳动机会,加剧社会就业难和失业问题。怀着乐观主义精神的人们赞同“劳动是从制造工具开始的”[3]。随着AI 高效运转的生产模式对具体劳动的影响不断增大,重复单调、繁重、危险性的体力劳动逐渐由自动化机器替代完成。计算机和数学的发展推动了AI 技术的完善,让AI 变得比人类更快速、更智能地处理那些庞大复杂的信息。从长远看来,这种替代效应能让人们拥有更多的自由时间和精力从事脑力劳动、创造性的工作,从而追求个人自由而全面的发展。

而一些对AI 技术持悲观态度的人则由此产生某些焦虑:假如AI 机器人像人类一样拥有自己的智慧,或者未来超级智能完全达到并超越了人类智能,必将背叛和反抗人类,甚至会消灭人类;如果AI 机器能模仿人类的感知能力和情绪情感,具备与人类近似的思维和推理能力,就要赋予其同人相等的主体地位,那么“自主”“自由意志”“理性”等概念都或将被重新定义。纵观人类历史的技术革命发展进程,在每一次技术革新中,都让人不得不重新思考人类的自我认知,并为新的物我关系而感到焦虑。人工智能的发展不可逆,而由此产生的伦理风险却需要人们以合理方式研判减小或规避,以求人机共生、相得益彰,从而维护社会生活的良序发展。

二、人工智能技术发展的潜在伦理问题

AI 技术发展带来的潜在伦理挑战主要涉及智能机器可能造成威胁生命安全、个人信息泄露、挑战人类智能等方面问题。

(一)新“电车难题”威胁生命安全

无人驾驶或自动驾驶技术是现代社会极为关注的AI 技术应用之一,也是未来驾驶的发展趋势和时代新风尚。具有自主性和智能化的自动驾驶技术一旦得以应用和普遍推广,必须要有完善的伦理规范和法律法规为其提供保障和道德指引。否则,人类终究会因无法有效应对伦理学上的“电车难题”①“电车难题”(Trolley Problem)最早由英国哲学家菲利帕·福特(Philippa Foot)于1967年提出。,而陷入道德两难困境,甚至造成极为严重的人身危害。

伦理学著名的“电车难题”提出:假定一辆电车行驶途中失控,其原轨道有5人被绑在铁轨上,如果司机继续行驶则致使5 人全部丧命;如果司机变道至另一条也有1人被绑的轨道,就会让这一人死亡。如此,无论行驶哪一条轨道,都会造成人身安全受损[4]。伦理学研究对此案例一般有两种考量:以功利论为依据认为牺牲较少数人的利益维护多数人的利益;而以义务论为依据的人则认为生命安全人人平等,以牺牲少数人生命来救助他人生命违背了人道主义精神。此外,与自动驾驶关联性更紧密的是“隧道难题”:乘客乘坐一辆自动驾驶汽车正驶入单行道隧道,在隧道入口处突然有一个儿童跑到了路中央,此时自动驾驶汽车是选择继续驶向入口撞向儿童,还是应该选择急速转向撞到隧道两旁的墙壁,造成汽车内乘客的生命危险[5]。

自动驾驶技术或将成为AI 技术发展面临的新“电车难题”,即在遇到无法预测或无法避免的伤害情形中,自动驾驶程序应首先保护车外路人还是车内乘客。实质上,新“电车难题”涉及的伦理问题最直接和最根本的是智能机器对生命安全的威胁。“特斯拉事件”②2019 年5 月特斯拉自动驾驶安全事故造成驾驶员不幸死亡,汽车在事故中启动自动驾驶功能并在无任何规避措施的情形下,直接撞上了路边的卡车。让人们对自动驾驶汽车的安全性产生了进一步的怀疑。

新“电车难题”相比经典难题又有所不同,经典“电车难题”的道德判断和道德选择的主体是人,而无人驾驶情景下道德决策是由驾驶程序的人工智能系统决定。如果程序先前已被设定,现实情景中不论发生何种变故,都将按照既定伦理原则做出判断和选择,伦理责任也自然归咎于无人驾驶人工智能程序的设计者。这就要求设计者不仅技术过硬,伦理学知识储备也必须扎实,才能嵌入合理恰当的伦理原则到算法系统中。此外,经典“电车难题”的道德选择直接影响的是轨道上的多数人或少数人的利益,不会影响决策者自身利益。而在无人驾驶情境下的购买者和使用者是道德选择的决策者兼直接利益相关者,他会极大可能考虑到自身利益而选择购买和使用有利于保护自身的无人驾驶汽车,毕竟没有消费者会为一辆随时会让自我丧命的汽车买单。

(二)数据过度授权侵犯个人信息权

伴随云计算、大数据、5G 等网络媒介技术的迅猛发展,当代人迎来了网络刷屏新时代[6]。网络时代的信息来源和传播途径多元而泛滥,大量信息被收集置于开放、共享的空间中。机器虽然能够学习和处理庞大复杂的数据和信息,但终究难以有等同人类的思维和情感,容易将个人信息列为公共信息造成个人隐私泄露。尊重个人信息权和隐私是社会各界广泛关注的问题,我国《民法总则》明确规定了隐私权是自然人享有的人格权,且个人信息权亦受法律保护[7]。

如何在智能化、信息化的时代有效保护公众的个人信息权,技术伦理的探讨从未停歇。人们普遍认为,在处理信息共享与个人权利的关系上,知情同意可以适当避免个人信息权被侵害。知情同意原则要求数据采集者在开始采集之前首先需要征得个人同意和授权,告知数据后续的用途和价值。然而,一方面,数据的潜在价值未来可能递增,征得同意时不可能当时就要求人们同意这些数据未来可能产生的价值[8]102。另一方面,在数据规模极为庞大的情况下,又不可能征得人人同意,比如某平台利用大数据预测流感病毒情况时,很难无一遗漏地征得全球所有用户同意;又比如某社交平台运行时,应用授权在征得同意时条款不明晰而造成知情不完全等问题。总而言之,AI 技术愈强大,个人信息权愈易受侵犯,不论是知情同意原则亦或利用技术上的模糊化和匿名化,都难以做到很好的保护[8]103。

(三)智能机器人挑战人类主体地位

“机器换人”现象让我们见识了AI 超强的深度学习能力,具有自主意识的超级智能或许不再是“天方夜谭”。未来可能拥有与人类高度相似的具有自我意识的智能机器,不仅具有“类人脑”的内在结构仿造,还有深度学习模拟人类大脑信息过程的思维功能模拟。

从本质来看,人工智能是对人脑思维过程的模拟。在人机交互实践中,AI机器可通过自动认知、决策和行为完成任务,一定程度上显示出某种“主体性”,成为一种介于人类主体与一般事物之间的实体[9]。

2017 年,机器人“索菲亚”在“未来投资倡议”大会①未来投资倡议峰,由沙特阿拉伯经济和发展事务委员会主席发起,旨在探索塑造未来全球经济并驱动沙特经济改革的投资领域和发展路径。上被授予沙特国籍,成为史上首个拥有“公民”身份的机器人[10]。创新技术而制造的机器竟轻而易举就获得公民权利,引发社会对“机器人权利”的热议。机器人被人类创造出来的那一刻就拥有了生命,是一种人工生命。而从某种角度看,“我们的身体就是机器。它是一个非常复杂的机器,比人工制造的机器要复杂许多倍,但它毕竟还是机器”[11]。身体内部的各个器官、组织、细胞等构成的“小零件”就像是一个机器,但问题不在表面的结构形式,而在于这种机器没有思维。智能机器的出现,使一些学者开始反思思维是否只是属于人的活动。

值得一提的是,对智能机器人主体性问题的讨论必然涉及伦理学上道德主体责任问题,如果赋予智能机器以主体地位,一旦发生危害的道德行为,机器人能否承担责任;设计者和应用者是否共同承担责任,又如何分配他们之间相应的责任。AI 设计和应用中的责任主体不确定就难以追责,涉及的公平正义原则就会失去原有意义,将造成社会发展的不均衡,带来更大的伦理风险与挑战。

三、人工智能技术伦理问题的对策探究

(一)遵循基本价值原则

以何种伦理原则指引AI 技术设计和应用并有效应对潜在伦理问题,将直接影响人类未来命运。AI技术伦理研究是应用伦理学的研究领域,将伦理道德原则嵌入到技术领域的举措势在必行。

人与物之间的根本区别在于人作为实体是自在目的,是自身行动的目的及现实世界的必然存在[12],而非手段和工具;物是手段,机器只是处理事实的工具,是“为人”的,为人类所用,并不构成创造性活动。机器是人类的智能或意识的模拟,本质上只是人类智能或人类智慧的延伸,而非新的智能。人类不可能无条件地承认并赋予智能机器以权利,而要与社会核心价值体系保持一致,AI 不得故意伤害人,应以人为中心,以保护生命安全权为前提,以为人类造福为最终目的而满足人类需要。

人类对待AI 的态度决定了未来技术发展的广度和深度。在AI 伦理规制研究的道路上,尤德科斯基的“友好型人工智能”为我们提供了方向:“人类进化事实上就是信息体的进化,人实质上就是与人工智能一样的智能体存在”[13]。友好型AI 意味着我们对待发展迅速且无法预期未来极限的AI 技术,要像对待人类自身那样,将自身的价值和意义投射到对AI 的实际运用中,并非机械地给AI 植入人类伦理道德规则。工具具有两面性,人类需要理性对待AI 技术,根据自身意愿与人工智能相互合作共赢。如果极端而强势地排斥技术,则会陷入固步自封的境地,而极端依赖工具又会消解自身价值和意义。

(二)健全法律体系和监管制度

人工智能是现代和未来社会发展的强大驱动,陆续成为各国国家发展战略的新领域,“智能+”的标签让社会生产生活进入了新阶段。AI 技术广泛应用所涉及的网络安全、个人信息、公平公正等社会风险必定要纳入国家发展战略计划的相关伦理规范和法律体系中考量。

一方面,国家立法机构和法律专家应在伦理和主体性哲学研究基础上,适时出台并完善《人工智能法》等相关法律法规、伦理规范和政策体系,以良法促进技术发展。如自动驾驶导致行人伤亡时,究竟应如何定罪,主体责任由谁承担;立法原则是选择保护技术创新为主还是保护公众生命安全为主,都应该深入研判。另一方面,施行公开透明的AI 监管,开放社会舆论监督监管平台。面对信息共享时代纷繁复杂的数据泛滥问题,AI 技术要在个人信息收集、存储、处理、使用等各环节设置道德边界和底线,在数据挖掘中寻找有价值的见解;尊重和保护个人信息权,完善个人同意授权和数据撤销机制,充分保障个人的知情权和选择权,反对任何窃取、篡改、泄露和其他非法收集利用个人信息的行为,由此减轻公众对人工智能安全的忧虑,最终形成人与人工智能良性互动的局面。

(三)合力推进人机融合智能

AI技术伦理建构需要多方参与、协同合作建设和管理。人机融合发展就是要依托AI 技术发挥机器智能化作用,补齐人类智能在信息搜索、收集、处理、记忆等方面的短板,将人类智能与人工智能高效结合,解决因社会发展而产生的各种问题。

第一,改变旧式思维模式。我们无需抗拒AI 良性发展,而应意识到AI 给人类带来福音还是灾难,实则根本取决于人类自身,而不是机器本身[14]。人类要不断优化AI 技术层面的可持续性,借助技术逐步提高社会生产率,解放人类双手,使劳动的表现形式不再简单粗糙,推动人的解放。

第二,优化人机合作关系。人类和AI 技术不应对立,应当建立相互适应与相互信任的机制。面对突发事件,人由情感支配唤起理性作出道德判断和道德选择,对比之下,人工智能则表现得相对机械,因而常常容易形成偏见。因此,让AI 技术在学习、储存、语言、计算、生产、模仿等方面发挥最大特长,思维、情感等方面只需交给人类。同时,人类自身的思维模式和大脑知识储备也应当开拓进取,不断追求人类知识界限,超越自己并全面发展。

第三,他律与自律相结合。在人工智能道德规范法律法规、伦理道德和标准规范制度框架下,企业应加强AI 管理和AI 伦理道德教育,增强企业社会责任感和企业个人自律意识;重视利益再分配,通过道德谴责和法律制裁相结合的方式合理谨慎地权衡利益,减少AI 技术给社会带来的利益风险和冲击,兴利除弊地推进未来智能技术向增进人类福祉的方向前进。

人工智能技是把“双刃剑”。人类在享受人工智能红利的同时必须要认识到未来科技发展的不确定性,需要审视人工智能潜在的伦理问题。目前对人工智能技术的伦理探究仅仅作为社会人伦和道德规范指引,尚且处在具体制度设计和框架体系的基础环节。未来超级智能想要实现更高层次的应用和飞跃式发展,还将涉及哲学、心理学、语言学等社会科学与计算机科学、数学等学科的交叉研究。正如人类从未停止对科技的探索一样,对人工智能技术伦理的深入也亟待丰富和完善。

猜你喜欢
个人信息机器伦理
《心之死》的趣味与伦理焦虑
如何保护劳动者的个人信息?
机器狗
个人信息保护进入“法时代”
机器狗
护生眼中的伦理修养
警惕个人信息泄露
未来机器城
医改莫忘构建伦理新机制
个人信息保护等6项通信行业标准征求意见