吴娜
人工智能经过60多年的发展取得了举世瞩目的成就,成为当代及未来发展的驱动力之一。伴随着人工智能的蓬勃发展,其伦理方面的问题也渐渐浮现了出来:人工智能带来劳动异化问题、人工智能的技术形态意识化问题、人工智能的权利和责任问题、人工智能发展中的环境伦理问题等。鉴于人工智能发展的巨大影响力,人工智能伦理问题必须引起重视,增强研发主体的道德责任感、积极推进人工智能发展规范化、法律化,加强各国的交流合作,确保人工智能在造福人类的轨道上发展,还人工智能一颗“良芯”。
如果说大数据是21世纪的“新石油”,人工智能就是社会发展的引擎,世界各个国家纷纷将人工智能的发展上升至国家发展战略层面。2017年,日本出台《下一代人工智能推进战略》,明确了人工智能发展的技术重点,并推动人工智能技术向强人工智能和超级人工智能的方向延伸。2018年,印度出台《人工智能国家战略》,充分利用人工智能这一变革性技术,促进经济增长和提升社会包容性,寻求一个适用于发展中国家的人工智能战略部署。在我国,人工智能从2017开始连续三年写进政府工作报告,側重点从技术的研发转向研发应用上,这意味着发展AI已经全面上升至国家战略高度。
人工智能伦理问题概况
1956年被誉为人工智能的元年,在该年的美国达特茅斯(Dartmouth)会议上,首次提出人工智能(Artificial Intelligence,简称AI)这一术语,标志着人工智能这一学科的正式诞生。从诞生之日起,人工智能一方面被视为一颗冉冉升起的新星,受人追捧而蓬勃发展,经历了两次高潮;另一方面也备受质疑,遭受了两次严重的挫折,被称为“人工智能的两次寒冬”。1993年以后,人工智能才算赢来了崭新的春天。
到今天,从来没有哪项技术能够像人工智能一样引发人类无限的畅想,人工智能题材的电影越来越多地涌进市场,2019年春节后上映的被誉为开启中国科幻片新纪元的电影《流浪地球》,再次引发了知识界关于人工智能伦理问题广泛的讨论。在影片中,超级人工智能机器人Moss最后一句话“让人类永远保持理智是一种奢求”,发人深省。“人工智能没有情感,不相信希望,更不相信奇迹,因为程序的思维方式和它的计算中没有奇迹。”[1]毫无疑问,在Moss看来牺牲空间站去换取挽救地球微弱的可能性简直毫无理性,但它不明白的是在人类历史进程中,正是这种在危机关头的奇迹、希望与自我牺牲才使得人类繁衍下去。
在人工智能发展的初期,科学家主要关注人工智能技术本身的发展,并且经常会和哲学联系起来,那是因为人工智能顾名思义是研发用于模拟、延伸和扩展人的智能的理论。1950年发表的《计算机与智能》这篇文章中,作者阿兰·麦席森·图灵设计了一个非常有名的测试——图灵测试,如果机器人能通过这一测试说明其会思考,反之则不会。图灵测试为人工智能的研究奠定了基础,将人工智能与人紧密联系起来,人工智能的伦理问题也悄然而至。
同年,美国著名科幻作家阿西莫夫在《我,机器人》这本书中提出了三条机器人定律:“第一条,机器人不得伤害人类个体,不能目睹人类受到伤害而不干预;第二条,机器人必须服从人类的命令,命令与第一条冲突除外;第三条,机器人在不违反第一条、第二条原则的情况下,要保护自身安全。”[2]“机器人三定律”的初衷是为了让机器人的行为规范受到限制,使其道德地位处于人类之下,避免人工智能机器人的意志与人类的意志产生冲突,从而走向“毁灭人类”的歧途。
美国著名科学家J.R.塞尔根据人工智能的智能化程度将其区分为弱人工智能和强人工智能,简单地来说,两者的主要区别就在于弱人工智能是作为一种工具而存在,自身不具备独立发展的意识。强人工智能不能简单地称之为一种工具,它具有像人一样独立思考和决策的能力,可以产生一种理性的行动。而且强人工智能奇点的存在(在物理学中奇点表示不存在的点)说明了人类有被人工智能超越的可能。著名物理学家霍金也说过:“生物大脑与电脑所能达到的成就并没有本质的差异。因此,从理论上讲,电脑可以模拟人类智能,甚至可以超越人类。”
人工智能为人类社会带来的潜在利益十分巨大,但是我们要警惕其带来的各种危险,包括强大的军事武器。除此之外,人工智能还有可能进化出自己的意志,对人类社会的影响更无法估量。对人类而言,强大的人工智能技术的崛起可谓“不成功,便成仁”,有时候,看似不太起眼的翅膀扇动,却很可能在不远的将来,引起人类社会山呼海啸般的巨震。
关于人工智能问题的研究国外比国内起步要早,比较知名的有《智能的本质》《人工智能简史》《人工智能哲学》等,这些书在描述技术发展带来便利的同时也早早就对人类发出了警示,其中,诺伯特·维纳指出,未来的机器人代替人类从事劳动可能会导致人类的生存危机——使人类变得好吃懒做和愚笨,变成机器的附庸品。我国人工智能研究起步虽比国外稍晚一些,但对于人工智能的研究文献却不少,也取得了一定的研究成果。比较著名的有浙江师范大学郑祥福教授在《人工智能的四大哲学问题》[3]提出来的关于人的意向性问题、概念框架问题、语境问题以及日常化认识问题。这四个问题的阐述将有助于人工智能科学的基础性问题的解决。北京邮电大学的刘伟教授在《关于人工智能若干重要问题的思考》[4]中启发我们要用一个综合性的眼光来看待强人工智能,而不能仅仅以一种工具的眼光视之。除此之外还有陈立鹏的《人工智能引发的科学技术伦理问题》、刘燕的《情感机器人哲学的伦理维度》、李琼的《人工智能的哲学思考》等。整体来看,我国在人工智能伦理领域研究并没有特别的深入,只是由少部分的学者对其进行了反思和初探,相关成型的伦理书籍著作更少。笔者试图在以上成果的基础之上,对当前人工智能伦理问题的困境进行进一步探究,以期推进对该问题的思考。
人工智能引发的伦理困境
人工智能带来劳动异化问题
从人工智能的定义来看,人工智能研发的目的是将其作为人的对象化产物,即作为劳动的外化而存在。劳动外化本身并不造成劳动的异化,反而可能促进人的本质的实现。那人工智能是如何导致劳动的异化这一结果的呢?这就不得不说到资本的本质,资本的本质是在运动循环中实现增值,追逐利益是资本的唯一目的。在科学技术是第一生产力的时代,人工智能所表现出的巨大的生产力必然吸引资本蜂拥而至,在资本的强烈的“裹挟”下,人工智能违背了设计的初心。“人正面临着一股自己根本无法控制的力量,与这股力量相比,人只是一粒尘埃罢了”[5]资本与技术的合谋使人工智能越来越走向一条不归路。
具体来说,这种合谋导致的劳动的异化是通过两条途径实现的:首先,自动化缩小了社会的横向分工,人工智能实现了生产的半自动化、全自动化,消除了生产对人类个体差异性的依赖。随着人工智能研发的深入,更加完善的功能使得人工智能在社会分工体系中越来越占据主导地位,减弱了横向分工之间的差距,普通劳动者之间技术的差异性逐渐丧失,高效率自动化生产的背后是资本剥削的进一步加深,所有发生的一切都是静悄悄的,被一种貌似平等的假象所掩盖了。人越来越成为资本追逐利益下技术手段的附属品,工人的生存状态并没有得到很大的改善,相反,随着劳动力对技术依赖性的增加以及由此造成的劳动力本身在分工体系中竞争力的下降,其生存状态会进一步的恶化。
其次,人工智能技术的垄断阻隔了社会的纵向分工。在信息时代,基于大数据以及计算机应用的自动化生产成为了拉动经济增长的主要驱动力,资本追逐利润的本质使得大量资金都流入了那些掌握前沿科技的企业和人才手里,这样造成了一方面是一些常规性的工作被代替以及由此造成的整个社会失业率的增加,在美国一些中产阶级的工作被计算机、机器取代;另一方面,一些本来就处于社会分工等级上层、掌握前沿科技的企业,由于资本的大量流入使得这些企业的地位更加稳固,甚至通过新的技术垄断切断了其他企业以及劳动者突破社会分工的机会,进而将不平等的社会分工等级秩序的牢笼扎得更紧。社会分工顶层和底层间不可逾越的断裂带的出现,使得社会两极分化更加严重——穷人更穷、富人更富。收益最大的只是资本的拥有者,广大劳动群众在现代化技术革命的浪潮中只是作为大量且廉价的技术附庸品而存在,而且随着科学技术的进一步发展将越来越多地被抛弃。
人工智能带来的技术形态意识化问题
技术本身承载着传播意识形态的功能。马尔库塞在肯定资本技术的同时也高高地举起了技术理性批判的旗帜,认为科学技术与私有制度的结合造就了一种新的社会的统治力量。在发达资本主义社会,技术披着超阶级的、非政治的面纱,反而呈现出更大的控制能力。“发达工业社会和发展中工业社会的政府,只有当他们能够成功地动员、组织和利用工业文明现有的技术、科学和机械生产率时,才能维持并巩固自己。”[6]在马尔库塞看来,科学技术的广泛渗透使得人们受奴隶的方式发生了很大的变化,显而易见的剥削方式消失了,取而代之的是看似公平合理的新型剝削,人的身体和思想彻底被附庸在机械化生产的体系中,在“科学”、“合理”的名头下,底层劳动者的不满和愤怒被贴上了“反科学”的名称,似乎生产效率决定一切。“技术的解放力量转而成为了解放的桎梏”[7]马克思说,人应该是处于社会关系中的人,而在科学技术浪潮的冲刷下,人越来越成为单向度的人,关于人的本质、关于自由而全面的呐喊淹没在了科学技术的巨轮里。
科学技术的发展会创造更多的生产力,会创造更多的物质财富,但是追求物质财富是人的本质吗?答案是否定的,这就是近几年风靡全国的一个问题:今天你幸福了吗?相比于十年前,社会的物质财富集聚增加,但是人们的幸福指数相比于十年前却是有减无增。资本与技术合谋创造出了越来越多的物质财富,引导人们产生一种“虚假的需求”,人就拜倒在物质的脚底下,技术理性将人类引向效率原则,在高效率生产力所带来的物质财富增加的烟雾弹下,人逐渐变成物质财富的奴隶。
人工智能的权利与责任
随着科学技术的发展以及人机交互应用范围的扩大,人工智能的伦理问题已经超出了一般的技术性伦理,其范围延伸到“机器的人权伦理问题”。2016年,中国第一台美女机器人诞生于中国科技大学,取名“佳佳”,佳佳的外形接近人,佳佳目前具备了人机对话理解、面部的微表情、口型及躯体动作匹配、大范围动态环境自主定位导航等功能。2017年10月26日,沙特阿拉伯授予美国汉森机器人索菲亚公民身份,索菲亚成为世界上首个获得公民身份的机器人。伴随“类人类生命”陆续问世,它们不再是仅从事简单的体力劳动的机器人,而是具备了一定的感知能力以及像人一样的情感特征,甚至在与人类不断交互的过程中会进行情感的自动进化,这种发展的趋势使得机器人的人权问题不得不引起重视。美国未来学家雷·库兹韦尔预言道:“拥有自我意识的非生物体(机器人)将于2029年出现,并于21世纪30年代成为常态,他们将具备各种微妙的、与人类相似的情感。”[8]他还预言,2045年是极具深刻性和分裂型的转变时间,“非生物智能在这一年将会10亿倍于今天所有人类的智慧。”[9]
人工智能技术的进一步发展,一方面给人类带来了巨大的便利,一方面使人权伦理问题更加尖锐地摆在了人类面前。比如,机器人是否应该具有像人一样的休息的权利,是否具有接受教育的权利,机器人是否可以作为家庭成员而存在,机器人有没有可能损害人的生命安全。当这种“类人类”的智能生命体不仅在相貌上越来越像人,而且能产生像人一样的情感特征的时候,我们必须思考这些“类人性”的机器人是否应该被赋予一定的人权。反对者有之,他们认为给予智能体权利就是对人类权利的破坏,智能机器人的想法从一开始就是为人类服务的,如果给这些机器人以一定的人权就违背了研发的初衷,甚至会带来一些难以预料的后果。支持者有之,他们认为在现在社会,人权的特征已经不仅仅局限于普世性和道义性两个基本特征而是具有了基础性,既然机器人拥有一定的道德修养,并且可以与人类进行一定的情感互动,而且人类本身也可以看做是一个复杂的机器,甚至从某些方面来看,人工智能的智力情况已远远超过了人类,所以智能机器人理所应当被赋予一定的权力。
近年来,随着科学技术的迅猛发展,人工智能正在凭借其巨大的优势向教育、交通、服务业、制造业、金融行业等领域进军。人工智能与人交互的机会越来越多,其凭借自身的学习能力会进行自我的进化和升级,升级和进化的方向我们没有办法完全预测到,甚至不排除在一些情况下它会自作主张。人工智能的初心是为人类服务,最开始的目的是想让人类从复杂繁琐的工作中解放出来,但是在人工智能的深层次的发展过程中有可能背离这个初心。美国科学家霍金就曾经提醒过,人类缓慢的生物进化机制没有能力与人工智能以一种不断增长的速度竞争。人工智能的这种自我进化的能力让人类非常的纠结,没有一个人工智能的算法是绝对安全的,可以把包罗万象的人类社会发生的可能性全部预测到。“随着医学、生物学及计算机等学科关于意向性研究的突破,意向性在一定程度上可以通过程序自主生成,这会使得责任的划分更加困难。”[10]与此同时,人工智能技术规范远远落后于技术的发展,甚至在实验室里,这种规范的伦理意识刚刚处于萌芽阶段。于是,人工智能的责任伦理的问题越来越尖锐地摆在人类面前——谁应该为这些不确定性的风险事故买单,是机器人本身还是其研发者还是应用者?比如,工业自动化时代,谁来对那些失业的工人负责,自动驾驶车问世以后,谁来为汽车事故承担责任?如果用于医疗诊断的专家系统出现失误,谁来为医疗事故买单?如果没有这方面的规范,责任界定的不清楚,潜在的责任方就会相互推诿,长此以往势必会造成人工智能风险事故的频发。