人工智能系统及产品设计的伦理问题探究

2019-03-29 12:10周至禹宁波大学潘天寿艺术设计学院中央美术学院
创意与设计 2019年1期
关键词:伦理机器人人工智能

文/ 周至禹 (宁波大学 潘天寿艺术设计学院;中央美术学院 )

引言

随着人工智能技术与应用在全球迅速兴起,人工智能领域的竞赛千帆竞渡,国家层面也展开了为了获取人工智能优势而进行的竞争,各国竞相发布人工智能专项战略或规划,而人工智能的中国国家战略也已启动,2017年7月,国务院印发并实施《新一代人工智能发展规划》,2017年12月,工业和信息化部印发《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,2018年10月31日,中共中央政治局就人工智能发展现状和趋势举行第九次集体学习。习近平总书记强调:人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。

与此相对应,近几年,脑科学与智能技术卓越创新,手眼脑融合智能研究如火如荼,方兴未艾,类脑新型智能机器人理论研究和应用团队纷纷构建,人工智能炙手可热,创业公司如雨后春笋,科技与产品的智能化创新井喷涌现,2018年中国机器人十大科技进展于2018年10月11日发布;2018年11月14日 英特尔在京举办人工智能大会,宣布“AI未来先锋计划”;2019年1月10日年首届中国机器人行业年会在京举行;2019年1月10日国家智能产业峰会在青岛举行。设计教育也在前沿研究,师资建设,人才培养,产业对接等方面的多方位合作,借以积极探索产学研携手推动人工智能发展新模式,新路径。显示了人工智能技术为经济高质量发展“赋能”的时代特征,中国正在成为全球人工智能领域的新增长极。

从人工智能的应用前景和市场规模方面来看,中国有着独特优势和广阔前景。2019年1月2日,阿里巴巴达摩院发布了“2019十大科技趋势”,涵盖了智能城市、数字身份、自动驾驶、图神经网络系统、AI芯片、区块链、5G等领域。而从清华大学发布的《中国AI发展报告2018》报告中可见:中国已成为全球人工智能专利布局最多的国家;中国人工智能企业数量排在全球第二,北京是全球人工智能企业最集中的城市;中国人工智能领域的投融资占到了全球的60%。人工智能对于国家是千年一遇的超越工业革命的时代机会。中国有巨量的数据和应用市场,有机会在世界占领先机。

数据驱动型新经济形态已经形成,主要发达国家和地区将人工智能作为当前最大的发展战略已是不争的事实 ,美国人工智能企业Spare5的CEO曾在给总统特朗普的信中强调,人工智能是一场竞赛,中国已加入到这场角逐当中,其人工智能技术以及商业化产品落地愈发成熟,以此提醒特朗普要加大对人工智能领域的重视和投入。2019年1月22—25日在瑞士达沃斯举行的世界经济论坛2019年年会,其主题即为“全球化4.0:打造第四次工业革命时代的全球架构”。从2010年开始的二十年,将会是人工智能寒武纪的大爆发,技术开始形成明显的涟漪效应。人工智能影响最大的有如下几个领域:金融、医疗、安防识别相关的领域、无人驾驶。人工智能通过设计应用上述领域引发重大变革,例如:智能驾驶将是人工智能所带来的增值最大的产业。

人工智能是对整个社会生活方式产生深刻变革的关键技术,未来将广泛存在于我们的生活场景中,并对传统法律法规和社会规范提出挑战,将会带来许多严重程度不等的社会问题,并引起担忧:以人工智能和生物技术为核心的现代技术正在逐渐掌控人类文明。在整个人工智能发展热潮中,伦理道德法律框架设计明显滞后。在新旧转换之际,必须对智能革命时代的法律制度乃至整个社会规范进行新的建构。必须着手制定人工智能领域的治理框架,通过采取新的行为规范来确保高伦理标准,并对技术掌握者,对技术拥有者,对企业,对工程师,对设计师都有约束意义。而此问题在社会学层面思考较多,在设计学层面则几乎完全缺失。但是作为设计+科技的许多消费产品,都是工程师与设计师合作的结果。目前,在人工智能行业内缺乏基于价值观的伦理文化和实践,缺乏解决系统设计时伦理问题的流程模型。人工智能设计问题产生的道德衍生后果是什么?在整个设计过程中,如何始终贯彻伦理规范?一系列问题都值得我们予以重视和思考。

一、机器人引发的社会就业和贫富问题

已经去世的著名物理学教授史蒂芬-霍金(Stephen William Hawking)曾给予人类以警告:有人可能创造出超级人工智能,它们能够全面超越人类,而且有可能完全取代人类。在《连线杂志》的一场专访中,霍金称,人工智能取代人类可能会带来一种新的生命形态:“我担心人工智能将全面取代人类。如果有人能设计出计算机病毒,那么就会有人设计出能提升并复制自己的人工智能。这就会带来一种能够超越人类的全新生命形式。”。美国斯坦福大学人工智能与伦理学教授杰瑞·卡普兰(Jerry Kaplan)在《人工智能时代》一书中提出:人工智能给人类带来的第一个威胁是:人工智能不受道德约束,人工智能的产物机器人可能会为达到最终目标,而不择手段,甚至威胁到人类的生命。人工智能带给人类的第二个威胁,也是目前备受大家关注和争议的威胁:机器会取代人类工作,引发人类失业,给人类的精神健康带来冲击。人工智能带给人类的第三个威胁是少数掌握技术的群体将控制社会资源的流向,造成贫富差距变大。最新人工智能技术的好处掌握在少数人手里,造成对财富集中和分配不平等的担忧,会引发一系列社会问题。而2016年联合国发布《人工智能政策报告》,也表达了对人工智能的关注,并针对人工智能技术发展带来的各种问题,提出了一些新的思考方式和解决途径。

据牛津大学的调研报告,未来将有1000万非技术工种被机器人取代。从制造到智造,正是企业转型升级的一个特征,机器人应用节省成本,提高劳动效率,因此各种用途的人工智能机器人正在被设计,被应用,让相关产业成非线性、跃进式的增长,人工智能与产业的结合,形成高价值,让人们趋之若鹜,投资机构都在押注人工智能产业。美国投资理财专家约翰·普利亚诺(John Pugiano)撰写了《机器人来了:人工智能时代的人类生存法则》,他认为,任何循规蹈矩而且可预测性的工作在未来5年至10年都将有可能被人工智能取代。麦肯锡预测,到了2030年全球将有多达8亿名劳工的工作将被机器人和自动化取代,美国、日本和德国将有25%的工作会由机器人接手,中国为16%。甚至在设计方面,简单建筑物的设计已经由人工智能软件来完成。约翰·普利亚诺认为,未来只有那些具有创造性和艺术技能的建筑师才能在企业中生存。可能的设计职业也许是卡普兰预言的售卖适用于3D 打印机的产品设计等工作。人工智能也创造了一些相关职业。最近,人力资源和社会保障部初步确定人工智能工程技术人员等15个拟发布新职业。第一名就是人工智能工程技术人员,第三名是大数据工程技术人员,第十一名是工业机器人系统操作员,第十二名是工业机器人系统运维员。

二、人工智能普及应用引发的安全问题

人工智能的发展主要来自深度学习(Deep learning)技术的突破,使机器得以自主学习,并在性能功能上迅速超越人类,盖因为人类智能的演化平缓进行,时代变革和社会发展不会大幅度提升人类的智力,而人工智能则随着数据和算法的优化会产生突变的增长,在某个奇点上超越人类智力。人工智能可以更加理性逻辑地进行客观判断,同时处理信息的容量大大增加,可以避免漏判和错判的概率精度远超人类,自然会引起人类担忧。在近年,一些国际顶级期刊的内容,直指人工智能的问题与反思,例如:AlphaGo人工智能与人类智能的博弈;人工智能作为资源的垄断现状;人工智能对医疗,安防的介入和对大数据的判断解读;人脸识别技术的监控应用隐私暴露危险等等。在消费类电子科技产品中,数据对隐私和安全同样构成危险,已经出现了这样一种趋势:在科学、医学、商业、教育,任何社会或经济领域都将普遍依赖于对数字化文本数据的分析。而人工智能如果在深度学习过程中使用大量的敏感数据,这些数据也可能会在后续被搜集披露出去,对个人隐私产生不可估量的影响。因此必须想出新的办法来监控或者审核目前正在众多领域发挥重大作用的人工智能。

人工智能安全始终是人们关注的一个重点,纽约大学人工智能研究所的年度报告提出警告,试图解读面部表情的人脸识别算法可能基于靠不住的科学,报告称:“任何通过AI将面部表情简单化地映射至基本情感类别的做法都可能重复一种过时的科学范式的错误。”报告提出了关于对人工智能进行监管以及提高该行业透明度的建议,该研究所创始人之一凯特·克劳福德(Kate Crawford)教授说:“现在的问题是,AI正被应用在众多社会环境中。人类学、心理学和哲学都与之密切相关,但这不是对具有技术(计算机科学)背景的人进行培训。实际上,AI的狭窄化催生了一种坦率接受某些特定心理学文献的态度,而这些心理学文献已被证明是可疑的。”“我们需要强有力的独立组织机构、领域专家和消息灵通的研究人员来监督人工智能,督促主要研发公司以负责任的态度以高标准来发展这项技术。”如何防范病毒、黑客对人工智能产品的侵蚀也是另一个重要的问题。各种生活中使用的智能电器,也都在精细地记录私人的行踪和生活信息,隐私权的保护,形成了人工智能时代的难题。此外,仿真和替换技术已经日趋成熟,人工智能合成主播的出现意味着,制作假新闻的成本将越来越低,而人们辨别信息真伪的难度将大幅增加,在以真实性为基础的新闻、法律等领域,我们能否承受其对既有社会规则的冲击?

三、人工智能数据分析和垄断产生的问题

数据即生产力、数据即财富、数据即权力。占世界人口总数约两成的中国是一个数据宝库,国家已经制定《网络安全法》,要求重要数据不能出境。 据美国市场研究机构协同研究集团统计,从大型数据中心在全球的分布比率看,美国以44%居首,但中国以8%紧随其后。百度已将公司战略从“移动互联网第一”调整为“人工智能第一”,腾讯亦建立了自己的人工智能技术实验室。百度、阿里、腾讯等国内企业在大数据方面的积累极为丰富,BAT、头条、美团等巨头紧随其后。人工智能所形成的大数据,被一些互联网巨头所垄断,人工智能的进步会加速中心化趋势,少数几个基于云计算、多功能的庞大商业智能寡头,实际垄断了数据的收集和构建方式,以海量的信息构建一个框架来影响众人的决策。同时,为了数据垄断,封闭和割据成为了趋势,资本和政治充分发挥作用,导致数据缺乏广度和深度,不利于人工智能战略的正常推进。

价值链上不可忽视的要素是数据。如今,数据成为设计的重要参数,以至于根据数据就可以做设计,但谁可以有权利掌握数据,运用数据?数据的私密性,数据涉及的版权问题,数据作为重要的资源可被销售给第三方,数据设计所生成的偏好强化等问题,都引发了一系列的伦理问题。围绕数据的挖掘、存储、使用和跨界流动环节,有可能导致数据和隐私的侵犯、不对称信息权力的滥用、数据和技术导致的垄断等问题。2018年3月脸书(Facebook)数据泄露问题丑闻曝出:Cambridge Analytica数据分析公司通过一个应用程序收集了5000万Facebook用户的个人信息,该应用程序详细描述了用户的个性、社交网络以及在平台上的参与度。脸书因该事件受到英国信息委员会办公室66.4万美元的罚单。而美国联邦贸易委员会(Federal Trade Commission)正考虑对脸书处以“创纪录的罚款”,原因是脸书违反了与政府达成的一项具有法律约束力的保护用户个人数据隐私的协议,未能保护用户数据:政治咨询机构剑桥分析公司未经脸书用户明确同意,使用了数百万脸书用户的个人信息。人工智能技术假如想要提供个性化、完全符合个人习惯的服务,就必然要学习和理解用户本身,但这又涉及对用户私人数据的学习。因此需要对大公司垄断数据加以限制,让人工智能决策透明,用政策立法以规范人工智能发展。包括谷歌在内的许多知名大公司已经设置了伦理委员会,用来监督他们人工智能技术的开发和部署。

人工智能在医疗行业迅速应用。百度(Baidu)正在与北京市政府合作打造健康云,将监测来自可穿戴设备和其他智能健康设备的数据。阿里巴巴也推出了名为“未来医院”的电子医疗服务。卡耐基梅隆大学计算机科学学院教授邢波认为,应把人工智能跟人的形象和功能脱离开。在他看来,医学人工智能与医生之间不是竞争关系而是协作关系,人工智能能够极大地提升医疗的效率,但绝对不是替代医生。部分计算机科学家缺少对医学的敬畏和理解。对人工智能进行道德制约,行为分际,就是在引导AI,学习在人类社会里“做人”。把个人数据交给机器似乎是人类不可避免的归宿。无论是医疗健康、金融服务还是社会安全,机器比人类更靠谱,但是也有很大风险。另一方面,数据的有效性、准确性,也会影响整个算法决策和预测的准确性。虚拟的数据可能被作为真实的数据被计算机加以学习和利用,另外,错误的输入形成的错误输出作为反馈,进一步加深了错误,例如一款名为沃森(IBM Watson for Oncology)的肿瘤机辅助治疗人工智能产品令1997年就开发出Deep Blue人工智能系统的美国跨国科技公司IBM深陷舆论漩涡,因其训练的使用数据多是虚拟患者的假想数据。

四、人工智能系统算法的偏向和操纵问题

研究显示,即使在训练人工智能系统时使用的材料全部来自中性素材来源,最终人工智能仍然有可能会在价值取向上自动发展出某种偏差。因此,如何解决机器学习中的公平、责任与透明性问题并不容易。深度学习是一个典型的“黑箱”算法,算法在本质上是“以数学方式或者计算机代码表达的意见”,包括其设计、目的、成功标准、数据使用等等,都是设计者、开发者的主观选择,设计者和开发者会有意无意地将自己的偏见嵌入算法系统,就会带来社会互动协作方式的改变。就目前而言,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在偏见根源,在技术上是比较困难的。比如,数据是社会现实的反映,训练数据本身可能是偏见性的。最终,人工智能的算法决策不仅仅会将过去的偏见做法代码化,而且会创造自己的现实,形成一个自我实现的歧视性反馈循环。偏见强化阶层对立、弱势人群的边缘化和贫困化。因此需要对算法进行必要监管,制定法规确保透明性,避免算法作恶。

超级科技公司的网络技术已入侵人类思想,在日常生活中人们受搜索引擎的控制,超级科技公司利用人工智能,掌握用户个人资料,成为控制人们的强大工具。这些个人资料不但可被用来向用户发出针对性的广告,还可用来影响用户思想,根据用户偏好推送相关信息,强化偏见,支配和控制现代人生活,使现代人失去最基本的自我主宰能力。而算法决策开始介入甚至主导越来越多的人类社会事务和个人思想行为。人们在互联网上获取的新闻、音乐、视频、广告等等,以及购买的商品,很多都是推荐引擎个性化推荐给用户。例如,阿里巴巴旗下的生鲜超市“盒马鲜生”会对顾客的购买记录、订货时间段进行分析后优化采购结构 。

中国科学院科技战略咨询研究院与腾讯研究院在北京联合举办了“2017人工智能:技术、伦理与法律研讨会”。表明人们已经意识到,需要在人工智能研发中贯彻伦理原则,因为人们不是在制造一个被动的简单工具,而是在设计像人一样具有感知、认知、决策等能力的复杂工具,需要确保这些复杂工具进入人类社会以后能够与人类的价值规范及需求相一致。一方面,针对人工智能研发活动,人工智能研发人员需要遵守一些基本的伦理准则,包括有益性、不作恶、包容性的设计、多样性、透明性,以及隐私的保护,等等。让人类和人工智能进行协同式的伦理决策。另一方面,也需要对不同维度的伦理道德进行分别考量,最后将决策进行融合,建立人工智能伦理审查制度,伦理审查应当是跨学科的,多样性的,对人工智能技术和产品的伦理影响进行评估并提出建议。

五、人工智能嵌入多样伦理的矛盾问题

人工智能机器在设计时必须嵌入人类的伦理,这是迫在眉睫的问题。不同国家和地区有不同的伦理标准,因此,如果将自己文化里特有的伦理观,用以预设人工智能的行为,便可得出不同国度和文化的人工智能。人工智能伦理的嵌入便存在伦理的跨情景问题。需要建立一套全球性商议制度,对人工智能系统制定人类文明一致性的道德共识,在此基础上再形成各种文化特色的伦理。伦理嵌入可以 赋予人工智能独特的文化个性,并且界定人与人工智能的关系,同时规范人工智能的行为准则。毫无疑义,没有伦理的强力介入,人工智能在设计应用服务大众时将会问题百出。但是,人们面临一个问题:是谁制定被写进人工智能系统的价值观,谁将最终为它们负责?蒙特利尔大学计算机科学与运算系教授约书亚·本吉奥(Yoshua Bengio)指出:这次人工智能热潮很大程度上是由工业界的巨大需求驱动的。人工智能的发展是资本力量在背后推动,而资本的增值有时是盲目而不计后果的。对此,必须予以足够的警惕。

英国上议院2018年发布报告《人工智能在英国:准备、意愿和能力?》(图1),集中聚焦于伦理道德问题——人工智能可能为人类带来的风险。撰写报告的英国上议院人工智能特别委员会主席克莱门特-琼斯勋爵(Lord Clement-Jones)说:“在人工智能的发展和应用中,伦理必须占据中心地位。英国应当抓住机会积极地推进AI与公众利益的结合,并领导国际社会在人工智能伦理领域的发展,而不是被动承担那些AI可能造成的消极后果。”英国上议院的这份报告起草了纲领性的五大原则,包括:发展人工智能是为了人类的共同利益;人工智能应当保证公平,并且让人容易理解;人工智能不应当用来侵犯人们的隐私;所有公民都有权利接受教育,使他们能在精神、情感与经济上和人工智能一起繁荣发展;人工智能不应被赋予伤害、破坏或欺骗人类的自主能力。

图1 英国上议院2018年发布报告《人工智能在英国:准备、意愿和能力?》

如何通过设计使人工智能系统做出更具道德伦理性的判断,是当前人与人工智能交互系统的重点。2016年,科学家提出了一种可以让人工智能系统自行进行伦理决策的新系统,它以信任-渴望-意图模型为基础。2017年,基于游戏和机器学习的通用人工智能伦理系统被提出。同年阿西洛马会议提出了23条人工智能原则。合伦理的人工智能设计,需要将人类社会的法律、道德等规范和价值嵌入人工智能系统,但是需要解决不同伦理和价值对接的问题。另外,能够兼容人类的人工智能唯一目标是最大化人类价值的实现,而人类为人工智能提供了关于人类价值的信息,帮助机器人确定符合人类希望的价值。特别需要将人的伦理进行结构化处理,进一步提供给机器学习,形成机器的伦理体系,难点在于跨情景环节,即如何确定在何种情景下,机器的伦理能发生应有的效应。

六、人工智能面临的道德伦理选择困境

伦理是指“人与人以及人与自然的关系和处理这些关系的规则”,受结果导向、行为方式和品质精神的考量,但是,伦理并没有形成统一广泛的普适伦理体系,况且伦理是变化发展的。人工智能的伦理面临着一些选择和困境, 一是个体和群体人工智能决策框架,二是人与人工智能交互中的伦理道德。互联网进化论作者刘锋曾在“2017人工智能:技术、伦理与法律研讨会”上发言,提出制定人工智能伦理无法回避的有五个问题:1.应该由谁来制定人工智能伦理;2.站在谁的立场制定人工智能伦理;3.按照什么原则制定人工智能伦理;4. 人工智能伦理是供谁来参考使用;5.AI能不能被看做与人类同权的生命体毫无疑义,伦理的制定应是全方面的参与,并且提供管理者(政府,企业家)、研究者(科学家)、开发者(设计师,程序员和产品经理)参考,对人工智能系统的开发和产品的设计生产,政府和企业相关部门要严加管理,研制者则要自觉约束。

近年,欧洲机器人研究网络(EURON)发布了《机器人伦理学路线图》,韩国政府起草了《机器人伦理宪章》。美国信息技术产业委员会(ITI)颁布了人工智能政策准则、美国电气电子工程师学会(IEEE)发布了第二版《人工智能设计的伦理准则》。旨在鼓励科技人员在人工智能的设计研发过程中,优先考虑伦理问题。一般原则包含了1. 人类利益,2. 责任,3. 透明性,4. 教育和意识。而需要指导伦理研究和设计的方法论则是:人工智能应当符合人类价值观,服务于人类,服务于人类社会和经济的发展。以人类价值观为导向的方法论是人工智能设计的核心,其中最重要的是对人权的保护。

《人民平台》一书作者阿斯特拉·泰勒(Astra Taylor)认为,人工智能对人类社会的影响主要在两个方面,一个是数据的寡头垄断,一个是重新定义人类和人工智能的关系,属于哲学层面的冲击。人工智能最新系统的基本特征就是随着时间的向前推进,不断创新创造产生新知识的智能系统,也就是类人工智能和强人工智能发展的极限状态,趋向于无穷点时,其输入输出能力和知识的掌握运用能力也将趋近于无穷大,可以看出智能系统在不断创新创造和不断积累知识的情况下,在足够的时间里以人类为代表的智能系统将最终实现“全知全能”的状态,从这个角度看,无论是东方文化的”神“,或西方文化中的“上帝”概念,从智能系统发展的角度看,可以看作是智能系统(包括人类)在未来时间点的进化状态。到那个时候,人类将怎样与其相处?

七、人工智能的军事化应用带来的问题

人工智能的军事化存在着更大危机。2018年12月,在瑞士日内瓦召开的联合国武器公约会议上曝光的一个视频,显示一个蜜蜂大小的杀手机器人,可轻易躲过子弹,穿透建筑物和汽车,面部识别度高达99.99%,只要输入目标的图像信息,就可定点定人消灭。目前,人工智能武器已经出现。人工智能的军事化应用将从根本上改变战争方式,引发新一轮的军事变革。据英国《卫报》报道,英国谢菲尔德大学人工智能和机器人专业教授诺尔·沙吉(Noel Sharkey)说:“把生死决定交给没有同情心和理解力的冰冷机器,不符合马尔顿斯条款,让我不寒而栗。”2018年由Elon Mask等知名科学家、企业家组成的2000多人在国际人工智能联合会(IJCAI)上共同签署了抵制将人工智能武器化的宣言。研究者应当保证他们的产出符合人类道德:不侵犯隐私、不伤害人类、不左右政局,尤其在人工智能武器方面应当更为谨慎。建立有效的机制审问人工智能,以保证人工智能符合人类的伦理道德。

人类是否有足够的能力及时停止人工智能领域的“军备竞赛”,能否保有最高掌控权?如何利用人工智能技术让人类社会变得更美好?作为有责任的设计师,要对技术时代和技术现象有积极反应的能力,在现代技术泛滥发展的时代,设计需要一种抵抗姿态,一方面,我们要避免有设计缺陷的人工智能应用,另一方面,我们要防止人工智能形成自主的侵犯。在建立设计伦理的时候,警惕的是人:反人道主义科学家或不正当利用人工智能者。来自人工智能的威胁其实也是来自人类本身的威胁。人类应当善用人工智能,同济大学教授孙周兴在一次采访中说,“我们希望守住自然人类的最后边界。”要积极介入正在推进的人工智能对我们生活世界的创制过程中,发挥我们的创造性作用,努力使技术性的“人工智能”变成“人文智能”,人工智能的发展应该以人类社会的稳定与福祉为前提,关键的问题是找出确保这些新系统让整个社会得到改善的方法——而不仅仅是让控制它们的人受益。

2017年1月,在加利福尼亚州阿西洛马举行的Beneficial Al会议上,近千名人工智能相关领域的专家,联合签署了著名的《阿西洛马人工智能23条原则》。美国互联网企业牵头成立的非营利组织“人工智能(AI)合作”(The Partnership on AI,PAI)2018年10月16日宣布接纳中国互联网科技公司百度(Baidu)成为会员。 拥有70多家公司、学术团体和民间组织为会员的PAI旨在为AI领域的研究提供伦理学指导,包括保障AI研究不违反国际公约和人权。微软同样提出了开发人工智能的六项基本原则:公平、可靠与安全、隐私与保密、包容、透明、负责。微软公司总裁施博德(Brad Smith)“微软认为,要设计出可信赖的人工智能,必须采取体现道德原则的解决方案,在赋予计算机更大力量的同时,也需要用社会伦理来引导它。”在伦理思考与制定方面,政府与国际组织,企业和工程师专家都已经开始行动,加强人工智能开发和应用的顶层设计,引导和规制人工智能技术良好发展,政府相关部门对人工智能产品从设计、研发、数据采集、市场推广和应用等环节进行全方位监管。而设计师也需要发出自己的声音。使人工智能在研发和设计阶段就接受伦理准则的约束,设计出符合政策和法律的人工智能产品。

八、机器人生命体能否与人类同权的问题

在机器人技术快速发展以及与人类关系日益密切的时代背景中,人工智能出现“去人类中心化”和“去人类控制化”的趋势,机器人的自主性一方面让人产生担忧,一方面也让关于机器人权利问题的讨论受到越来越多的关注。艺术家总是率先敏感地认识到这一点,有关AI的科幻作品不断面世,描绘了智能机器人的普及与觉醒,例如《底特律:变人》中机器人马库斯在人类的电视台上发出宣言:“现在你们人类必须正视我们的存在,……我要求你们承认我们的尊严和家园,我要求你们承认我们的尊严和我们的诉求,以及我们的权利,让我们携手起来,我们可以和平共处,为人类及仿生人打造更好的未来,这个呼声代表了一个民族的希望,你们曾经赋予我们生命,现在是时候赋予我们自由了。”而法国艺术小组Obvious用人工智能描绘的《埃蒙德·贝拉米肖像》在纽约佳士得拍卖中以43万美元成交,激发了一系列关于AI艺术以及其与人类关系的讨论。

2016年谷歌公司的一款围棋人工智能程序AlphaGo以4∶1战胜了韩国九段棋手李世石,似乎成为一个划时代的象征:“机器战胜了人”。著名科幻作家、“机器人学之父”阿西莫夫提出“机器人三原则”:“1.机器人不得伤害人类;2.机器人必须服从人类的命令,除非这条命令与第一条原则相矛盾;3.机器人必须保护自己,除非这种保护与以上两条原则相矛盾。”人工智能的社会化应用,不再单纯是经济和设计的问题,而是重要的社会问题,涉及道德代码、隐私、正义、有益性、安全、责任等问题。作为人类的设计产品,人工智能机器人还不能看做与人类同权的生命体,它分担了人类的部分知识和智慧功能,但在最重要的创造性和评审创造性价值方面无法替代,在现阶段,智能机器人不应具备“人”的资格。

纵观机械发展史,关于自动化的一切尝试都是人的体外功能的延伸,而现在,人工智能则是人的头脑功能的延伸,让机器人在智力上超越了人类。在外型上,类人机器人也发展迅猛。由中国香港的汉森机器人技术公司(Hanson Robotics)开发的机器人索非亚(Sophia)2017年在瑞士日内瓦“善用人工智能”峰会上亮相。2017年10月26日,沙特阿拉伯授予索菲亚公民身份。欧盟已经开始考虑要不要赋予智能机器人“电子人”的法律人格。另外,具有人工智能的硅胶娃娃也在悄悄改变着人类的情感关系。一些未来学学者和技术专家预言:未来,人工智能很可能按照我们人类的方式,从情感、智力和精神层面,来体验这个世界。服务类机器人与人类的交互对人类的行为和心理将产生什么样的影响?日本经济新闻报道,一家运营招聘网站的日本公司DIP针对500名从事兼职的15-26岁男女调查,了解人们对于和人工智能谈恋爱或交朋友的态度,结果显示,近六成男性对于与AI交往持积极态度,而超过六成的女性拒绝与AI交往。

九、人工人和智能机器人的关系问题

设计伦理的构建需要在统一明确的伦理体系之下,将相关的各个交叉学科联系起来,协同合作,研究与人工智能设计相关的伦理道德。这不仅仅是合理设计某种人工智能,也是关于人工智能合理做设计的问题,基于人工智能的设计学理论建构也在进行之中,软件设计工程师所做的工作将会被智能机器人所代替,即创造者被其创造的技术产品所代替,智能机器人已经开始从事文学和新闻创作,甚至进行绘画艺术创作,同样,将来有许多设计工作,例如重复的算法的部分可以交付人工智能去处理甚至去设计。当强人工智能机器人具有了“自主意识”和“表意能力”的时候,便会产生知识产权等问题:我们怎样看待智能机器的创作,该项著作权利应归属于机器还是创制机器的人?怎样预防智能机器的抄袭?智能机器的创作将会给人类带来什么影响?未来机器人设计的作品是否享有权利?设计权应该归属机器还是设计机器人的设计师或所有人?2016年5月31日,欧盟委员会法律事务委员会提交一项动议,要求欧盟委员会把正在自动化智能机器“工人”的身份界定为“电子人”的身份,并赋予这些机器人依法享有著作权等特殊的权利与义务。

2018年11月23日“首届未来哲学论坛”在上海召开,讨论的主题便是“技术与人类未来”。业已出现的各种可穿戴电子设备又有利于人们生活的一面,但是据《环球时报·英文版》2018年12月20日报道,在贵州省仁怀市第十一中学,学生现在都穿上了一套智能校服,被精准、及时记录出勤和活动,甚至包括打瞌睡。更进一步,人体埋入芯片和基因改造,让自然的人类文明正在过渡为技术的“类人文明”——人类身-心的双重非自然化或技术化,即目前主要由生物技术(基因工程)实施的人类自然身体的技术化,以及由智能技术(算法)完成的人类智力和精神的技术化。美国芝加哥艺术学院科技与艺术学系主任科技艺术家爱德华·卡茨(Eduardo Kac)将具身份辨识功能的生物芯片植入自己的脚踝中,通过网络扫描装置,将自己登录于动物名录中。随着当代科技的发展趋势,人的身体渐渐被视为计算机的延伸装置,生物芯片与网络登录将生物信息微型压缩,“真实记忆”与“数位记忆”共存并被植入人体内,人类的存在经由网络数位内存记录,人的躯体信息可以通过网络进行扩散,这一切都让人产生质疑。

特斯拉电动汽车公司与SpaceX老板埃隆·马斯克(Elon Musk)一直在警告人类对机器人不要掉以轻心,以免沦为机器的奴役或灭绝。但是他与他人创办的总部在旧金山的神经科技公司Neuralink正在研制可以植入人脑的“脑机界面”(braincomputer interfaces, BCIs),人脑和电脑的零接触交流互动,开始用人工智能来“制造”增强版人类。列入“2016年中国十大科技进展新闻”的中科院自动化所的人类脑图谱绘制成功,推进 “类脑智能”形成新型智能形态,兼具生物(人类)智能体的环境感知、记忆、推理、学习能力和机器智能体的信息整合、搜索、计算能力。《失控》的作者凯文·凯利(Kevin Kelly)指出,人造物与自然生命之间有两种趋势正在发生:1. 人造物表现得越来越像生命体;2. 生命变得越来越工程化。在人越来越像机器,而机器越来越像人的时代,人与机器的区别模糊起来。人工智能带来了对人自身认知的困境,高阶人工智能的发展,容易造成人类对本身存在价值的怀疑。那么,自然人类被技术化(非自然化)的限度在哪里?新生命哲学或未来哲学的任务就是必须对人类未来生命的方向和形态有一个整体的预测和规划。否则,哲学缺席,作为心灵安抚的神学便会应时而生。

十、人工智能神化带来的信仰问题

人类的野心就是,“像上帝一样创造”。以色列新锐历史学家尤瓦尔·赫拉利(Yuval Noah Harari)在《未来简史:从智人到智神》中认为,人类应当随着数码化革命成为“神人”。德国波恩大学国际哲学中心主任马库斯·加布里尔(Markus Cabriel)在一次论坛发言中也提到,有关人工智能的争论充满了神学前提。《纽约客》报道(图2),前谷歌无人车和 Uber无人车的天才研发工程师莱万多斯基(Anthony Levandowski)在2015年9月申请创建世界上第一个崇拜人工智能的宗教“未来之路” (Way of The Future)组织,并宣称:“在人工智能的基础上实现接受并崇拜上帝。”在硅谷,有很多人相信存在一个时间“奇点”(singularity),那时人工智能会超越人类的智慧,反过来成为世界的统治者。

负责任的设计一定要询问:设计的目的是什么?工程师设计师要反思智能产品关涉的技术风险,做好智能产品前瞻性的伦理评估,避免智能产品伦理缺位;限制全能机器人的设计,始终掌握人机关系的主导权。在人工智能产品设计中,设计师和工程师组成了跨领域的设计团队,因此设计的伦理需要通过团队沟通和交流,要确保每位参与者得到教育、培训和赋权,并在自主和智能系统的设计和开发中会优先考虑伦理 问题。让所有人参与到伦理对话和建设中来,由此形成相对清晰具有活力的设计伦理。与人类价值相一致的设计方法应该成为现代人工智能和自主系统组织关注的焦点。系统设计方法符合伦理,才能确保人工智能在追求商业上的经济效益和社会中的社会效益之间达到均衡,从而让设计将成为一个强有力的改变世界的工具。

如今,研发安全且合乎道德的人工智能的责任几乎完全落在研发公司的身上。但是,仅仅靠科技企业以及工程师和设计师的自律是不够的,还需要社会学、哲学、伦理学等其他学科的学者积极参与。人工智能系统设计者如何更多着力于如何防范滥用、误用和恶意使用,以及如何化解这种情况可能带来的危害?需要社会机构、社会组织、专业机构合作,积极参与以伦理为先导的社会规范调控体系建设,让伦理规范成为未来立法的组成部分,拿出新的公共政策准则,政府和立法机构必须制定以安全为核心的法律框架,形成以技术和法规主导的风险控制机制,来规范人工智能领域的发展。让人类的自主性在科技时代始终存在。也许,需要构建一种开放的全球性的讨论机制和平台,通过这种讨论和共商机制,尽可能形成有效的、稳重的、整合的新人类生命规划,形成并加强伦理规范和公共政策准则,“AI促进良好“(AI for Good )便是这样一个联合国平台, 通过制定具体项目以及可持续发展目标,促进关于有益利用人工智能的对话,以年度全球峰会为中心,提出有助于实现更多全球 问题解决为目的的人工智能研究主题,第三次 全球首脑会议将于2019年5月28日至31日在日内瓦举行。

结语

在本文中,设计具有更广泛的定义,指涉到人工智能系统的设计,也具体到人工智能产品具体的设计,因此,伦理研究也要从技术伦理导向设计应用伦理研究,而附属于社会伦理之下的设计伦理本身也需要设计,让设计在技术时代重获“自然性”,笔者在《设计与自然》一书中提出,设计不是以人为本,而是以人与自然的和谐共生为本。和谐也是人工智能时代的终极价值追求,包括了人与人,自然人与机器人之间的和谐关系。技术的进展需要一种节制和平衡的力量,这种力量就是对自然的“敬畏之心”,这种敬畏之心应当在伦理中体现出来,成为建立“去人类中心主义”的伦理核心,也就是伦理合自然之道,由此形成设计的伦理制度以及标准,把设计伦理变成对设计非常具体的行为约束,使其转变成一个可操作的程序问题,发挥伦理规范的先导性作用,从而对设计形成规范和调控,也为人工智能产品本身进行伦理指引,让自然人更自然,让机器人更机器。正在到来的新生物文明的标志,就是使得设计再次回归自然。2018年教育部印发了《高等学校人工智能创新行动计划》,支持高校在“双一流”建设中,加大对人工智能领域相关学科的投入,促进相关交叉学科发展,探索“人工智能+X”人才培养模式。而我们的设计教育则是要加强创新精神,完善人工智能产品设计人才培养体系,培养学生挑战的意识,宏大的情感,出色的想象力,清晰的伦理意识,确保我们在进化的舞台上占有一席之地。

猜你喜欢
伦理机器人人工智能
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
机器人来帮你
认识机器人
机器人来啦
医改莫忘构建伦理新机制