袁倩 郝丹丹
摘要从阿尔法Go到谷歌的无人驾驶汽车,再到阿里云的ET城市大脑,人工智能逐渐为人们所熟知,越来越普及的大数据,使得人工智能的作用和价值也越来越大。人工智能应用不断加深不断成熟,其背后的问题也逐渐凸显,道德困境无法解决,数据的交换引发隐私忧虑,无人驾驶汽车造成的侵权问题如何解决,时人工智能安全问题的担忧,本文将从法律和道德伦理两方面来探究,并试图提出相应的对策来解决相关的问题。
关键词人工智能 隐私权 侵权 法律主体 道德困境
一、人工智能的概述
(一)人工智能的概念
人工智能(ArtificialItelligence),简称AI。是1956年由麦卡锡与一批计算机科学家、数学家、心理学家、神经生理学家、信息学家在美国首次提出。广义上来说,人工智能指的是通过某种方式让机器拥有人的逻辑判断能力或“思维能力”,以根据特定输入条件做出相应的判断或决策。其实广义的人工智能早已走出了科幻小说,在生产生活中被广泛地应用了。人工智能自诞生以来,理论和技术日益成熟,应用领域也不断扩大,给我们的生活带来了极大的便利,也取得了许多叹为观止的成果,同时也成为21世纪最热门、最具有挑战性的学科之一。
(二)人工智能的社会应用
近年来随着智能企业的不断增多和人类对人工智能技术研究的不断深入,利用该类技术研发的产品也不断上市,给社会多个领域带来了极大便利,使我们的生活更加耳目一新。身边的扫地机器人,谷歌翻译,iphonoX的人脸识别以及Sift:无人驾驶技术逐渐精进,如今,阿里云的ET城市大脑投入使用,将道路监控、红绿灯等设施每天产生的海量数据统筹协同,计算出实时的交通优化方案,智能调节红绿灯,提升道路车辆通行速度,在一些特殊的、对交通时效要求极高的场景,城市大脑的“协作”价值更为凸显,通过自动调配红绿灯为患者开出一条“绿色生命线”,让120到达现场的时间缩短一半。对于危重病患来说,这一半的时间并不能简单地以经济价值来衡量。
二、人工智能带来的问题
(一)人工智能带来的道德伦理问题
1.道德困境
人工智能作为一项新科技,它的发展进步会给传统道德带来一定冲击。如今的人工智能说到底是算法的控制,算法是由人来编写的,那人类面临的道德困境人工智能一样要面对。以无人驾驶汽车为例,假设在其行驶过程中,面对分岔路口,只能决定走其中一条道路,其中一条道路上有五个环卫工人在工作,另外一条道路有一个小孩子在玩耍,车辆左转会将五位环卫工人撞死,车辆右转小孩子因此丧命,这种情况下,无人驾驶汽车应该选择走哪条路?如果一条道路是小狗,另一条道路是五个环卫工人,此时无人驾驶汽车该选择走哪条路?如果一条道路上有无百只小狗,另一条道路上有一个环卫工人在打扫呢?在设计算法之初,能将一百只小狗的价值等同于一个环卫工人的价值吗?这就是一个现代版的“电车难题”。虽然传统的一人驾驶模式不存在上述的两难困境,但是随着人工智能的发展,无人驾驶技术登场,这种两难困境我们必须要去面对并尽可能的想办法去解决这种困境。
2.伦理问题
一项新技术的产生,或多或少都会对传统伦理造成一定的冲击,人工智能也一样。人类会不会和机器产生感情一直是个令人担忧的问题。很多影视作品已经对人机情感问题产生了担忧。科幻爱情《她》讲述了作家西奥多在结束了一段令他心碎的爱情长跑之后,爱上了电脑操作系统里的女生,原因在于,这个叫“萨曼莎”的姑娘不仅有着略沙哑的性感嗓音,并且风趣幽默、善解人意,让孤独的男主角泥足深陷。一次系统升级,西奥多发现,自己喜欢的萨曼莎总共有8316位人类交互对象,而与其中的614位发生了爱情,西奥多只是其中的一位,男主角因此很是悲伤。
人机之所以会产生情感,很大程度上是因为机器在某些方面填补了人类情感的空白,同时因为人工智能作为一项技术是附着于各种产品上的,可以随时随地的为我们所用,并且及时对我们的言语表情做出回应,这是人类所无法企及的,这也就会加大人类对此类功能的依赖性,并由此产生更深层次的情感依赖。一旦人工智能发展完全,难保它不会脱离人类的控制,带来种种风险。就社会包容程度来说,这种人机情感也无法被伦理所容纳,恐惧来源于未知,人工智能的起点何时到来我们无从知道,这样的场景何时会出现我们也不清楚,这种担忧值得我们去思考。
(二)人工智能带来的法律问题
1.主体身份无法界定
随着人工智能的发展演变,它在人类社会上到底属于什么,在法律上应如何给他准确定位值得我们思考。人工智能说到底是人类算法在控制,那对这种决策控制下的主体到底该如何定位。我们可以把它当做自然人来看待吗?机器人可以被虐待吗?另外,回到上一个问题,无人驾驶汽车造成损失,这种责任到底谁来担,是人工智能背后的決策设计者,还是人工智能本身?我们需不需要对人工智能赋予“电子法律人”资格,以自己的行为能力享有一定的权利,负有一定的义务,并在一定情况下独立的承担责任这个问题未来值得更多探讨。
2.隐私权保护带来隐患
很多人工智能系统,都是算法学习,决策学习,而算法决策又是在人类控制下产生的。而这些算法在涉及深度学习时又不免会对人类的隐私权造成侵害,数据问的交换难免会带来信息泄露,在当今时代背景下给我们隐私忧虑。对大数据的获取、挖掘分析能力不断提升,数据获取的广泛性和实效性、挖掘的自动化和智能化程度均令人膛目结舌,机器也许比我们更了解我们自己。
第一,当前情况下,我们安装一些软件时大部分正规的软件会发出提示,询问用户是否要开启定位服务、是否要加入用户体验计划以获取更好的服务等问题,当我们同意授权时,无疑是将我们的个人信息源源不断的给予了软件。如果我们不同意授权,那么我们也就不能享受软件带来的生活便利,这就产生了矛盾,软件并没有强迫我们使用它,但是我们大部分人还是为了享受更好的服务而向其提供了个人的隐私。其实现在看来,隐私保护与科技发展似乎已经形成了一定的矛盾,在互联网、物联网、大数据、云计算、人工智能等技术高速发展的今天,也许这种矛盾是不可避免的。第二,基于人工智能的发展趋势,它完全有能力根据其所收集的信息不断向外延伸,促使其不断提高自身的智能水平并进一步提高对用户的了解程度,它能够根据用户授权获取的部分信息而继续繁殖信息,那么这种未经个人授权,通过智能分析获取的如体重、身高、婚恋、家庭、爱好、健康状况、收入情况、心理特征等信息是否可以认定为非法获取。第三,考虑到各种服务之间大量交易数据,数据流动不断频繁,人工智能系统将挖掘出的信息与商品或服务进行关联,向客户推荐,实质上这些信息已经提供给了商家使用。由此可见,人工智能环境下,我们的个人信息可能在知情的情况下被获取,也可能在不知情的情况下就被获取、提供以及出售。隐私权保护令人担忧。
3.责任与安全问题
众所周知,人类能形成生产协同网络的最核心基础是分工契约体系。这个体系规定着我们每个人在合作结构中的责任、权利与义务。其中被最常认作“公理”的一条是:当一个社会人承担某责任、做出某决策,他也就同时必须承担,至少是分担其决策所带来的收益与风险。而当人工智能替代人类进入生产环节做出决策时,一个极大的不对称就出现了:给人工智能赋予做出某项决策的责任是所有买家都会做的事(也是人工智能被创造出来的天职),但面对的是正面收益还是负面风险,人工智能都无法像人类那样对自己的决策负责。
三、人工智能背后问题的应对策略
(一)构建人工智能内部合理的约束机制
1.进行合乎道德伦理的算法设计
第一步在源头给人工智能输入正确的价值规范体系,对价值优先级做个排序,在面对两难困境的时候,根据价值优先级不同从而做出选择,在损害必需发生的前提下,让损害程度降到最低。另外,面对道德困境首先我们需要用一个开放的心态去看待,千百年都没能解决的问题也不能强求人工智能的出现来解决。我们要尽可能的去确立合乎伦理道德的原则,然后让技术紧随其后。
第二步是将所发现的规范和价值加入人工智能系统,借鉴美国学者瓦拉赫和艾伦的思想,采用三种模式来实现,“自上而下的进路”、“自下而上的进路”以及“混合进路”。自上而下的进路是指选择一套可以转化为算法道德准则作为机器行为的指导原则;自下而上的进路类似于人类的道德发展模式,通过错法培养道德判断能力。不过,这两种方法均有一定的局限性。比如,第一种进路把一套明确的规则赋予机器可能是不合理的,同一种原理在不同的情况下可能导致不同的相互矛盾的决定;后一种进路要求机器能够自我发展进化,而人工智能系统的学习与进化能力的提高将是一个比较缓慢的过程。混合进路在一定程度上把两种进路统一了起来:一方面,美德本身可以清楚地表述出来;另一方面,它们的习得又是典型的自下而上的过程。
2.进行有效的内部算法监管
随之人工智能的进步,起背后的算法也越来越复杂,而人工智能对我们的生活影响也越来越大,我们有必要对人工智能设定相应的规则以及标准,制定相应的监管措施。没有规矩不成方圆,人工智能也是如此,第一,要建立行业标准,例如分类、性能标准、设计标准、责任标准等等,通过这些标准的建立,科学管理人工智能,同时规范人工智能的研发,从源头遏制违反法律的现象发生;第二,强化此类行业的透明性,包括算法自身的代码透明性,以及算法决策透明性。第三,设立人工智能产品的事前监督制度,比如对于无人驾驶汽车等危险性系数较大的人工智能产品,在这类产品的设计之初,就需要相关部门或者该领域内的专业人士对算法进行审批对于达到行业标准,可以进入下—环节,而对于哪些无法达标的在源头予以遏制,以免未来发生更大的损失。第四,对已经投入使用的人工智能进行事后的检测与评估,一方面,要对人工智能产品流入市场之后的发展现状,是否达到设计之初的标准。另一方面,主要评估在产品应用过程之中存在哪些问题,针对出现的问题进一步研究解决对策,优化人工智能的性能。
(二)构建人工智能外部合理的约束机制
1.对研发人员进行必要的指导与监管
同其他高新技术一样,人工智能也是非常专门化的科技知识,但其归根结底是人类的产物,解决人工智能的问题说到底是解决人的监管与指导的问题,也就是说,我们需要对人工智能每一个环节的设计者参与者进行监督管理。
首先,人工智能的研发人员自身要有一定的道德底线,并遵守相应的行业标准,最基本的职业操守等,如涉及违背道德伦理的行为不能因为利益而去做。
其次,强化人工智能研发者的专业责任意识,包括积极责任和消极责任两方面。积极责任强调研发人员应该做什么,如何通过技术手段来保证人工智能是安全的合乎道德伦理的;消极责任则关注当人工智能出现负面影响或严重后果时,应该由谁来承担责任,使得人工智能安全责任问题有所保障。从积极责任的角度来看,研发者在研发过程中不能仅仅只追求经济利益,或者一味迎合客户需求。从消极责任角度来看,当人工智能系统出现错误时,研发者应该承担相应的责任,而不是把责任归咎于人工智能本身的不确定性与复杂性。从某种意义上来说,解决人工智能面临的问题的首要因素并不在于人工智能技术本身,而在于人工智能研发人员的责任心。
2.以协调有序的机制加强对隐私权的保护
首先,要加强对隐私权的保护就是要建立保护隐私权的法律规范体系,从现阶段来说,不管是人工智能还是及其相配套的法律监管体系,在我国都属于萌芽阶段,这就要求我们国家的法律工作者从现实出发,结合现有的人工智能的发展现状,建立起完善的有关人工智能的法律体系,以此来加强对人工智能使用者的隐私保护。
其次,从各类人工智能软件的从业者来说,由于现阶段人工智能软件的发展过快,导致人工智能软件的研发和实际使用过程中不可避免的出现了侵犯隐私权的情况,这就要求此类软件的研发者明确这些需要采集的隐私权是否真的有必要,并且这些隐私在汇聚到后台时能否得到完善的处理及保护,以及在处理这些信息时是否合法有序。这就要求人工智能软件的从业者在法律的指导下建立—种合法有序的行业规范,使用户隐私权得到切实的保护。
最后,要从人工智能软件的实际使用者本身来说,实际使用者在使用此类软件的过程中要提高自身的防范意识,对不需要通过的隐私权请求予以否定,并且在使用过程中尽量少的泄露自身的隐私,与此同时也要提起注意,日常生活中发现有隐私泄露的情况要及时寻找泄露的根源并及时处理问题。
(三)换一种思维来看待人工智能安全问题
过去几十年,人工智能的发展形势一阵阵的并不明朗,乐观也好悲观也罢,做做谈资也没什么。如今,数据、计算力、算法三大人工智能要素的充足度已經不可同日而语,人工智能的发展大势已经不可避免,所谓乐观悲观都只是在揣测,在不可改变技术革命面前,把讨论焦点转移到“如何让人工智能最终走向乐观”显得更有价值。在人工智能威胁论调中,不少人认为在弱人工智能阶段(按设定逻辑推理、解决问题,但没有自主意识),我们要持乐观态度,只有在强人工智能或超人工智能阶段(智能自主解决问题,具备自主意识,甚至超越人类),我们才要持悲观态度。
其实,人工智能是否威胁,不在于其发展到哪个阶段、是否形成了对抗人的能力,而在于其和人类已有的秩序是否冲突。
就算是弱人工智能,有冲突存在也算是一种客观威胁,比如2013年牛津大学马丁学院的MichaelOsborne和CarlFrey发表了一篇题为《未来职业:工作有多容易被机器取代?》的论文列举了数十个领域上千份可能会被取代的工作,几乎整个社会都会被替代,这种社会结构的剧烈变革、对大多数阶层的冲击,对他们而言就是一种十足的威胁。
因此,也许我们更该聚焦于如何避免冲突的讨论上。对于“替代”阵营来说,一味地模仿人类行为、代替人类操作的技术极客之旅中,也必须配套思考如何让这种“替代”不产生冲突。
对人工智能安全的担忧无非认为人类会失去对人工智能的控制从而造成社会风险。这种想法从一开始就假定人和人工智能之间是冲突的、不相容的。而既然这种担忧本身就带有科幻色彩,不如就用科幻的逻辑来揣测人工智能。就像人寻找上帝是为了找寻自己的意义一样,倘若人工智能真的想要威胁,其目的也不过就是为了确认和证明自己的存在。因为一开始就被设置在与人协作、各自分工的位置上被尊重,而不是与人争利的冲突地位,就算有一天苹果ARKit、阿里云ET大脑变成了有自主意识的强人工智能,它们也没有任何理由要来挟制人类。人类依赖人工智能带来的交通疏导、产业运营效率提升,人工智能的存在自有意义,不需要再通过威胁的方式获得意义。也即,在阿里云ET大脑这样的项目上,机器有智能,人类有智慧,机器做了人做不了的事情,没有冲突也就不会有威胁。只有那些本身就没有把人工智能放在平等的位置上,以统治阶级控制平民的思路来谈人工智能的人,才会感受到切实的威胁。
所以,要让人工智能的未来走入乐观,首先要抛弃的恰恰就是那些对如何控制人工智能进行各种研究的行为(它本身也不会成功),专注用协作、伙伴等平等态度来发展人工智能。