人工智能时代的风险及法律应对

2020-03-03 13:39
关键词:机器人人工智能法律

张 恰

(辽宁大学,辽宁 沈阳 110035)

人类历史上的每一次革命与创新都会推动社会的发展和进步,技术的革新与进步更是如此。一场技术革命往往会导致一场社会革命。这些革新影响着社会管理模式的变革,而社会管理模式的变革则会导致法律的相应变革。人工智能的全面应用和发展,无疑会对传统的法律理念和既有的法律体系带来极大冲击。

一、人工智能时代的风险

就像一把双刃剑,人们在享受人工智能所带来的福利的同时,也面临着人工智能可能引发的风险。由于安全方面的风险,使得公民的隐私和自由等权利可能被侵犯;由于行为上的风险,算法的黑箱可能导致社会分化的加剧;在经济方面,则可能出现人被机器人取代而造成的失业,以及某些超级平台不断扩张进而形成垄断的情况。此外,我们还要考虑因为缺乏价值观的引导而引发的伦理风险等。

(一)对个人隐私保护产生影响的安全风险

人工智能引发的安全风险主要表现为对个人隐私数据信息保护的丧失。数据和算法的应用掀起了新一轮人工智能的发展潮流。人工智能的基础是数据,本质是算法,智能化的程度和水平依赖于数据的喂养和算法的支持(1)参见郑志锋:《人工智能时代的隐私保护》,载《法律科学》,2019年第2期,第59页。。在智能互联网时代,“网上的个人信息全方位覆盖了你从摇篮到坟墓的全部私人生活,慢慢地积累所有数据,直至在计算机数据库中形成一个‘人’”(2)参见[英]约翰·帕克著,关立深译:《全民监控——大数据时代的安全与隐私困境》,北京:金城出版社,2015年出版,第14页。。由于这些信息数据大多掌握在平台、公司等私权力手中,这种情形下数据的使用者和管理者由于缺乏有效的监督和管理,将会导致大量的个人信息数据处于无法律保护的“裸奔”地带。一旦这些信息被不法分子侵入获得,把分散在不同平台的信息汇总、对比、分析,那么个人信息所涉及的各类下游犯罪都将在人工智能技术的帮助下变得更加简单、精准、高效,且成功率更高。

刷脸支付、上课签到、刷脸住宿、银行开户等人脸识别技术的普遍应用,减少了很多输入密码的繁琐过程,给人们的生活带来了极大的便捷。但是这些却是我们牺牲了个人隐私与生活安全才换来的便利性和可预测性。作为活体数据的人脸信息甚至不需要刻意收集,现在只要我们走上街,就会被无数的摄像头拍下我们的人脸信息;只要拥有人脸信息,我们的行踪和行为就可能一直受到监控,毫无个人隐私可言。

人脸识别技术的不成熟还可能带来其他安全风险。上班族们在工作时间会选择让快递员将快递商品投放到住处的智能快递柜中,其中丰巢智能快递柜还推出了更为便捷的刷脸开柜功能。然而不久前,嘉兴一所外国语学校的课外科学实验课中,一支由小学生组成的科学小队发现:只需使用简单的打印照片,就能够代替真人刷脸解锁丰巢智能柜,从而取走父母们的快递。这样的严重技术漏洞如果被不法分子利用,将会侵犯法律所保护的隐私权、财产权等多个法益。

(二)对社会公平正义产生影响的行为风险

行为风险指的是算法黑箱或者是算法偏见、错误、确定性等风险。

1.算法黑箱的形成原因主要是人工智能的深度学习与传统机器学习不同,并不遵循数据输入、特征提取、特征选择、逻辑推理、预测的过程,而是由计算机直接从事物原始特征出发,自动学习和生成高级的认知结果。在人工智能输入的数据和其输出的答案之间,存在着我们无法洞悉的“隐层”,学界通常称之为“黑箱”(black box)。

美国华盛顿特区的一所学校曾在2009年使用以少数学生成绩为依据编写的人工智能程序来评价教师的表现,导致一位优秀的教师因为评分很低而被解雇,直到今天学校也无法就此给出合理的解释。其实这背后深层次的原因就是由于存在算法黑箱所造成的结果偏差。

随着大数据的不断发展,我们依赖人工智能系统做出决策的时候越来越多。可是算法黑箱的存在使得设计者也无法得知人工智能如何运算并得出结论,那么这样的决策或者结论是否公平、是否合乎道德就有待商榷了。

2.算法偏见或歧视则是因为算法是由人类创造出来的,一个算法设计者的认知能力、知识水平、设计意图、价值观念都会在算法中得到体现。

当前正处于信息爆炸的时代,海量信息充斥着社会生活的方方面面。对于数据应用者来说,更重要的不是接收消息的数量,而是处理和筛选消息的能力。但是大部分情况下决定消息的价值排序和重要程度的并不是我们自己,而是算法。算法通过选择什么样的信息上了头条、上了热搜,来决定哪些种类的信息是人们更应该去关注和相信的。我们只是在有限的选择中做了自认为自由的决定。最后我们会发现,是算法的价值观在影响着人类的价值观。

同时,我们生活的点滴都会被记录下来,被观察、被分析,然后被运用。例如网上购物后,电商会根据你的喜好来推荐相关的产品或者服务。我们在享受信息化、网络化、智能化带给我们便利的同时,却无法避免算法偏见或者歧视带给我们的各种问题。某旅游网站就曾采用“大数据杀熟”的手段,利用信息的不对称,严重侵害老客户的利益。这种商家们为了自己的利益所设计出来的带有偏见的算法,不仅侵犯了公民的合法权益,还会带来价值观的混乱,严重侵害社会公平正义。

二、 人工智能对现代法律的冲击

(一)人工智能对现代法律冲击的思考

数学家约翰·麦卡锡第一次提出Artificial Intelligence这个术语至今已有60多年的历史,但在前期人工智能却一直没有取得突破性的进展。当时的人工智能只是以隐秘的方式存在于人们的生活中,代替人类完成一些程序简单但任务量繁琐的工作。进入互联网时代以来,人工智能的发展出现了突飞猛进的局面。从AlphaGo击败了世界围棋冠军的那一刻开始,人工智能终于得到了人们的广泛关注,人们对人工智能的热情再一次被点燃。

在智能互联网社会,人工智能充斥在人类生活的方方面面:从购物网站智能客服到“嘿Siri”虚拟个人助理;从合同起草到智能医疗;从“阿尔法狗”到机器人Sophia被沙特授予公民身份,智能机器人在现代社会生活中扮演着越来越重要的角色,由此所引发的法律问题也越来越多。当前已经出现的主要有机器人能否享有著作权、知识产权,以及机器人致害的责任问题等。更为重要的是,人工智能技术的飞速进步开启了人机共处的新时代,人工智能不仅成为人类决策的延伸——利用智能机器人进行股票分析和交易、智能医疗、自动驾驶等,还会与人类本身自然属性有所结合,导致难以区分人与机器人的区别。比如,一个人因为腿部出现严重伤病安装了一个假肢,这种情况下我们不会因为他的身体有机械成分而否认他是一个人;但如果这个人四肢完全使用机械乃至心脏也换成机器心脏,或者他的大脑中植入了芯片,兼具了人和机器双重属性的时候,他究竟应当被视为人还是机器?这些问题不断冲击着传统的法律体系和伦理道德体系,导致相关的法律制度设计也面临重大变革。

(二) 人工智能对法律地位的挑战

法律主体是在从事法律活动时享有权利、负有义务且能够承担责任的主体。只有拥有法律主体资格,才能享有知识产权等民事权利,负担起民事责任、刑事责任等相应的法律责任。确定人工智能的法律地位,有助于互联网社会民商事关系的处理。比如随着人工智能技术的进一步发展,可能会出现人类对人工智能机器人产生诸如婚姻关系、亲子关系等情感上的需求,这就需要从法律方面对这种人与人工智能的新型关系给予界定。

人工智能的法律地位到底是主体、客体,还是其他新型法律关系,必须在法律上尽快加以明确。法律地位的确定是人与人工智能法律关系到底如何的基础,是人类对待人工智能的行为方式的决定性因素,也是法律适用上探讨一切人工智能相关问题的前提。

人工智能在理论上普遍被划分为弱人工智能与强人工智能,两者区分的关键在于是否具有自主意识、是否能在设计和编制的程序范围之外进行决策。没有自主意识,只能在算法设计者设计的范围内进行运算处理,最后形成决策的是弱人工智能;有自主意识,可以自我学习,并可以在算法设计者设计之外通过自身意志做出决策的是强人工智能。

2019年8月30日举办的世界人工智能大会法治论坛上发布了《人工智能安全与法治导则(2019)》(以下简称《导则》)。此次发布的《导则》在人工智能的法律主体方向方面有了新的突破,很好地解决了弱人工智能时代智能机器人能否成为法律主体等问题。它明确了弱人工智能的法律主体地位,将弱人工智能纯粹地定位为人类的“工具”,本身并不具有法律主体资格,不能独立承担责任。对于弱人工智能的责任承担,采用设计者、生产者、使用者按照过程程度分别承担相应的法律责任的方式。但是随着人机协作、人机竞争、人机混合等问题的出现,现代科技逐步走向强人工智能时代。这种情况下智能机器人的法律地位应当如何界定,是当前立法界急需关注的新问题。

关于人工智能机器人法律地位的现有观点主要有客体说、主体说和电子人格说等。由于强人工智能是可以产生自主意识、随着人工智能技术的发展可能产生与人类相当甚至超越人类智能的机器人,所以笔者认为,将强人工智能单纯类比成产品或动物的客体说不适合强人工智能机器人,智能机器人摆脱人类的纯粹工具地位而获取主体身份是科技发展的必然趋势。因此下文我们主要讨论主体说与拟制主体说。

1.主体说:主体说又分为代理说和电子人格说。

①代理说:将机器人作为其“所有人”的代理人。

2017年2月欧盟表决通过的《欧盟机器人民事责任法律规则》第52条提出“非人类的代理人”的概念,这一概念的提出直接肯定了人工智能体具有一定的法律人格。

在代理说下,机器人的操作者与人工智能机器人的关系被认定为法律代理关系中本人与代理人的关系。而根据我国法律规定,代理人必须是具有法律主体资格且拥有一定行为能力的人,且民法上把代理分为法定代理与委托代理。由于缺乏法律的明确规定和理论上的基础,代理说目前还不是很完善,并没有详细说明智能机器人作为代理人应属于哪一种代理方式。

②最新观点:电子人格说

欧盟在《欧盟机器人民事法律草案》第59f中提出了电子人格说,这是到目前为止最为具体的学说,得到了很多学者的支持。电子人格说规定智能机器人并不会因为被设计或者制造出来就自动拥有机器人人格,而是需要通过申请获得一个电子人格。电子人格说并没有把智能机器人归到任何一种现有法律主体类别中,而是重新创造了一个特殊的新型法律地位。

但是电子人格说也存在着一些需要进一步加以明确的问题:如果智能机器人不是同自然人一样,在“出生”时就自动享有法律上的人格,而是要通过申请获得,那么谁应该作为智能机器人电子人格的申请人呢?申请通过的标准又是什么?这些问题还需要通过今后的立法加以具体化和完善。

2.拟制主体说

拟制主体说的理论参考是以法人法律主体资格的确立方式来规范智能机器人的法律地位。同样作为法律主体资格中不同于自然人的存在,法人通过法律拟制的方法确立了其在法律行为中的法律地位。这种方式的优点是完全回避了关于智能机器人本身智能的争论,直接简单地给予其拟制的法律主体资格。但是这种资格条件下,机器人的意志会由自然人决定,而如何处理机器人与自然人的关系当前还不够明确。

三、人工智能时代相关法律的完善

人工智能给人类社会带来了颠覆性的改变,它既可以极大地造福人类,也可能对人类产生严重危害。笔者认为,对于人工智能的飞速发展不需要过分担忧,就如电话的发明者亚历山大·贝尔说的那样,“一扇门关了,另一扇门正在敞开。可我们当中许多人浪费了太长的时间幽怨地盯着那扇关上的门,却对那扇正在敞开的门视而不见”。尽管如此,我们仍需要未雨绸缪,尽早调整和完善现有的法律制度和法律体系,以便更好地应对人工智能时代给人类社会带来的各种风险与挑战。

(一)数据安全方面法律的完善

人工智能的发展基于大数据的掌握,这也意味着安全风险中所涉及的个人信息等问题亟待解决。目前世界范围内最先较为完善地解决这个问题的是欧盟。2018年5月25日,欧洲联盟出台了史上最严的信息保护条例——《一般数据保护条例》(GDPR),它通过拓宽“个人信息”的定义范围,增设数据被遗忘权、可携带权、限制处理权和加大处罚力度等方式,对新时代的个人信息予以法律上的保护。

我国已经有多部法律、法规、规章涉及个人信息保护,《刑法》《民法总则》《消费者权益保护法》《网络安全法》《电子商务法》等都针对个人信息保护作出了相关规定。但这些规定都散见于各种法律、法规和规章中,尚未形成统一规范,需要根据形势的发展制定有针对性的专门法律来加以规范,以形成合力。就此而言,《统一数据保护条例》成为我国可资借鉴的他山之石。它不仅仅提供了一系列具象的法律规则,更重要的是它在“数据效率”之外,传递出“数据正义”(data justice)的理念。

笔者认为,我国在制定个人信息保护专门法律法规过程中应着重注意以下几点。一是要对个人信息的范围重新进行明确的法律界定,并明确本人以及他人合理使用的边界。二是尊重个人的选择权,非必要情况下人们有权决定是否要受到自动化决策的限制。三是要严格把控有关种族、政治倾向、性取向等个人敏感数据在自动化决定中的应用。这些数据涉及的是更为敏感的个人隐私,一旦遭到泄露或不当利用,会对个人产生相当不良的影响。四是应当明确数据的归属和利用。比如数据到底属于用户还是属于平台,还是属于大数据的网络公司或者是其他单位;政府在利益相关者之间怎么进行权利分配,这些都应当在新的立法中予以体现。

(二)算法黑箱、算法偏见方面法律的完善

在公共政策或公共服务自动化中的算法设计中,“程序员们被赋予了过多的决策权,而且不受到任何审查”(3)参见[美]卢克·多梅尔著,胡小锐等译:《算法时代:新经济的新引擎》,北京:中信出版社,2016年出版,第220页,第141页。,导致了算法黑箱、算法偏见和歧视等问题的必然存在。人工智能专家、华盛顿大学教授 Pedro Domingos 曾公开表示,欧盟制定的《一般数据保护条例》中要求所有算法解释其输出原理的做法,使深度学习成为了非法的方式。这些争议使得人工智能的可解释化和透明化成为当今这一领域面临的最大挑战之一。

笔者认为,虽然随着人工智能技术由弱人工智能走向强人工智能,算法黑箱变成了一个越来越无法避免的问题,但法律看重的是“可理解”,并不是“可阐释”。我们可以不去探究人工智能的内部究竟如何运作,但是要明确输入数据和输出结果之间的关联,因此算法的设计者有义务通过检视输入数据和重现执行过程来化解人们的质疑。

从立法的角度来说,我们应当明确人工智能要遵循透明处理原则,要求算法具有可解释性。

1.推动技术伦理的算法导入

法律要强化基于人类伦理规范的算法横型设计,要求人工智能开发者设计可解释性的智能系统,促进人工智能算法逻辑与人类社会价值规范的持续校准。

2.加强智能算法的透明监督

创新算法监管模式,建立多层级监管体系。政府必须依法开展针对人工智能的产品和服务监管,人工智能企业、行业应建立相应的算法监管体制,保持与政府监管的协同。

(三)人工智能产品法律责任承担方式的完善

在前文中,我们论述了人工智能的法律主体地位之后,人工智能从事法律行为产生法律后果、承担法律责任的问题就可以得到解决。弱人工智能从事法律行为的后果如前所述是不需要它自己承担的,因为它单纯的只是一种“工具”,不具有法律主体资格。但强人工智能机器人在法律上无论是按照“主体说”还是“电子人格说”都具有主体地位,那么就代表着强人工智能机器人在社会生活中不仅可以行使权利、履行义务,且当它基于其自身的辨认和控制能力,在程序设计范围以外实施了能够产生法律后果的行为,机器人本身要承担责任。从罪责刑相适应原则的角度来讲,此时如果只追究智能机器人研发者、使用者、管理者或监督者的责任,是与法律原则相违背的。那么,强人工智能机器人主体实施的法律行为的后果到底应该如何承担呢?

强人工智能是“非人”的法律主体,这与现有法律制度中法人的主体地位相似,所以我们可以借鉴法人从事法律活动的后果承担来设立智能机器人的责任承担制度。法人作为依法独立享有民事权利和承担民事义务的组织,以其自身全部财产为限对其从事的法律活动产生的后果承担责任,而股东们仅以其出资为限承担责任。但是人工智能却没有财产可供执行,因此我们可以考虑从以下几个方面完善人工智能的责任承担制度。

1.为人工智能强制投保责任保险

当人工智能由于其本身原因造成损害时,如果让所有者承担责任,将可能会抑制消费者购买人工智能商品的想法,造成消费市场低迷,从而间接阻碍人工智能技术的发展;如果让设计者承担责任,更是直接导致设计者可能会因害怕承担责任而丧失了开发和钻研的精神。由此看来,人工智能的法律责任承担问题是单一群体或者企业所无法独自应对的。

基于此,我们可以采用强制为每一台人工智能机器人投保责任保险的方式,使其在造成人们难以预料到的危害时,可以通过保险分担风险,以较小的经济成本更加合理地解决纠纷。美国一些州的立法已经针对自动驾驶汽车做了类似规定。依据这种规定,在产生纠纷时可以直接在保险赔偿金范围内进行赔偿,如此将很大程度上减少人工智能侵权时的赔偿纠纷问题,使得人工智能行业可以更快更好地发展。

3.建立由政府或行业主导的储备金制度

可以让消费者和开发商以特定的金额比例,在强人工智能机器人原来的成本上多承担一部分费用,以建立一种由政府主导或行业主导的储备金。

与人工智能保险不同,人工智能储备金不是通过额外支付保险费用,而是通过销售时分摊附加费用的方式,建立起一个整个人工智能行业所共有的资金池。任何有关责任赔偿的问题所涉及的赔偿费用都由储备资金池进行支付,开发商与消费者不再承担其他任何由人工智能本身过错而带来的赔偿责任。

这两种方式不仅可以减少不必要的纠纷,而且符合我们对人工智能机器人法律地位的肯定,使其独立承担责任。这两种方式通过让所有者、开发商、制造商预先支付一定可预知的成本,来避免未来可能出现的他们无法预测到的未知风险,这种可预知性也能够让所有者可以更为安心地使用产品;开发商和制造商也不用过于担心对未来可能会为突然出现的、以现在科技发展水平还无法预测的风险承担责任,避免由于无法预测的责任问题阻碍人工智能的发展。

四、结语

人工智能是引领新一轮科技革命和产业革命的颠覆性技术,在为人类社会创造巨大福祉的同时,也催生出各种全新的风险。在法律方面,这是一场可能会颠覆传统理论的革新;在数据安全、算法安全、法律主体、法律责任等领域,人类社会都面临着全新的挑战。为应对人工智能时代可能出现的风险,法律应重视预防机制建设,同时设置更好的事后矫正机制。笔者从宏观的角度提出了人工智能目前可能面临的风险和法律上的应对措施,但是事实上的挑战与困难可能远远不止于此。

作为高速发展中的世界大国,我国应当在国际上承担起更多的责任,为人类命运共同体做出更大的贡献。考虑到人工智能对人类命运的影响,努力完善治理人工智能的中国方案,消除人工智能可能带来的法律上的风险和伦理上的危机,推进人工智能全球治理和健康发展,是当代中国法律人应当承担的历史使命。

猜你喜欢
机器人人工智能法律
法律解释与自然法
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
让人死亡的法律
“互助献血”质疑声背后的法律困惑
机器人来帮你
认识机器人
机器人来啦