张媛媛,王 前,赵永飞
(1.大连理工大学 人文与社会科学学部,辽宁 大连 116024;2.大连海事法院,辽宁 大连 116001)
目前,对人工智能相关法律问题的研究迅速升温,研究成果多聚焦于人工智能对当前法律制度的挑战、该领域普遍存在的一些法律问题以及相应对策,但针对近几年国内外相关法律制度最新进展进行比较分析的并不多。而这种比较研究,有助于总结经验,发现问题,进一步提高我国在该领域的治理和研究能力,更好地规范和促进我国人工智能技术的健康发展。
从国内外研究现状和发展趋势来看,目前人工智能相关法律问题主要涉及以下内容。
一是算法偏见与歧视。计算机系统在编码、收集、选择或使用数据时,会有意或无意间产生偏见或歧视,即由于某一特定群体的成员身份(如种族、性别、性取向等)而对某些人以不公平待遇,这种不公平结果具有可重复性。在人工智能应用中,这样的问题目前多出现在搜索引擎和社交媒体平台上,如网络“过滤气泡”、大数据杀熟等侵权行为。
二是与人工智能作品相关的知识产权问题。这里包括法律是否应赋予人工智能产生的作品或发明以知识产权(如版权、专利权、设计权等),即人工智能生成物的“可专利性”,以及谁应该拥有这些知识产权,即人工智能生成物的著作权归属问题。2017年,人类史上第一部完全由人工智能创作的诗集《阳光失了玻璃窗》正式出版发行,引发了人们对于人工智能作品相关知识产权问题的广泛讨论。
三是机器人的法律地位问题。这里主要涉及机器人是否可以获得一定的法律地位,像公司一样成为电子法人或电子人的问题。2017年,欧洲议会表示要从长远角度考虑赋予智能自主机器人以法律地位(即电子人)的可能性;沙特阿拉伯授予机器人“索菲亚”以公民身份。这两则消息一出,很多人都担心将特定法律地位赋予机器人可能会导致道德责任、因果责任和法律责任的误用。
四是机器人的安全与民事责任问题。这里主要涉及智能机器人造成人身或者财产损害时法律责任的分配和承担问题,特别是自动驾驶汽车的准入,相应的法律责任该如何分配与承担成为必须考虑的问题。
五是数据保护问题。随着互联网应用的大规模普及以及智能设备数量的大幅增加,大量的数据库和互联网记录了人们的各种信息,但大多数人不知道谁存储了自己的哪些信息,也不知道谁有权访问,以及如何使用、共享或利用这些信息,相关的安全与隐私问题日益凸显,数据亟待受到相应保护。
以上这些新问题已经对人类社会现有的法律制度和监管体系带来了冲击与挑战。随着未来人工智能技术的进一步发展,问题可能会变得更加严峻。因此,人类社会必须重视和解决人工智能技术发展已经或未来可能带来的法律问题。这不仅需要对现有法律法规进行修改和补充,及时出台新的相关专门法,还需要对未来可能产生的法律问题做好预见和准备。
我国高度重视人工智能技术可能带来的风险挑战。近几年,一些重要的政策文件在不同程度上聚焦于相关的法律问题。如国务院《新一代人工智能发展规划》对建立人工智能法律法规做出了具体时间规划:计划到2020年初步建立部分领域的人工智能政策法规;到2025年初步建立人工智能法律法规体系;到2030年“建成更加完善的人工智能法律法规体系”[1]。中国电子技术标准化研究院在《人工智能标准化白皮书》中提出,“政策和法律应致力于人工智能发展的外部社会环境的构建”“对权责做出明确规定”并“制定完善相关安全法规”[2]。相关的文件还有《国务院关于印发促进大数据发展行动纲要的通知》《国务院办公厅关于促进和规范健康医疗大数据应用发展的指导意见》《“互联网+”人工智能三年行动实施方案》《大数据安全白皮书》(2018年)等。
我国还颁布了一些适用于人工智能的法律文件。2017年施行的《中华人民共和国网络安全法》明确了相关人员的安全义务,为个人信息与数据以及关键信息基础建设提供了法律保护[3]。2018年通过的《中华人民共和国电子商务法》明确了电子商务或网络交易从业者需要承担的义务和责任,并在第18条中专门回应了算法偏见与歧视问题,规定了电子商务或网络交易的经营者应尊重并平等保护消费者的合法权益[4]。我国部分地区和相关部门还出台了一系列关于大数据、自动驾驶车辆、无人驾驶航空器、人工智能辅助诊断和治疗等规范性文件。
我国还在不断推进和完善人工智能相关的监管体系。国务院《新一代人工智能发展规划》专门针对人工智能的监管体系做出了要求与规划,计划要“建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管”[1]。公安部主要负责防范和打击人工智能相关的违法犯罪活动;工业和信息化部主要负责建立健全人工智能相关的网络与信息安全保障体系;国家互联网信息办公室主要负责对人工智能相关的互联网信息内容进行协调与管理;国家人工智能标准化总体组主要对人工智能的标准化进行协调和规划。
与此同时,我国的专家学者也在不断积极推进人工智能相关的立法和法律研究。
关于算法偏见与歧视,大多数学者认为算法中隐藏着偏见与歧视,并不是完全中立的。想要修正或者规制算法的偏见与歧视,必须强调人的主体性和主体地位,通过法律规定来加强算法的可解释性和透明性。张玉宏等提出解决大数据的算法歧视问题需要相关政府部门出台相关的法律法规,完善现有法律体系,利用法律来确保“算法的公平性”[5]。姜野认为,对算法的规制需要强调法律对技术治理的“引领和归化作用”,在预防和指导的同时也要兼顾成本和效益,增强算法的可解释性和透明度[6]。郑戈认为,算法的规制除了要依靠“立法者和规制者”外,还需要法律人员和技术人员的通力合作,通过技术自身的优化和外在法律的制约来实现算法的可解释性和透明性[7]。
关于人工智能作品的知识产权问题,我国目前还没有明确的法律规定。学者们大多认为其应该具有“可专利性”和著作权,有资格获得相关保护,但其专利权和著作权应归属于其创造者或控制者。吴汉东认为,人工智能可以被视为“机器发明人”。在不与传统规范冲突的前提下,可以承认人工智能所创作的作品具有“可专利性”,但专利权的主体资格仍属于其创造者或投资者。在发生人工智能所创作作品的专利侵权时,张平认为可以参照网络著作权的侵权责任来处理[8]。朱雪忠和张广伟也认为,在现有专利制度下人工智能所创作作品的专利权应归属于人工智能的拥有者。但未来随着人工智能的不断发展,建议对现行专利法做适当修改[9]。张平和吴汉东都认为,人工智能所创作的作品享有著作权,但依据现行的《中华人民共和国著作权法》,著作权主体仍然是自然人、法人或其他组织,所以人工智能体只可能具有其创作作品的署名权。张晓津提出,弱人工智能时代中人工智能所创作的作品的著作权归属于人类,强人工智能时代中其著作权可考虑归属于“实际控制者”[8]。易继明、熊琦等建议将相关权利归属于人工智能的所有者,从而促进人工智能技术的创新发展[10-11]。
关于机器人的法律地位问题,学者们普遍认为目前暂不需要赋予智能机器人以法律主体资格,但也有学者认为未来有赋予其主体地位的可能性。吴汉东认为,在现有的民法理论中无法赋予机器人以主体资格,赋予其法律人格是多余的,因为最终承担责任的始终都是人[8]。陈吉栋认为,机器人在现有法律制度下不具有主体地位,但是如果民法主体扩张,机器人也有被赋予主体地位的可能。他建议“构建开放体系”,在法律上有条件地认可机器人的主体资格,为机器人的发展预留空间[12]。刘宪权与胡荷佳认为,目前的智能机器人仍然属于人类的工具,但当其发展到拥有自主意识和意志时则“完全可能成为行为主体”,并需要承担相应的法律责任[13]。另外,刘振宇指出,由于人工智能的根源是“人类中心主义”的,所以“必然缺乏道德主体资格”。虽然人类可以通过法律赋予人工智能以相关法律权利,但这些权利都不是真正意义上的法律主体权利,而只是“修辞性的”[14]。
关于机器人的安全与民事责任问题,学者们的讨论目前多集中在自动驾驶汽车方面。依照我国现行《道路交通安全法》及相关条例,虽然目前自动驾驶系统暂不具备驾驶机动车的合法地位,但随着自动驾驶汽车道路测试的广泛展开,关于其安全和责任问题上的法律讨论也越来越多。通过知识产权实证研究,刘朝指出,相对落后的自动驾驶技术水平、复杂的道路场景和数量巨大的非机动车群体等是目前我国自动驾驶民事主体的明显特征,这将大大增加我国自动驾驶交通事故的发生率。所以,他建议自动驾驶的安全与民事责任问题应将安全放在首位,实现科技与法律以及法律与治理的有效结合[15]。司晓与曹建峰认为,未来人类社会将迫切需要新的法律规则以应对自动驾驶汽车等智能机器人可能造成的伤害,进而提出了一些潜在的法律方案,如“严格责任”“强制保险和赔偿基金”、赋予“智能机器人法律人格”等[16]。
关于数据保护问题。在大数据时代,对待数据信息一般有两类比较极端的态度:一类提倡大力开发和利用大数据,以抓住大数据的宝贵发展机会;另一类则提倡严格控制个人信息的利用,以保护隐私和“不被人打扰的权利”。如何协调数据发展与数据保护之间的关系,成为大数据时代必须解决的难题。张平认为,在大数据时代中,立法者需要在个人信息保护与大数据自由发展之间做出选择,分析数据利用的“必然性及规范性”,对个人信息保护进行“适度立法”,并在立法的完善中强调行业自律的作用[17]。张文亮也认为,个人数据保护的立法需要有机平衡个人数据的“基本权利与合理适用”,并保持与其他权利间的适度平衡[18]。赵付春则认为,数据保护问题不仅是技术和法律问题,而且还是信任问题,需要加强企业与用户间的隐私保护信任[19]。
欧美国家对于人工智能技术可能带来的风险挑战十分关注,有许多重要的政策文件或报告在不同程度上聚焦于相关的法律问题。欧洲议会法律事务委员会于2016年发布了《欧盟机器人民事法律规则》,并建议欧盟委员会提交关于机器人和人工智能民事责任的法律提案。2018年,欧盟委员会分别下发了名为《欧洲人工智能》《人工智能协调计划》等政策性文件,指出欧盟要确保建立适当的、有利于创新的法律框架,并对现有框架进行评估,确保其尊重欧盟的基本价值和基本权利。2019年,欧盟委员会还将发布一份关于人工智能安全和责任框架的潜在差距和方向的报告[20-21]。除欧盟委员会外,近几年英、法、美等国也发布了许多相关的政策文件或报告。以英国为例,2016年以来相继发布的《2016-17年机器人与人工智能第五次报告》《大数据,人工智能,机器学习与数据保护》《2017-19年英国人工智能发展的现状、意向与能力报告》《2017-19年决策算法第四次报告》等,都聚焦于人工智能相关的法律问题。
一些欧美国家和组织还颁布了许多与人工智能相关的法律文件。欧洲议会于2016年通过了《通用数据保护条例》,为个人数据保护制定了法律框架,为一系列包括算法透明度等人工智能引发的问题提供了法律依据。英国颁布的《2018年数据保护法》与《通用数据保护条例》一起构成了英国数据保护制度的一部分。另外,在自动驾驶方面,德国在2017年修订了《道路交通法》,美国众议院于2017年通过了《自动驾驶法案》,英国则于2018年通过了《自动与电动汽车法案》。
很多欧美国家都很重视人工智能相关的监管,并呼吁设立专门的新监管机构,但目前仍主要依靠现有机构负责相关的监管、政策指导与咨询。以英国为例,主要有数据伦理委员会负责应对相关的法律和伦理挑战;数据伦理与创新中心负责评估当前的“治理格局”,并向政府提供相关建议;信息专员办公室负责对《通用数据保护条例》的实施进行审查和相关监管,并向政府报告数据保护立法可能需要进一步完善的领域。数据伦理与创新中心和信息专员办公室共同负责监督算法的未来发展。英国政府表示,未来将考虑如何更好地建立包括有关个人和组织代表在内的监管体系,但英国上议院人工智能委员会认为,在现阶段全面实施对人工智能的具体监管是不合适的,现有的行业监管机构应为其所属行业考虑其可能需要的后续监管[22]。
近来,欧美国家相关领域的专家与学者也开展了不同特色的与人工智能相关的法律研究。
关于算法偏见与歧视,罗杰·比克斯塔夫(Roger Bickerstaff)指出,算法偏见与歧视在英国属于《2010年平等法案》的范围。该法案尽管本身没有提到算法,但强调了反歧视的法律要求。他认为,该法案完全适用于人工智能服务的提供商,甚至包括免费搜索引擎、在线市场、在线招聘机构等[23]。2018年实施的《通用数据保护条例》间接地为消除算法偏见与歧视提供了一定的法律保护。但美国学者梭伦·巴罗喀斯(Solon Barocas)和安德鲁·塞尔斯特(Andrew Selbst)认为,法律为消除算法决策中的偏见所提供的支持较少。尽管立法机构可能会制定法律来禁止采用与受保护阶层相关的特定人口因素,或确保人工智能系统不会根据种族等特征产生不同的结果,但目前几乎没有这类法律的存在[24]。相比之下,在信用和保险评分领域受到的法律保护可能更好一些,但这也是有限的。由于信用评分总体上缺乏透明度和监督,所以即使没有偏见,该领域也会产生武断的结果[25]。
关于与人工智能作品相关的知识产权问题。安德烈斯·瓜达穆兹(Andres Guadamuz)认为,将著作权归属于使人工智能成为可能的人,似乎是最明智的方法[26]。英国一家律师事务所提出,随着人工智能的不断发展,未来确切地说出谁参与创作了某一作品,或者是否有人参与其中可能变得越来越难以分辨。在人工智能完全自主的情况下,如果没有人参与创作需要原创才能维持版权的作品,这样的作品就没有版权,因为没有作者[27]。关于计算机生成作品的“可专利性”,英国目前没有明确的法律规定,但有人认为它们应该有资格获得专利保护,因为这将刺激发明型机器的发展,促进更多的创新。瑞安·本杰明·阿伯特(Ryan Benjamin Abbott)认为,欧盟和全球的大多数司法管辖区尚未决定如何对计算机生成作品进行监管,但国际协调的失败可能会导致允许知识产权保护的国家处于不利地位,所以有必要对计算机生成作品采取一种国际协调的办法[28]。
关于机器人安全与民事责任问题的讨论,目前主要集中在自动驾驶汽车方面。杰夫里·班齐(Geofrey Banzi)对自动驾驶汽车使用中产生的主要法律和伦理问题,尤其是英国法律框架下的责任问题进行了阐述和分析。他认为,英国政府应该认识到法律改革的重要性,以保障自动驾驶汽车的使用,减轻它们对当前社会、经济和法律环境造成的风险。他建议,英国目前不仅需要对“司机”和“驾驶”的法律概念进行澄清,还必须在公共安全与企业创新之间做好权衡,通过重新定义现有法律、社会和技术范式使英国监管框架现代化,提前为未来做好准备[32]。帕特里克·哈伯德(F. Patrick Hubbard)认为,在美国基于故障的产品责任体系中,当下机器人所造成的大部分损害都很容易地得到解决。根据产品责任法,机器人制造商应该对设计、警示或制造缺陷造成的损害承担责任[33]。安德鲁·西尔维尔(Andrew Silver)认为,产品的使用者应该对其使用不当所造成的损害负责[34]。
关于数据保护问题,许多法律学者和数据保护部门认为,人工智能技术的发展对隐私和数据保护产生了巨大的挑战。这些挑战涉及知情同意、监视、个人的数据保护权利。桑德拉·瓦切特(Sandra Wachter)和布伦特·米特斯塔特(Brent Mittelstadt)强调,对算法问责的担忧通常是对这些技术侵犯隐私的方式和对关于我们不可验证的推论的担忧,而这些推论是我们无法预测、理解或反驳的。由于个人缺少对自己数据应用进行控制和监督的可能,所以他们呼吁对个人数据进行保护,以缩小目前存在的“高风险推论”的问责差距[35]。简·冯·海因(Jan von Hein)和安娜·比策尔(Anna Bizer)指出,当互联网上发生侵犯隐私时,就会出现难以确定管辖权和适用法律的问题。到目前为止,这一领域只受到欧盟法律的部分管辖,需要通过各成员国的国内法律选择规则进行补充。鉴于社交媒体的全球可访问性,他们认为,通过制定统一的管辖和法律选择规则来应对这些挑战是合理的[36]。
由于各国的法律制度类型、法律渊源以及基本国情各有不同,所以,我国和欧美国家在应对人工智能的相关法律问题时,采取的措施和取得的研究进展也不尽相同。基于上面对我国和欧美国家相关进展的介绍,可以从以下几个方面做一些比较分析。
首先,在政策性文件方面,总体上看,欧盟显得比较主动和超前,不仅已开始对现有法律框架进行评估,以确保建立适当的、有利于创新的法律框架,在尊重欧盟基本价值和基本权利的基础上更好地应对人工智能发展所带来的挑战,而且还在进一步推进关于人工智能民事责任的法律提案。相比之下,我国在战略动向和话语权等方面仍存在某些差距,在出台相关的政策性文件方面还需要加大力度,加快进度。
其次,在相关的法律文件方面,许多欧美国家、地区和组织都已经颁布了一些有关数据保护和自动驾驶汽车的法律法规。相比之下,我国在对现行《道路交通安全法》的修订,以及个人信息保护法的制定方面速度要慢一些。我国各地区经济和技术发展水平不平衡,要在较短时间内制订普遍适用的人工智能专门法有一定困难。目前我国出现的一些相关法律问题可以在现有的法律框架内得到解决,谨慎地立法也有其必要性,但抓紧制定相关法律文件有助于提前做好相关准备,可能更有益于这一领域人工智能技术的发展。在相关的监管体系方面,欧美国家只是表示未来会考虑如何更好地建立人工智能监管体系,更多的则是担心现阶段全面实施具体而严格的监管可能会阻碍其创新与发展。相比之下,我国国务院已经根据我国实际情况专门针对人工智能的监管体系做出了规划,而且十分注重人工智能技术创新与技术监管的协调关系。
另外,在相关的法律研究方面,我国学者和欧美国家学者的侧重点有所不同,需要取长补短,相互补充。总体上看,欧美学者比较注重一般性、原则性、法理性方面的研究,而我国学者比较注重特殊性、协调性、操作性方面的研究。在算法偏见与歧视问题上,欧美学者侧重于总结最新立法经验,提出一般原则。相比之下,我国学者则偏重于推进具体法律法规的出台和未来规划,强调技术与法律的协调以及各方的通力合作。在与人工智能作品相关的知识产权问题上,欧美学者侧重于未来知识产权保护中的国际合作,我国学者则侧重于传统法律法规的改进和发展。在机器人安全与民事责任问题上,相关研究大多集中在自动驾驶汽车方面,且都主张提前做好相关法律准备。欧美学者侧重于讨论其安全责任的划分、法律概念的澄清以及安全与创新的权衡,我国学者则侧重于立足本土,联系实际提出可能的法律方案。在数据保护问题上,欧美学者侧重强调相关法律的进一步补充以及全球范围内的协调统一,我国学者则侧重分析数据开发与保护的关系,强调权利的平衡和立法的适度。
为了更好地规范和促进人工智能技术的健康发展,未来我国有必要在以下四个方面做出进一步的加强和改进。
第一,建议我国有关部门注意立足本土需要,积极借鉴国外尤其是欧盟的立法经验,加强对相关立法的敏感性和前瞻性,适时而谨慎地推进人工智能专门法的立法工作。在国务院《新一代人工智能规划》的指导下,基于我国社会主义核心价值观和公民的基本权利,推进有利于负责任创新的人工智能法律发展战略,并根据我国的实际情况做出相应调整,提升我国在人工智能领域的国际话语权。
第二,建议我国有关部门及时关注国外人工智能的立法动向,加快数据保护和自动驾驶汽车等领域的立法速度。由于目前我国人工智能的发展势头迅猛,相关的伦理反思和法律法规建设在一些地区和部门可能相对滞后,因而在缺乏充分规约的情况下会出现很多新问题,对我国现有法律制度带来巨大挑战。我国在数据保护和自动驾驶汽车研发等方面已经走在世界前列,相关的法制建设速度也不宜过缓。
第三,建议我国有关部门注意立足本国实际需要,积极借鉴国外成功经验,在人工智能的监管体系方面做好规划和协调。建立健全公开透明的监管体系,注重对人工智能的监管体系进行评估,采取适时适度的调整,协调好人工智能技术创新与技术监管之间的矛盾关系。
第四,建议我国有关部门加强与人工智能相关的法律人才培养和国内外学术交流合作,参与相关的国际规则制定和全球治理。在人才培养方面,注重复合型人才的培养,加强人工智能相关专业与哲学、法学、社会学等学科的交叉与融合。鼓励相关专家学者进行跨领域、多学科、不同利益相关者之间的对话,积极参与或主持召开相关国际会议,加入国际组织的相关研究项目,在进一步提高我国相关研究能力的同时,与其他国家一同应对人工智能法律问题带来的全球性挑战。