汪庆华
摘 要:中国、美国和欧盟在人工智能的法律规制上初步呈现出自身的特点。面对人工智能技术的发展,中国通过分散式的立法对它在电子商务、新闻内容推荐以及智能投顾等领域的应用进行了回应,算法公开透明是贯穿于这些层级各异的立法的共同要求。美国则是通过司法判例对算法的法律性质进行了明确,在搜索引擎算法的案例中,它被看成言论,刑事辅助审判系统中的算法则被认定为是商业秘密。与中国、美国的个别化进路形成鲜明对比的是,欧盟通过对个人数据权利的严格保护,形成了对人工智能的源头规制模式。在数字经济成为经济发展的新动力的背景下,这三种模式体现了在数据权利保护和人工智能产业发展平衡问题上的不同侧重。
关键词:人工智能;算法;法律规制;自动化决策
中图分类号:DF37
文献标志码:A DOI:10.3969/j.issn.1001-2397.2019.02.04
人工智能①
和法律的遭遇会在两个层面呈现出来。在享受人工智能带来的技术红利的同时,需要对它可能带来的风险和挑战进行回应,这意味着需要对人工智能进行法律规制。但同时大数据技术、云计算、人工智能的发展又为现有的法律提供动力,立法、司法和法律执行将会以一种从来没有过的方式借助算法而实现变革。大数据和人工智能技术不仅会带来社会生产力的变革,同时也带来了社会生产关系的变化。在讨论人工智能法律规制的时候,需要厘清的重点在于理解现有的法律概念、法律规则和法律体系的力量何在。弗兰克·伊斯特布鲁克法官的《赛博空间和马的法律》 [1]一文深刻揭示了这样的道理。正如不需要专门的关于马的立法,其实也并不需要专门就互联网、人工智能技术来进行专门的立法。这种观念当然和美国的普通法传统有关,无论时代怎么变迁,从封闭的农业社会到信息化、智能化社会,普通法规则得以延续下来,保持着它们的生命力。在大陆法系国家,法的安定性则是原有法律规则和法律体系适用到科技前沿领域的基础性考量。
德国新的《道路交通法》在自动驾驶汽车侵权问题上沿用车辆所有人严格责任体现了这一思路。关于自动驾驶汽车对美国现有规制体系的挑战及其回应的讨论,参见:Brian A. Browne. Self-Driving Cars: On the Road to a New Regulatory Era [J]. Journal of Law, Technology &the Internet,2017, 8(1):1-19.但是在一些方面,现有的法律框架无法涵盖人工智能在具体领域应用中所带来的一系列问题,这意味着在一定程度上需要反思现有法律框架。人工智能技术的发展将改变人们对法律的认知,重塑法律的规则形态,乃至法律的价值导向[2]。人工智能时代法律制度的设计必须要考虑风险社会的现实,并兼容一定程度的不确定性[3]。
法律一般不对实践中没有定型的经验、社会中没有成熟的关系进行调整。目前,人工智能的技术也只是局限在具体领域,并没有形成通用人工智能。就人工智能发展的阶段而言,一般认为存在着弱人工智能、强人工智能和超人工智能三个阶段。弱人工智能又称为专门人工智能,指不能真正实现推理和解决问题的智能机器,它们并没有真正的智能,只能实现单一任务,比如语音识别、自动驾驶、图像识别等等;强人工智能具人类所有认知能力,它有知觉和意识,可以由同一个智能系统执行不同的认知任务;超人工智能在所有领域超过人类,所有认知功能超过人类。目前人工智能的发展仍然处于弱人工智能阶段,因此当前并不能够制定出关于人工智能的完整的法律制度。人工智能在过去的二十年中,在机器学习、知识图谱、自然语言处理、计算机视觉、人机交互、生物特征识别等相关技术方面取得了突破,并表现出技术平台开源化、专用人工智能向通用人工智能发展以及从感知智能向认知智能迈进的趋势。人工智能技术和行业领域的深度融合在制造、金融、医疗该文讨论了患者的安全、隐私,尤其是医疗器械监管和数据保护法对医疗机器人的影响。医疗领域的机器人有几种主要类型:手术机器人、常规任务机器人以及个人看护机器人。机器人通过利用云端的数据,也许有一天可以做出实时的诊断决定,医疗机器人会变得越来越具有自主性。、交通、商业等传统行业带来了突破性变革。
人工智能的法律规制需要和具体的领域结合起来,并不存在对人工智能的一般化的法律规制。就人工智能技术发展水平及其当下应用而言,采取“传统法律修正”的模式是一种可行的进路。算法往往和应用场景、商业模式相结合。在每一个细分领域里,存在着不同的规制方法、进路和手段。法律对人工智能的规制需要具体化和场景化,以避免在人工智能这一宽泛的表述之下的各说各话。人工智能在电子商务、精准医疗人工智能在深刻改变着医疗行业,由于大数据和强有力的机器学习技术,各种创新手段被用来推进诊所医疗的过程、推动医学研究以及提高效率。机器人的涉及和利用必须要最大化安全性能,对用户隐私保持敏感性。参见:P W. Nicholson Price II. Artificial Intelligence in Health Care: Applications and Legal Issues, SciTech Lawyer, 2017,14(10). 和自动驾驶等领域有着广泛的应用和实践,而法律在这些领域的规制的方法、手段、强度和密度应该存在差异 关于自动驾驶带来的法律规则的系统讨论,包括道路测试监管、自动驾驶汽车市场准入、准入后监管的方式方法,参见:李磊.论中国自动驾驶汽车监管制度的建立[J].北京理工大学学报,2018(2):127-130;关于自动驾驶汽车的侵权责任的法律分析,参见:张力,李倩.高度自动驾驶汽车交通侵权责任构造分析[J],浙江社会科学,2018(8).。电子商务将互联网的技术运用于商业领域,形成各种平台和共享经济。在这个领域中,政府监管的重要目的在于促进竞争和反壟断,保护消费者权利,维护市场秩序。人工智能广泛运用于医疗领域,智能辅助手术、机器人护士、机器人看护,医疗成本的增加和老龄化社会的到来将会进一步推动对智能医疗的需求。互联网医疗因为涉及个人的生命健康、医疗及其相关数据往往属于个人敏感数据。政府在设计监管模式的时候,必然采取高准入、严许可的进路,比如美国的《健康保险可携带和责任法》(Health and Insurance Portability and Accountability Act)制定了一系列安全和隐私标准,就保险公司、医疗服务提供者如何用电子的方式传输、访问和存储受保护的健康信息做了详细而严格的规定。
目前,欧洲和美国在自动驾驶领域都已经有比较成熟的立法。德国在2017年新修订了《道路交通法》,为高度和全自动驾驶提供法律依据
以下关于德国新《道路交通法》内容的讨论,参考了埃里克希尔根多夫:《自动驾驶的规制之路——对〈德国道路交通法〉最新修订的说明》。微信公众号“人大未来法治研究院”。2018.4.12.。该法明确了高度自动驾驶和全自动驾驶车辆的法律含义,它指带有为完成驾驶任务而能供控制车辆的技术设备,而且驾驶员可随时解除自动驾驶功能或切换到人工驾驶模式。在法律责任分配方面,立法者追求简约化的规则,寻求自动驾驶问题和传统的道路交通法兼容,在自动驾驶的规制中沿用传统道路交通法的规则。基于法的安定性考量,车辆所有人原则上承担无过错责任,这一归责方式为新版《道路交通法》所延续。相较于责任分配问题的守成,德国新《道路交通法》中关于数据处理的条款尤其值得关注。该法第63条规定,当车辆控制模式从人工向技术系统切换或者技术系统向人工系统切换时,必须记载位置和时间信息。当系统要求驾驶员接管对车辆的控制或者系统出现技术故障时,也应保存相应信息。平台向主管机关传输保存的数据的义务也是其中的亮点。遗憾的是,该法并没有去处理自动驾驶碰撞可能会带来的伦理困境问题 Jeffrey K Gurney对自动驾驶车辆是否应该做出伦理决定进行了探讨。他假设了六种道德困境,从法律和伦理的视角考察在碰撞情境下如何进行算法优化。在伦理上考量了康德主义和功利主义两个面向,在法律维度上则考察了碰撞优化算法的侵权行为和刑法含义。参见:Jeffrey K Gurney. Crashing into the Unknown: An Examination of Crash-Optimization Algorithms Through the Two Lanes of Ethics and Law [J]. Albany Law Review, 2016(79):183.。
美國加州则在2012年通过了州的立法,即SB1298 Vehicles: Autonomous Vehicles: Performance and Safety Requirement,确立了促进和保障无人驾驶汽车安全的立法理念,对自动技术、自动驾驶汽车进行了定义和规制。欧美在自动驾驶领域的立法为差别化、场景化的人工智能监管提供了具体的例证。
一、人工智能规制的立法进路及其趋势
就人工智能的法律应对而言,我国目前更多的是从产业政策促进、扶持和发展的角度对人工智能提供行政指导。2017年国务院发布的《新一代人工智能发展规划》突出地反映了这一思路。人工智能技术被定位为国家战略。此后各部委和各地方政府也结合当地实际出台了规章性质的人工智能产业发展规划。工信部出台了《促进新一代人工智能产业发展三年行动计划(2018-2020年)》推动人工智能的科技研发和产业化发展。浙江省人民政府出台了《新一代人工智能发展规划》,涉及智能医疗、智能金融、智能商务等领域,提出加快人工智能技术攻关和深度应用。
在监管层面上,目前对人工智能的法律规制在电子商务、数据安全和智能投顾领域的立法中已经有个别条款分别涉及。《电子商务法》规定,电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其推销商品或服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。这是在法律层面对大数据/算法杀熟的回应。大数据杀熟作为差别化定价,是企业经营者利用机器学习算法,对每个消费者的消费偏好、消费习惯和消费能力等信息进行分析,构建定价模型,对同样的商品或服务实行不同的定价。借助大数据技术,企业获得了关于消费者的完整信息,从而能够对消费者进行画像,最大程度地获得消费者剩余。此外,《电子商务法》第40条规定,对于竞价排名的商品或服务,应当显著标明“竞价”。这对算法提出了信息披露义务,保障消费者的知情权、自主性和选择权。
就我国目前的人工智能法律规制而言,《电子商务法》属于法律渊源中法律层级的,另外还有规章层级的《数据安全管理办法》(征求意见稿)也对算法进行了相应的规制。《办法》规定,“网络运营者利用大数据和人工智能等技术,通过算法自动合成的新闻信息、博文、帖子、评论等,应当以显著方式表明‘合成字样。”网络运营者利用算法进行新闻推送,被课加了披露义务以促进算法透明。在移动互联网时代,算法新闻业蓬勃发展,算法内容生成日益成熟。在互联网内容市场上,用户内容生产、机器内容生产、混合内容生产交相辉映,形成了海量的内容信息。从内容生产到内容推荐,算法在新闻业扮演着越来越重要的角色。对于算法推荐的规制,除了披露义务之外,规范信息流程、报备模型参数、违规行为惩处等长效机制都是法律制度设计需要考量的要素[4]。
2018年3月28日,中国人民银行、银保监会、证监会、外汇局联合发布《关于规范金融机构资产管理业务的指导意见》(以下简称“指导意见”)。该指导意见对人工智能在金融领域的应用进行了规制,从胜任性要求、投资者适当性以及透明披露方面对智能投顾中的算法进行穿透式监管。美国证监会在2017年2月发布的《智能投顾监管指引》中将“智能投顾”定义为基于网络算法的程序,利用创新技术为用户提供全权委托的账户管理服务的注册投资顾问。智能投顾依托于互联网,具有委托的特殊性,它为用户提供全权委托的账户管理服务,即在客户和运营者签署全权委托协议的前提下,允许受托人未经客户同意买卖证券[5]。
《指导意见》明确,运用人工智能技术开展投资顾问业务应当取得投资顾问资质。金融机构运用人工智能技术开展资产管理业务除了要遵守投资者适当性、投资范围、信息披露、风险隔离等一般性规定外,还应当向金融监督管理部门报备人工智能模型的主要参数以及资产配置的主要逻辑,为投资者单独设立智能管理账户,充分提示人工智能算法的固有缺陷和使用风险,明晰交易流程,强化留痕管理,严格监控智能管理账户的交易头寸、风险限额、交易种类、价格权限等。这意味着智能投顾必须要取得行政许可,这是由金融业的专业性和高风险性决定的。此外,报备智能投顾模型的主要参数意味着算法黑箱的打开,算法透明得到了一定程度的贯彻。
《指导意见》还规定了运用智能投顾的金融机构的披露义务。金融机构应当根据智能投顾的业务特点,建立合理的投资策略和算法模型,充分提示智能投顾算法的固有缺陷和使用风险,为投资者单设智能投顾账户,明晰交易流程,强化留痕管理,严格监控智能投顾的交易头寸、风险限额、交易种类、价格权限等。《指导意见》更强调在智能模型缺陷或者羊群效应的背景下,金融机构必须进行人工介入。金融机构委托外部机构开发智能投顾算法,应当要求开发机构根据不同产品投资策略研发对应的智能投顾算法,避免算法同质化加剧投资行为的顺周期性。金融机构应当针对由此引发的市场波动风险制定应对预案。因算法同质化、编程设计错误、对数据利用深度不够等人工智能算法模型缺陷或者系统异常,导致羊群效应、影响金融市场稳定运行的,金融机构应当采取人工干预措施,强制调整或者终止智能投顾业务。
在监管手段上,金融监管部门对智能投顾的法律规制采取了组合拳的方式,这可以为我们讨论其他领域的法律监管提供有益的思考。智能投顾是没有法律人格地位的智能机器人为投资人提供咨询意见,这对以往以金融从业者为监管对象的监管模式产生了挑战,需要重构义务体系。智能投资顾问是投资咨询机构业务的延伸,投资咨询机构应当被识别为受托人,承担信义义务和合规义务。智能投资顾问模式下应当要穿透算法设定法律义务,一方面要避免算法黑箱逃避责任,另一方面应当为人工智能在投顾行业的发展保留充分空间[6]。
在监管方式上,金融监管部门运用监管科技应对金融科技的兴起[7]。英国金融监管局在2015年最新提出Reg Tech的概念,并将它定义成利用最新技术手段,促进金融机构更有效达到监管要求。金融机构在利用智能投顾开展资产管理业务的时候,必须要获得行政许可、获得资质;报备模型参数、实现算法透明和算法可解释性;制定预案、适时人工干预。
我国目前对人工智能的法律规制以分散式立法的方式分布在不同层级的法律规范中,对精确营销、算法新闻和智能投顾进行了相应的规制。智能投顾中对算法的穿透式监管对将来人工智能的法律规制具有重大的启示意义,在行政许可准入、算法透明化要求和主体责任承担等方面为人工智能法律规制框架的构建提供了参考。
二、人工智能的司法规制及其法律定位
无论是人工智能还是机器人,如果去掉附着在它们身上的拟人化想象,它是基于算法通过数据自主学习的一套计算机制,本质在于算法和数据[8]。本文在讨论人工智能规制的时候,将不去区分人工智能和算法之间的区别,将它们作为同一概念处理。美国联邦法院和州法院在判例中对算法的性质、人工智能辅助量刑算法的合宪性、新技术条件下的个人隐私保护进行了回应,延续了其一贯的普通法的传统,通过司法对人工智能的应用予以合法性的认肯,对其中隐含的风险予以规制,并将隐私保护扩张到手机位置信息。司法判例或者将算法定性成商业秘密,或者在关于搜索引擎算法的判决中,将它看成是言论[9]。将搜索引擎的算法当作言论的主张在学者中激起了广泛的争论。
(一)算法作为言论自由
2003年的Search King V. Google Tech., Inc.,堪称搜索引擎领域算法第一案。该案中,Google对搜索王的网页排名进行了降序乃至于删除,搜索王将Google告到了法院。俄克拉荷玛州法院认为,网页排名是一种意见,它涉及特定网站对某一检索指令响应的意义。搜索引擎根据算法生成的结果是它的言论。Google的主张,算法是言论得到了法院的支持。四年之后,Longdon v. Google 案中,联邦地区法院也支持了算法是言论的主张参见:Langdon v. Google, Inc., 474 F. Supp. 2d 622, 629-30 (D. Del. 2007).。
应该说,美国法院为搜索公司提供了基于第一修正案的言论保护,为企业的发展提供了广阔的空间。由于大数据技术的中立性、无国界使得算法性质问题具有了普遍的理论意义,加拿大学者Veenu Goswami则主张基于加拿大判例和加拿大人权宪章,应当将基于算法产生的内容置于言论的范畴之内,应受宪法上的言论自由的保护[10]。
不过,就搜索引擎算法是否是言论,在理论上仍然有激烈的反对意见。更进一步的问题在于,即使司法对此已经给出了正面的回答,这一定性是否推广到所有领域的算法仍然是悬而未决的问题。这些司法判例带来了美国法学界对搜索引擎中的算法的法律属性的激烈而持续的讨论
吴修铭(Tim Wu)认为搜索引擎并非属于第一修正案所保护的言论,他对法院将搜索结果等同于意见的观点进行了激烈地批评。(参见:Tim Wu,Machine Speech [J]. University of Pennsylvania Law Review,2013 , 161(6):1525-1531.)。
(二)算法作为商业秘密
在美国刑事诉讼领域,算法广泛运用于预测个体是否会重新犯罪,以及是否到庭,从而影响定罪、量刑以及保释。一些公司开发了辅助量刑工具,目前在美国有三种风险评估软件,COMPAS, PSA和LSI-R,超过一半以上的州利用它们来辅助法官量刑。在算法的帮助下可以借助其预测功能来降低羁押率,提高法官裁判的公正性和效率。这种运用算法来辅助法官自由裁量的做法引发了广泛的讨论和批评,在算法的准确性、算法考虑不相关的社会因素以及算法的正当程序三个方面引发了普遍的质疑[11] 。2016年的威斯康星州的Loomis案對这些问题进行了司法上的回应。
在State v. Loomis, 881 N.W. 2d 749 (Wisconsin, 2016)一案中,鲁米斯因驾车枪击案而遭受刑事指控。威斯康星州法院在量刑的时候借助了Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) 软件, 并基于COMPAS的评估判处鲁米斯六年监禁外加五年监外执行。鲁米斯以法院对COMPAS评估的依赖侵犯了他的正当程序权利和平等保护权为由提起上诉;具体到刑事案件,被告有获得个别化量刑考量和基于准确信息量刑的权利,而COMPAS评估报告提供的内容是类型化的,无法充分考虑个人特殊性,而且NORTHPOINTE主张COMPAS算法是公司的商业秘密,无法校验它的客观性和可靠性。威斯康辛州最高法院认为,性别作为参数进入算法,其目的是为了算法准确性而非为了歧视,因此没有侵犯被告的平等权。其次,COMPAS所分析的数据依赖于公开的刑事犯罪记录和被告提供的数据。被告有机会验证数据的准确性,他对可靠性的挑战是没有依据的。最后,由于评估结论并非法院量刑的唯一依据,法院所要求的个别化对待的权利得到了保障。
从本案判决可以看出,在算法公平和商业秘密之间,法院在这个案件中站在了商业秘密一边,法院并没有要求企业公布算法参数和模型。这一司法立场有助于促进技术创新和人工智能产业的发展。但算法公平性的问题仍然悬而未决。
当认为算法会带来歧视性的结果的时候,根本原因在于作为算法基础的数据中隐含着民族、种族和性别的偏见。Anupam Chander认为算法透明没有办法改变这种输入性的歧视,有效的补救措施应当是,设计算法的时候必须拥有充分的意识,考虑到现有数据中潜藏着的歧视[12]。作为算法决策的一种表现形式,利用大数据对个人打分,决定我们是否是可信赖的贷款者,勤勉的员工,可靠的房客,高价值的消费者。Danielle Keats Citron和Frank Pasquale主张,正当程序应该要为此类的人工智能评分系统可能带来的歧视提供基本保障,监管者应当可以检测系统以确保其公平性和正确性,个人有权要求纠正对他们进行错误分类而带来不利影响的机器决策。缺乏正当程序的保护,偏见和武断的数据基础上的算法必然带来污名化的后果[13]。
三、人工智能的源头规制:数据权利与免于自动化决策
2018年5月25日正式实施的欧盟《一般数据保护条例》是迄今为止关于个人数据保护范围最为广泛,权利类型最为多样的立法 参见:京东法律研究院.欧盟数据宪章:《一般数据保护条例》GDPR评述及实务指引[M].北京:法律出版社,2018.关于该保护条例的介绍,以及与数据保护相关的隐私预期和风险规制,参见:丁晓东.什么是数据权利?——从欧洲《一般数据保护条例》看数据隐私的保护.华东政法大学学报[J],2018(4):39-53.。它通过访问权、修改权、删除权、可携带权等具体权利的规定确立了个人数据决定权。作为权利束,个人数据决定权内容广泛多样。这一权利束中的内容除了可携带权有利于在人工智能企业之间形成竞争、促进产业发展之外,其他的权利都对人工智能的发展构成了直接的限制。
《一般数据保护条例》更赋予数据主体以免于自动化决策的权利,这是对算法黑箱和程序不正义的直接排除 Seth Katsuya Endo, Technological Opacity & Procedural Injustice [J]. Boston College Law Review 2018, 59(3):821. Endo描述了不透明的技术如何侵蚀了正当程序和民众参与的规范。关于人工智能问题,始终存在着鼓励创新和权利保护之间的平衡,欧盟数据保护通则显然倾向了后者,而欧盟没有领先的全球性互联网企业也从一个侧面说明了欧洲法律政策的取舍。对于这个问题的讨论,可以参见:郑戈.在鼓励创新与保护人权之间:法律如何回应大数据技术革新的挑战.探索与争鸣[J],2016(7):79-85.。在当代人的生活中,自动化决策扮演着越来越重要的角色,从贷款、投资、雇佣乃至交友,都成为算法决定的对象 [14]。《条例》21条明确规定:“数据主体有权根据其特殊情况,在个人数据被处理的过程中行使反对数据画像的权利。在以直接营销为目的个人数据处理活动中,数据主体有权随时反对因为该商业行为目的处理其个人数据,包括有权反对与直接营销有关的数据画像。数据主体反对因直接营销目的处理数据的,个人数据不得再因该目的被处理。首次与数据主体沟通时,第一款和第二款所述的权利应该明确提请数据主体注意,且明确将该权利与任何其他的信息相区分。在信息社会服务的情况下,尽管欧盟2002《隐私和电子通信指令》另有规定,数据主体可以通过自动化方式,基于技术规范行使其反对权。根据本条例第89条第1款所述的个人数据因科学、历史研究或统计的目的被处理的,数据主体有权在特定情形下反对处理其个人数据,除非这种处理对执行公共利益的任务是必要的。”第22条进一步明确,如果某种包括数据画像在内自动化决策会对数据主体产生法律效力或者造成類似的重大影响,数据主体有权不受上述决策的限制。
根据第29条工作组指引,在下述情形中,不得使用自动化决策。比如解除合同;对法律所提供的某一具体的社会福利的获取或丧失;婴幼儿补贴或住房补贴;拒绝入境某个国家或者是否认公民身份。上述情形具有的共同特点就是自动化决策已经影响到行政相对人的权利义务。
除了第21条的规定之外,《一般数据保护条例》“序言”(又称为“鉴于”条款)第71条规定,数据主体应有免于受制于自动化处理手段对其个人进行精准评价,以及对其产生法律效果或重要影响的情况,比如,自动拒绝无人介入的在线信用申请或电子招聘。该等处理包括“用户画像”,包含任何形式的个人数据自动化处理以对自然人进行精准评价,特别是对自然人产生法律效果或重要影响的,针对于自然人的工作表现、经济状况、健康状况、个人偏好、兴趣、信誉、行为习惯、位置或行踪相关的分析和预测。该条进一步规定,任何情况下,这些数据处理应当有适当的保护措施,包括获得认为干预的权利、表达观点的权利、评估后达成决定的解释权以及获得救济的权利。尽管按照欧洲的法律惯例,立法的背景/序言条款具有帮助理解条款意涵的目的,并不具有直接的法律效力。学界有观点指出,该条结合第22条、以及第13、14条关于数据主体知情权的规定,可以认定GDPR规定了自动决策的可解释权:数据主体有权要求对自动决策的算法进行解释,有权在不满意算法决策的时候选择退出该《条例》是否赋予了算法解释权带来了广泛的争议。相反观点可以参见腾讯研究院(编).《欧盟〈通用数据保护条例〉详解》[M], 2018:25-26.该书并不认为该《条例》赋予了数据主体以算法解释权,也不认同这些条款对数据权利的保护会导致深度学习违法。。
欧盟《一般数据保护条例》涉及到人工智能数据保护和隐私权利的所有面向。《条例》区分一般数据和敏感数据,对后者进行更为严格的保护。第9条明确,除非各成员国立法授权,辨识种族或民族出身、政治观点、宗教或哲学信仰、工会成员的个人数据以及以识别自然人为目的的基因数据、生物特征数据、健康数据、自然人的性生活或性取向的数据的处理应当禁止。
《条例》所确立的数据最小化原则对人工智能行业的发展有直接的影响。人工智能要精确和有效地服务其设计目的,就需要处理大量的数据以实现持续的机器学习的目的。为了实现欧盟《一般数据保护条例》所要求的数据最小化原则,企业必须阐明它们为什么需要收集和处理数据,以及它们进行数据处理获得了什么成果。这就相当于要求企业证明收集是具有相关性的,满足了必要原则,没有进行过度收集。考虑到大数据是算法的燃料,对数据的监管实际上从源头影响到人工智能行业的发展。欧盟也清楚地意识到了这一点,所以在出台全世界关于个人数据保护最为严格的立法《一般数据保护条例》之后不久,欧盟又推出了《非个人数据自由流动条例》,鼓励和促进非个人数据的自由流动和共享,禁止数据本地化要求,以推动建立统一的欧洲数字市场。
四、法律的人工智能规制
人工智能技术的发展为法律规制提出了现实要求,而法律领域也越来越深刻地受到人工智能的影响,法律和科技人员的合作将成为常态[15]。法律人向技术人员解释法律规则的要求,而技术人员在设计产品的时候要将法律规则考虑进去。
《一般数据保护条例》的默认隐私原则展示了大数据时代人工智能技术对于立法行为的本质性改變,我们可以将法律所追求的价值和原则嵌入式地植入产品中。法律规制体系也将发生重要的变革,将从对事物的规制转变成对代码的规制[16]。默认隐私原则带来的设计隐私就是这一变革最为重要的体现。互联网巨头企业在其人工智能伦理的主张中也体现了默认隐私或默认伦理的诉求,比如谷歌公司在其关于人工智能技术开发的原则中也包含设计隐私的内容。
就司法而言,通过智慧司法提升司法效率,促进司法公平是这一轮司法改革最为重要的目标和特点。最近增设北京互联网法院、广州互联网法院更是将其意蕴拓展到了网络治理主权的层面。就司法领域的人工智能而言[17],它对算法歧视和算法黑箱的回应更为急迫,如何以平等原则和正当程序回应算法歧视和算法黑箱将是司法人工智能领域的持久性话题[18] 。
在执法领域,因为自动化决策的普及,将会出现法律的自动执行。2018年,深圳为了优化营商环境,利用互联网技术提升政务服务水平,就普通高校毕业生落户深圳实现秒批(无人干预自动审批)
参见深圳市人民政府办公厅.关于印发《深圳市普通高校应届毕业生引进和落户“秒批”(无人干预自动审批)工作方案》的通知(2018).。这是法律自动执行的生动形象的例子。无人干预自动审批可以被看成是全自动具体行政行为的表现形式。全自动行政导致具体行政行为成立要件中行政主体的意思表示的缺失,大量行政法上的程序权利被自动化决策所架空,这需要加强自动化决策方面的行政立法,以实现人工智能的运用和公民权利保护的平衡[19]。法律自动化执行的过程中,可以借鉴欧盟的经验,当决策涉及到减损公民权利或增加公民义务的时候,公民有免于自动化决策的权利。
结 语
总的来说,并不存在关于人工智能的一般化的法律规制。相关的法律规制应当是和具体场景结合起来的,存在立法、司法和技术的三种形式。以此作为对中国、美国和欧盟的人工智能法律规制主要模式的概括,略去了这三个法域对人工智能规制时候可能兼采的其他形式。比如,美国也存在大量的对数据和隐私保护的联邦和州立法,和通过司法规制人工智能形成互补,相得益彰。
我国目前采用的是一种分散式立法的方式,在《电子商务法》《数据安全管理办法》《金融机构资理业务指导意见》等不同层级的法律渊源的具体条款中涉及到了对人工智能的法律规制。本文通过这些法律规范的分析初步勾勒出我国对人工智能进行法律规制的路径,这并不意味着它能够或已经穷尽我国法律对人工智能/算法的规制。除了上述立法之外,总体来说,人工智能时代+的特点并没有能够很好地反映到立法中。当务之急是修改现有的法律,使得它能够兼容大数据和人工智能技术在具体领域和场景中的应用,对数据处理商和法院信息部门在法院司法决策中日益重要的位置予以正视[20]。就本文讨论的内容而言,《证券法》第171条《证券投资顾问业务暂行规定》第12条规定,证券投资咨询机构不得代理委托人做出投资决策。因此,智能投顾和禁止证券投资咨询全权委托的规定存在冲突。智能投顾的高度智能化意味着在投资建议、指令执行、自动调仓等环节具有联动性和连续性,这只有在全权委托条件下才能实现[21]。《民事诉讼法》也需要进行修订或出台互联网管辖方面的司法解释,使得互联网法院的管辖、审理、送达等具体运作的环节上能够实现网上受理,网上审理,网上执行的目标
2018年9月6日,最高人民法院通过了《关于互联网法院审理案件若干问题的规定》,以司法解释的方式从制度上对这个问题进行了初步的回应。该司法解释在总结杭州互联网法院实践的基础上,规定了法院的受案范围、建立了在线诉讼平台、完善了网络诉讼规则。。《道路交通安全法》需要进行相应的调整,以兼容现有的无人驾驶技术。
欧盟的进路实际上抓住了人工智能的本质。欧盟《一般数据保护条例》以源头治理的方式,从个人对数据的自决权出发建构个人数据权利体系,从而直接影响到人工智能的产品设计和技术发展。所有的人工智能都是建立在算法和算力的基础上的。算法的燃料就是大数据。当对数据进行严格保护的时候,其实就在源头对人工智能进行了规制。
参考文献:
[1] Frank Easterbrook.Cyberspace and the Law of Horse[J]. University of Chicago Legal Forum,1996: 207-216.
[2] 李晟. 略论人工智能语境下的法律转型[J].法学评论,2018(1):106.
[3] Anjanete H. Raymond. Information and the Regulatory Landscape: A Growing Need to Reconsider Existing Legal Frameworks[J]. Washington and Lee Journal of Civil Rights and Social Justice ,2018, 24 (2).
[4] 方师师.算法如何重塑新闻业:现状、问题与规制[J].新闻与写作,2018(9):11-19.
[5] 吴烨,叶林.“智能投顾”的本质及规制路径[J].法学杂志,2018(5):22.
[6] 高丝敏.智能投顾模式中的主体识别和义务设定[J].法学研究,2018(5):40-57.
[7] 张家林.监管科技(Reg Tech)发展及其应用研究——以智能投顾为例[J].金融监管研究,2018(6):76-93.
[8] 胡凌.人工智能的法律想象[J].文化纵横,2017(4):108-116.
[9] 左亦鲁.算法与言论——美国的理论与实践[J].环球法律评论,2018(5):122-139.
[10] Veenu Goswami.Algorithms, Expression and the Charter[J]. A Way Forward For Canadian Courts.Western Journal of Legal Studies ,2017,1(1):3-17.
[11] 李本.美国司法实践中的人工智能:问题与挑战[J].中国法律评论,2018(2):54-55.
[12]Anupam Chander. The Racist Algorithm [J]. Michigan Law Review ,2017,115(6):1027.
[13]Dianelle Keats Citron & Frank Pasquale. The Scored Society: Due Process for Automated Predictions[J]. Washington Law Review ,2014,89:1.
[14] Danielle Keats Citron. Technological Due Process[J]. Washington University Law Review, 2008, 85(6):1249.
[15] 郑戈.算法的法律与法律的算法,[J].中国法律评论,2018(2):75.
[16] Paul Ohm, Blake Reid. Regulating Software When Everything Has Software[J]. George Washington Law Review ,2016, 84(6):1672-1702.
[17] 吳习彧.司法裁判人工智能化的可能性及问题[J].浙江社会科学,2017(4):51-56.
[18] Pauline T. Kim. Auditing Algorithms for Discrimination [J]. University of Pennsylvania Law Review Online ,2017,166 :189.
[19] 查云飞.人工智能时代全自动具体行政行为研究[J].比较法研究,2018(5):167-179.
[20] 季卫东.人工智能时代的司法权之变[J].东方法学,2018 (1):133.
[21] 李文莉, 杨玥捷.智能投顾的法律风险及监管建议[J].法学, 2017(8): 17.