□张晓肖
(武汉大学,湖北 武汉 430000)
1956年达特茅斯会议上,“人工智能”这一概念被首次提出,开启了人工智能元年。随后的六十几年中,在互联网、大数据等技术的支持和人类需求的驱动下,人工智能产业飞速发展,极有可能会带来新一轮科学技术革命。
各国都希望在这一次技术革命中抢占先机,因而不仅在实际研发生产中投入大量人力、物力,还在制度建设上极力保障和推进人工智能产业的发展。欧盟早在2014年便开始了《欧盟机器人研发计划》,又于2018年相继发布了《欧盟人工智能战略》和《人工智能协调计划》,日本于2015年实施《日本机器人战略:愿景、战略、行动计划》,德国推出“工业4.0”战略,美国亦在2019年2月启动了“美国人工智能计划”。2017年,国务院正式发布了《新一代人工智能发展规划》,明确了人工智能产业未来发展方向,为研发提供大量物质、制度支持,以期2030年时能够达成“三步走”战略目标,使我国人工智能理论、技术与应用总体达到世界领先水平。
人工智能产业发展突飞猛进,人工智能技术的应用涵盖了社会方方面面,不仅提高了社会效率,也满足了人们追求更精致、更人性化生活的需求。“工业机器人”在各领域大展拳脚,智能家居不断提升人们的居住舒适度,智能医学有利于协助诊断、治疗疾病,智能交通系统能够有效提高通行能力。在法律实践领域,我国最高院与最高检着手建设 “智慧法院”与 “智慧检务”,有着检索信息、进行法律推理、生成法律文件等功能的人工智能开始辅助处理案件,在案件数量激增的环境下,有利于缓解司法工作人员的压力。
人们享受每一次技术革新带来的福利,同时,也面临其引起的巨大社会变革。人工智能,人们虽对其日益依赖,但又始终带着质疑和恐惧。通过几十年的研究改进,人工智能的认知能力、深度学习能力、运算能力等已经十分发达。谷歌公司研发的人工智能机器人AlphaGo接连将多位围棋世界冠军斩于马下,IBM公司的人工智能Project Debater成为比人类更优秀的辩手。在与人工智能的多次博弈中,人类常常居于下风。近年来,“人工智能威胁论”甚嚣尘上,人们担忧历经万年进化的人类智慧是否会被人工智能赶超?人工智能若是脱离人类的控制,人类将如何与人工智能共处?霍金在2017全球移动互联网大会发表了《让人工智能造福人类及其赖以生存的家园》的演讲,指出“人工智能的全方位发展可能招致人类的灭亡”。特斯拉公司的CEO马斯克也曾警告称,人类所建造的机器有一天可能会导致自身的毁灭,人工智能的发展必须受到控制。甚至有学者断定,人工智能会超越人类智能,非生物智能在2045年将会10亿倍于今天所有人类的智慧[1]。
这些担忧并非杞人忧天,人工智能技术本身具有复杂性和难以预测性,其带来的问题已经开始显现,机器人侵权事件频发、智能致命性武器产生威胁[2]、个人信息大量泄露,如若不及时防范,很有可能带来人类社会巨大震荡。因此,各国在大力推动人工智能产业之时,也制定了各种计划以防止人工智能的无序发展。我国《新一代人工智能发展规划》中也指出了,要开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,明确人工智能法律主体以及相关权利、义务和责任等。
当革新技术应用到生物人本身时,往往都会产生对其法律主体资格的质疑,克隆人、基因编辑人皆是如此。上世纪90年代就爆发过关于克隆人的伦理和技术争议,出于对血亲伦理、生物学、人类尊严等方面的考量,国际社会禁止对人类进行克隆,也明确克隆人不具有法律人格,因此克隆人没有产生对“自然人”定义的根本性颠覆[3]。2018年,第一对经过基因编辑的双胞胎出生,再次引发关于生物、伦理、法律的探讨,基因编辑在伦理上可能冲击着人的尊严和生存价值,在社会上可能导致新的社会不平等及人本身的异化[4],经过基因编辑的生物人是否享有与普通人无异的法律主体资格仍是未知数。
人工智能是模拟人类大脑运转的技术,其可以通过算法进行自我学习、自我改进。不断增强计算能力、感知能力的人工智能有超越人类、脱离人类控制的可能性,具有自主意识的人工智能是否应当脱离“物”的范畴,而被赋予同人类相等的主体资格,成为亟待解决的法律问题。同时,确定人工智能是否具有法律主体资格,也为讨论如何解决其侵权、知识产权归属等法律问题奠定了基础。
在实践中,赋予人工智能主体资格已经成为现实——沙特阿拉伯于2017年授予了能识别人类面部、理解语言、与人类互动的机器人索菲亚以公民资格,欧盟委员会把最先进的自动化机器“工人”的身份定位为“电子人(electronic persons)”,并赋予这些机器人依法享有著作权、劳动权等“特定的权利与义务”的资格[5]。但在法学理论上,是否应当打破传统民法建立起的主客体两分法的框架,使人工智能成为“法律上的人”还有待讨论。
人工智能机器人的广泛应用,导致受害事件屡见不鲜。2007年,美国89名病患因医疗外科手术机器人造成烧伤、切割伤以及感染而死亡;2015年,德国大众汽车制造商的一名工人在安装机器人时,被机器人突然抓住胸部并重重压向一块金属板,最终伤重不治身亡;2016年,中国河北的一名车主开启了特斯拉的自动辅助驾驶系统,由于系统并未识别出前方的道路清扫车,以致发生车祸,车主最终身亡。
产品安全与公共安全紧密相连,也与个人基本人权息息相关。人工智能产品多样化、功能日益复杂化、应用广泛化,导致产品致人身或财产受到侵害的现象逐渐增多,容易引起社会对人工智能技术的质疑,引发严重的社会问题。因此,需要有明确的民事责任法律制度,使产生的损害得到及时有效地救济,同时规制人工智能产业的高效有序发展,促进人工智能技术循着有利于人类自身利益的方向前行,避免人工智能发展到一定阶段后反噬人类社会。然而,拥有更高自主性的人工智能实施的侵害呈现显著的拟人性、复杂性、特异性,引起了传统民事责任法律制度能否适用、如何适用的担忧和困惑。[6]
个人信息是与特定个人相关联的、反映个体特征的、具有可识别性的符号系统,包括个人身份、工作、家庭、财产、健康等各方面信息。[7]个人信息是大数据的重要组成部分,在数据电子化的今天,一个人从呱呱坠地到驾鹤西去这一生的信息都会以数据形式记录下来。在数据为王的现代社会,从企业生产销售决策的确立到国家大政方针的制定,都有赖于以个人信息为基础的大数据。个人信息的经济价值和社会价值不断攀升,而科技发展使获取个人信息的成本愈发低廉,在暴利的驱使下,对个人信息不当获取、分析、加工、使用的乱象愈演愈烈。
人工智能以大数据为基础,根据算法进行采集、分析后加以应用。人工智能的发展虽为人们带来了便利,但其对大数据的巨大需求量,也加剧了个人信息被泄露和滥用的现象。侵权情况比比皆是:终端在使用者未授权的情况下,自动开启摄像、录音等功能采集信息;软件变相强制用户提供个人信息,很多软件在非必要的情况下,要求用户必须提供读取定位、手机存储信息后才能使用,选择不同意便无法使用,当软件行业沆瀣一气都采用这种模式时,很多用户会为了生活学习需要,迫于无奈放弃个人信息权益;一些企业将获取的个人信息私自转卖给第三方;人工智能将用户的画像精准勾勒出来,再向手机、电脑定向发送根据我们个人喜好量身定制的营销广告。防止人工智能应用过程中的数据非法收集、泄露、滥用等问题,有效保护个人信息的安全,需要逐步建立完善的法律体系,加强司法救济力度,强化行政监管,让个人信息侵权没有可乘之机。
主客体两分框架是现代民法的理论基础,民法主体,是相对于客体而言的,指具备了法律规定条件的“适格者”,即法律上的“人”。法律中的“人”和现实中的人并不是一一对应的,法律中的 “人” 是指具有法律人格,享有法律权利能力、承担义务和责任的一切实体,[8]包括自然人、法人和其他组织;而现实中的人指称生活中的各种现实存在,[9]仅指生物学意义上的人。
在漫长的法律史中,法律主体的范围并非一成不变,经历了从“人可非人”到“非人可人”的跨越。前者是指通过立法技术,把部分人从法律主体范围中被剥离。譬如奴隶制下的奴隶,从古罗马时期一直到近代美国,奴隶都是作为财产,即法律中的“物”存在,被交易、“使用”,直到近现代奴隶制被逐渐废除,这类人才真正成了社会意义和法律意义上的“人”。妇女、儿童被纳入民事主体范围的历程亦是如此。而到了近代社会,出于商业发展的需要,公司——这一能很大程度降低投资人风险、促进资本扩张的经济实体,被赋予了法律主体资格,能够与自然人一样享有权利、承担责任,没有生命的团体被立法抽象成了“人”。因此,所谓“法律人格”是意味着并不一定与人性有联系的法律上的特别的资格。此外,胎儿获得了财产继承权,死者的人格利益得到保护,网络虚拟人格的财产权得到保护,某些国家在《民法典》中规定“动物非物”,说明主体范围是在持续不断变动的。
从立法技术上说,人工智能是可以被赋予法律主体资格的,有学者提出,可以通过法律拟制立法技术赋予人工智能独立的法律人格,完善人工智能的法律责任制度。[10]但从现阶段人工智能发展水平考虑,是否需要改变现有的主客体两分法框架,扩大民事主体范围,给予其主体地位,才是关键所在。
对于人工智能是否应当被赋予法律主体资格,学界有不同看法:
一类是肯定说。张玉洁认为机器人能够给老龄化趋势严重的人类带来极大便利,人类应当承认并保护机器人的安全,并建立不同种族之间共存的法律保障机制,即借鉴动物权利和公司法人资格赋予人工智能法律主体地位[11];杨清望提出通过拟制手段,赋于人工智能主体资格[11]。
一类是否定说。很多学者都持此观点,但论证角度不同。吴汉东从主体控制的角度谈,认为民事主体控制的机器人,尚不足以取得独立的主体地位[12];房绍坤、林广会从人工智能本身发展角度出发,认为强人工智能时代囿于技术难度和人类对可能风险的防范态度很难来临,无须赋予其主体资格,人工智能作为人类的工具,只能是法律客体[13];倪楠认为人工智能只是在人类设计好的范围内行事,归根结底仍是工具,是作为客体存在[14];王利明、杨立新、郝铁川是从立法角度分析,认为人工智能的发展尚未对传统民事主体制度提出颠覆性挑战,可以利用现行民法的基本原则和具体规则解决问题[15]。
一类是折中说。袁曾认为人工智能具有高度的智慧性与独立的行为决策能力,有资格享有法律权利并承担责任义务,能够获得法律人格。但基于其承担行为能力的有限性,也决定了其法律人格是有限的[16];司晓、曹建峰考虑到法律的利益平衡目的,认为应当全方位严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等法律方案,以合理有效地解决人工智能带来的现实问题[17]。
三种观点的差异在于学者讨论时对人工智能所处阶段的定位不同。持肯定说的学者大多是构想人工智能已经发展到具有自主意识、行为能力的时代,可以通过拟制等手段赋予其主体资格,以预防人机关系纠纷和解决问题,使人类能够在强人工智能时代享受最大化利益,尽量避免模糊法律关系导致的低效率和潜在损失;而持否定说的学者大多是立足当下,从人工智能发展现状和其自身性质考虑,认为人工智能在短期内很难进化为前人工智能,已产生的问题能够被现有法律范围覆盖;持折中说的学者则是出于对前两者的平衡考量,综合提出了建议。
其一,不能抛开人工智能发展现状,在漫无边际的设想中空谈主体资格问题。人工智能的发展分为三个阶段,即弱人工智能、强人工智能以及超人工智能。弱人工智能是拥有计算智能,但没有意向状态,只是受电路和程序支配,完成特定工作的机器[18];强人工智能是拥有感知智能、认知智能,能理解、会思考的能够真正推理和解决问题的人工智能,这也是各大科技巨头正在寻求突破的领域;超人工智能是综合能力远超人类的人工智能。
人类的渺小,注定人类在面对新生事物时有恐惧防备心理,“人工智能威胁论”体现的不是人类对另一种智慧的恐惧,而是对未知的恐惧。现阶段,人工智能仍处于按照既定的算法进行高速运算和执行程序指令的弱人工智能阶段,并不具备独立于人的自主意识,人们也只是将机器作为提高工作生活效率或服务自身的工具。机器人生成的目的行为,与人类有目的、有意识的行为,性质完全不同[19]。人脑本身是一个极其复杂精密的系统,其内部构造、如何认知、如何提取处理输出信息以及运转模式,人类都尚未参透。人工智能作为机制类脑、行为类人的产物,虽然行为上逐步接近人类,但思维上尚无法模拟人脑,只能对数据进行机械的加工处理,更无须谈超越人脑。有科学家预测,未来几十年里,在人脑研究没有重大突破的情况下,人工智能会持续弱人工智能阶段发展。
因此,无论是有人机对弈划时代意义的“深蓝”机器人、能够畅通无阻与人交流的Siri,还是外表看似与人无异的沙特阿拉伯公民索菲亚,都只是根据既定系统运算行事的人工智能系统,是没有独立意识和思维能力的。在本质上,它们与石器时代的石刀石斧、工业革命时代的飞机火车并无二致,都是人类用以生产生活的工具,是人类能力的延伸。虽然在弱人工智能时代探讨主体资格问题有前瞻性,能够为今后人工智能飞速发展做好理论准备,但实践中尚不需要给予其主体资格。
其二,从民事主体构成要件来讲,人工智能并不具备拥有民事行为能力的可能性。从主观方面看,人工智能的认识能力和判断能力是由既定的程序操控的,自身没有自主的意思表达能力,仍然等同于人类的意志,是人类意识的延伸扩展;从客观方面看,人工智能不能以自己的行为取得民事权利,没有独立财产为自己的不法行为承担责任。
其三,现有法律规范仍可应对人工智能所带来的挑战。法律本身具有滞后性和稳定性,民法中主客体两分框架以及主体资格的范围是在漫长历史发展中确定的。譬如“法人”,是在公司实体出现并运行多年后,才被法律承认为法律主体。法律调整的是已经清晰、成熟、稳定的法律关系,法律制度的变动也必须严谨,若刚出现类人的新生事物便急忙将其拟制为民事主体,未免操之过急;即使已经将其拟制为民事主体,是否会动摇民事主体基本理论也有待商榷[20]。
人工智能产业在20世纪50年代兴起,直到21世纪大数据、互联网等技术有较大突破后才迎来了爆发式发展,方兴未艾,但还不成熟。互联网诞生之初,法律问题层出不穷,人工智能发展到现阶段也是如此,侵权、著作权、隐私权、个人信息等相关问题均有涉及,但从整体来看,这些问题没有跳脱出现有法律框架,没有产生全新的成熟稳定的法律关系,在人工智能作为民事客体的定位下,是可以被现有法律规范所规制并加以解决的。除此之外,即使遇到新型问题,具体条款束手无策时,还可以运用法律原则,不宜贸然更改具体法律制度。人工智能发展到强人工智能甚至超人工智能还有很漫长的路要走,现阶段的弱人工智能仿佛蹒跚学步的婴儿,今后会发展到何种程度难以定论,在发展前景还不明朗的情况下,立法条件并不成熟,民事主体制度不宜有大变动。
人工智能民事责任问题与其民事法律地位相衔接,既已确定人工智能属于法律关系的客体,那么由其造成的侵权问题是能够通过现有的民法规则进行调整的。人工智能侵权大多集中在产品责任,但有其特殊性,在责任主体、责任减免事由、赔偿制度等方面需要更为明确细致的界定和相应调整。
人工智能产品责任是指人工智能产品由于自身的缺陷(包括设计缺陷、制造缺陷、警示缺陷、跟踪观察缺陷)[21],致使他人遭受人身损害、财产损失的,产品的生产者、销售者以及设计者要承担严格责任[22]。
人工智能致害的产品责任适用的是最为严格的无过错责任,即人工智能产品一旦存在缺陷,并由于缺陷使他人受到损害,责任主体便应当承担损害赔偿责任。这是因为带有缺陷的人工智能产品有潜在的高度危险性,一旦投入市场,容易产生大规模的侵权事件。适用严格责任有利于促使责任主体尽到谨慎义务,从严把控设计、生产、流通等环节,把产品致害可能性降到最低,从而有效保障使用者的安全和利益。
《侵权责任法》和《产品质量法》中规定的责任主体是生产者和销售者,因人工智能产品的缺陷致害时,生产者和销售者应承担不真正连带责任。但人工智能产业分工极为精细,人工智能产品从设计、制造再到流通领域,期间往往经过多个环节。当产品的设计者和生产者不是同一主体时,设计者是否应当作为责任主体为设计缺陷承担责任,应当在此予以考虑。人工智能的内容、程序设计是产品的核心,内容设计的重要性往往甚于外部结构。一旦设计有缺陷,波及的产品范围极广,通常会造成一个批次甚至是一条产品线的产品出现问题,容易造成大规模侵权事件。不同于一般产品,人工智能产业有极强的专业性,产品的运转依赖于设计者编制的程序,如果本身存在设计缺陷的,生产者、销售者以及消费者很难发现,主要依靠设计者前期完善系统设计、后期进行跟踪检测来避免和改正设计缺陷。在此情况下,设计者也应当是责任主体,不再属于一般产品责任中的“第三人”的范畴,直接与生产、销售者承担一道承担不真正连带责任。因产品存在设计缺陷造成损害额,被侵权人可以直接向设计者请求赔偿,也可以先向生产者、销售者请求赔偿,生产者和销售者有权再向设计者追偿。
发展风险是产品责任的免责事由之一,在一定情况下,发展风险可以成为承担人工智能产品责任的设计者的责任减免事由。人工智能自身有极强的进化能力,设计者将程序预先植入后,人工智能会根据收集到的大量数据进行选择、学习、分析、调整,经过这样循环往复的过程,其可控性和可预测性被大大削弱了,产品可能会“跑偏”甚至与人们的设计初衷背道而驰。人工智能产品可能会“打破”预先设定的规则,大大超出其设计者的预期[23],譬如微软开发的Twitter人工智能聊天机器人Tay和人类交流后,吸收了大量负面信息,成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”[24]。人工智能自身进化后产生缺陷,在一定程度上可以被看作是发展风险。为最大程度上避免或减少此种危险的发生,设计者应在设计时将可预测范围内的可能发展出的设计缺陷进行修正,在投入流通后履行好实时跟踪监测的义务,一旦产品出现问题,便采取矫正程序、警示、召回等措施。同时,也要考虑到人工智能领域刚刚兴起,设计也是在未知中摸索着前进,若由设计者承担太过严苛的责任,会束缚研发者的手脚,抑制产业开发的积极性,但人工智能产品发生“发展风险”时,设计者的责任可进行减免。即,若人工智能侵权的设计缺陷是在设计者可预测或可检测范围内,设计者应当承担侵权责任;若在范围之外,是人工智能自我学习后增加的不确定性使致害的发生难以完全防范,应减免设计者的责任。
规范人工智能企业,使其谨慎合理地获取、使用个人信息,需要完善的法律保障体系进行制约。现阶段,法律对个人信息保护构建了一个大框架,《民法总则》将个人信息权纳入了法律保护范围,《网络安全法》中“网络信息安全”一章规定了建立健全用户信息保护制度的几大方向,工业和信息化部《电信和互联网用户个人信息保护规定》强调了用户的知情同意权、企业的安全保障措施和电信管理机构的监督审查,公安部在2019年4月份施行的《互联网个人信息安全保护指南》规定了个人信息持有者在对个人信息进行收集、保存、应用、删除、第三方委托处理、共享和转让、公开披露时的要求;另外,《刑法修正案(九)》也增加了拒不履行网络安全管理义务罪等相关罪名。但个人信息保护的相关规定散见于法律法规、部门规章和其他规定,零散且笼统,缺乏高位阶、系统化、细致化的法律保护个人信息权利。
制定专门的《个人信息保护法》是人工智能时代的趋势,也是保护个人信息的必然要求和有效路径。在立法中,首先应当明确信息主体权利,包括信息知情同意权、查询权、更正权、删除权、被遗忘权和拒绝权等,并随着实践的要求逐步完善个人信息权利在法理和立法中的内容。建立个人信息权利体系,有利于提高用户自身的权利意识,在使用人工智能的同时维护好自身权益。其次应当严格限定信息持有者和使用者的责任和义务,把好个人信息流转每一个环节的关口,规定其在合法和必要的限度内收集和利用个人信息,同时强调其注意义务,通过技术手段构筑信息安全区域、划定警戒线,做好事先预防。最后明确救济渠道,在个人信息遭到不法侵害后,被侵权人既可以向行政监管部门进行申诉,也可以利用司法救济途径维护自身利益。信息权利主体基于与侵权人之间巨大的资金、技术差异,难以取证,请求救济的成本高昂,因此在个人信息侵权案中,可以采取举证责任倒置原则,由侵权人进行举证,可以提高被侵权人的维权积极性。另外,还可以采用惩罚性赔偿制度,增加侵权人的违法成本,可以更好地遏制其侵权行为。
人工智能发展日新月异,侵犯个人信息的手段层出不穷,法律始终有滞后性,还应当强化其他监管方式的力度,以灵活应对新出现的侵权行为模式。一方面,可以通过行业自律进行内部监督,人工智能产业涉及的各行业可自行制定相关行业规范,划定个人信息采集、使用的标准和范围,设定相应的惩处措施,进行相互监督和管理。另一方面,行政监管和公共舆论监督应当发挥外部监督效用。科学技术部、工业和信息化部、公安部等对人工智能产业有监管职责的部门应当进行联动,相互交流监管经验、整合执法资源,使行政监管更高效畅通,能更精准有效地治理个人信息侵权行为。信息主体也应当提高个人信息保护意识和个人信息被侵犯后的维权意识,事前对潜在的侵权行为进行防范,事后通过与侵权人协商沟通或法律途径维护自己的合法权益。
人工智能时代的到来,已在法律领域产生了广泛的影响。首先,虽然人工智能的认知能力不断增强,但基于可预见的技术发展、人工智能未到达人类智慧的程度以及现行法律规范仍可应对人工智能的挑战三个方面的考量,突破主客体两分框架、赋予人工智能主体地位还为时尚早。其次,人工智能造成的侵权问题还能够通过现有的民法规则进行调整,只是需要按照其特殊性进行相应调整。最后,人工智能对大数据的依赖导致个人信息被泄露和滥用的现象加剧,需要从立法、司法、执法、行业自律和外部监督等途径进行规制。唯有先在法律层面保障人工智能的有序发展,才能使人工智能真正为人所用。