齐恩平,曹一夔
(天津商业大学法学院,天津300134)
人工智能技术作为科技的未来发展方向,对于其所进行的研究和应用将迎来爆发式的增长。为保障人工智能技术能够平稳且快速地融入社会之中,在发展人工智能技术的同时,于民法层面对于人工智能技术所进行的引导和规范也需要同步开展,不能形成“先发展而后治理”的形式。尽管相较于欧美国家,我国因为受制于人工智能技术的发展水平和普及程度,对于人工智能民法问题的关注相对较晚,但是,我国对于引导和调整人工智能民法问题必要性的认识成熟度却相对较高。在国务院2017年发布的《新一代人工智能发展规划》中,将建设人工智能法律法规、伦理规范和政策体系视为在发展人工智能技术的过程中所必须同步完成的工作。
人工智能技术的发展水平和普及程度会受制于诸多因素,包括科技水平和伦理道德观念等,却很难受制于民法理论的内容。而伴随着人工智能的技术发展和产品普及,极有可能出现人工智能民法问题不适用于当前民法理论调整的现象。其具体表现为,作为民法理论调整的新对象,当前民法理论对于人工智能民法问题的调整能力不足或调整范围未曾涉及。因此,在讨论人工智能民法问题时,首先需要厘清人工智能民法问题的特殊性,明确各类人工智能民法问题的具体表现,为人工智能民法问题的讨论和解决提供基础。
由于人工智能所涉民法问题很多,不同问题之间存在共性的同时,也存在着明显的差异。因此,本文将仅对人工智能代理、人工智能与隐私权保护、人工智能侵权责任等具有典型意义的问题展开讨论,梳理这三种传统民法问题在涉及人工智能技术时所展现出的特殊性。
“人工智能代理”尽管名为代理,但实际上并不是一个严谨的法学概念,也不是法学领域内对于代理的传统分类方式。“人工智能代理”只是通过对具体行为的特征进行抽象或总结,从而得出的一种定义或称谓。其与“电子代理人”概念相类似,最初均属于工学中特有的概念,随着技术的普及逐渐为其他领域所吸收并加以使用。在工学领域内,对于“人工智能代理”有着这样的描述:“协助人们工作并代表其办事的软件,智能代理人使人们将本可以自己办理的事情交由代理软件办理,代理人可以做到如同助手一样,自动处理重复的工作,记忆人们可能忘记的事项,聪明地汇总复杂的数据,向人们学习,甚至可以向人们提出建议。”[1]基于该描述,可以认为“人工智能代理”的工作模式与法学中的代理行为有着相似地方,但并不能据此就将“人工智能代理”简单地认定为民法上的代理行为。
讨论“人工智能代理”的本质,应将其与民法中代理行为的概念进行比对。民法理论中的代理行为一般会满足四项内容,即代理关系的三方当事人、以被代理人的名义从事法律行为、代理行为的结果由本人承担、代理委托授权。对于以被代理人的名义从事法律行为、代理行为的结果由本人承担这两项内容,通过前文对“人工智能代理”的工作模式的梳理,可以判断其符合民法中代理行为的要求。而代理权问题则是在明确“人工智能代理”为真正的代理行为之后所需要讨论的问题。但是,对于代理关系的三方当事人问题,即无法从“人工智能代理”的工作模式进行直观的比对,因此,判断“人工智能代理”是否符合民法中代理行为的条件,必须对该问题加以讨论。
民法中的代理行为一般包含三方当事人,即代理人、被代理人和第三人。在“人工智能代理”中,最需要讨论的是有关代理人的问题。人工智能并不是民法上的独立的主体,而是属于自然人或法人所有的财产。在这一前提之下,人工智能缺乏成为被代理人的可行性。而能否赋予人工智能独立的主体资格,本身也是一个十分具有争议性的法学问题。因此,仍需立足于人工智能作为财产的前提,对于“人工智能代理”中的代理人进行讨论。
在将人工智能看作财产的前提之下,对于“人工智能代理”中的代理人需要进行分类分析。若人工智能为被代理人所有的财产,那么尽管人工智能具有自主性和智能性,但是在“人工智能代理”中仍然缺乏作为代理人而存在的可能性。此种情况下,“人工智能代理”更有可能被认定为被代理人借助人工智能所进行的一种直接行为。
还有一种情况是,人工智能属于独立于代理关系之外的自然人或法人所有。在此种情形下,人工智能的所有者不再是被代理人本身,可以满足代理行为对于三方当事人的要求。但是,当被代理人通过代理合同与“人工智能代理”就某项代理工作达成一致时,对于被代理人是对人工智能授予了代理权,还是对人工智能的所有者授予了代理权则会存在争议。如果将此种情形视作被代理人与人工智能所有者之间就某项代理行为达成了一致,那么“人工智能代理”就只能作为一种混淆视听的错误概念而被予以摒弃。
除了“人工智能代理”的本质以及代理人的问题之外,还有很多涉及“人工智能代理”的问题值得讨论,例如,如何判断人工智能的行为能力,人工智能代理权的来源,“人工智能代理”能否构成表见代理、构成条件以及被代理人的抗辩事由,被代理人在进行(使用)“人工智能代理”时所应承担注意义务,以及人工智能在进行代理行为时侵权责任的归属。但是,这些问题的讨论基础在于确定“人工智能代理”是否属于民法理论中的代理行为,以及代理人的归属问题。
人工智能技术并没有对现有的隐私权理论或隐私权保护体系造成变革性的影响,其对于隐私权保护的影响,主要体现在其加剧了隐私权保护的难度。因此,本文认为,开展人工智能与隐私权保护问题的讨论,首先需要梳理人工智能技术加剧隐私权保护难度的具体表现,然后才能够讨论在民法上如何对这些新的不利因素进行有效的调整和规范。
保护隐私权不受侵犯的最根本的方式在于遏制他人获取个人隐私的途径。在没有人工智能,甚至是没有互联网之前,对于个人隐私的获取方式,往往是直接窥探涉及他人个人隐私的信息或者行为。但是,人工智能技术的信息搜集能力和处理能力,使得获取他人隐私的途径不再只是直接的窥探行为。人工智能所有者或使用者能够借助人工智能技术,在大量的信息之中快速地搜集到与特定人相关的个人信息。尽管这些个人信息没有向搜索者直接展现权利人的隐私内容,但是,在搜索者掌握足够充分的个人信息,并利用人工智能对这些个人信息进行进一步处理之后,这些原本单一的个人信息内容会揭示有关特定人的生活规律、个人偏好,以及极其私隐的个人信息内容。原本存在于对特定人庞杂信息进行搜集和处理的困难,随着人工智能技术的发展和普及得到了解决。面对这样的情况,需要我们重新审视衡量侵犯他人隐私的标准,对于此种通过搜集并分析他人的个人信息,进而推导出他人隐私的行为加以约束。
随着人工智能技术的快速普及,许多涉及日常生活的服务都引入了人工智能技术。在某些情况下,个人为了能够享受到后续的服务,不得不使用服务提供商所提供的人工智能服务。在此过程中,个人无法依照自己的意愿将人工智能服务和自己所希望获取的服务行为进行分割,也就无力阻止个人信息被他人大量搜集。而大量个人信息的泄露,就会导致前文所说的通过搜集个人信息从而推导出个人隐私的情况的发生。
当然,并不是所有的使用带有人工智能服务的行为,均非出于个人意愿。人工智能中的个人搜索服务便捷了个人的生活。但是,智能搜索服务需要了解搜索者在某一时刻的个人需求才能完成搜索服务。甚至,智能搜索需要通过不断地搜集、记录、分析搜索服务用户的搜索历史、搜索偏好和搜索兴趣,才能为搜索者或具有相同需求的人群提供更为优质的智能服务。
因此,无论是出于被迫的还是自愿的使用行为,人工智能都不可避免地要对使用者在使用人工智能服务过程中所浏览或输入的信息进行搜集、记录、分析,甚至是学习。而使用者所提供的与个人相关的大量信息可以使人工智能或他人据此推测出与使用者相关的个人隐私,甚至使用者所浏览或输入的某些信息可能会直接涉及到个人隐私。因此,需要为人工智能的搜集行为设定必要的前提和界限,避免在享受人工智能服务的过程中被侵犯隐私权。
相较于互联网等相关科技,人工智能技术的特点之一在于其所具有的深度学习能力。而这种深度学习能力也是我们大力发展人工智能技术所希望获得的成果之一,可以说对于人工智能学习能力的研究符合我们的公共利益。但是,人工智能进行深度学习,甚至是完成对人类行为活动的模仿,都离不开对于不特定人群的个人信息甚至是隐私内容的搜集。尽管人工智能技术符合公共利益的发展,但是,个人让渡私权利去满足公共利益是有一定界限的,甚至在某些情形下是完全取决于个人的选择。
因此,在发展人工智能的过程中,如何平衡公共利益和个人权利之间的界限,需要我们进行更进一步的探讨。无论我们进入哪一种极端的情况,对于人工智能技术的发展或个人隐私的保护都会造成重大的影响。
随着互联网的快速发展,个人能够在更为公开化的平台上发布涉及个人身份、出行,甚至是各种敏感信息,而此种行为往往伴随着一种主动性和不理智性。但是,被分享的这些能够使他人推导出个人隐私,或本就涉及个人隐私的内容,在权利人向他人公开后,是否仍然能够被纳入隐私权的客体范围内本身就存在着争议。并且,权利人发布的内容极有可能会被他人进一步转发或扩散,从而被更多人所获知。在这一过程中,无论是权利人所做的初次发布,还是其他人的浏览和转发行为,都使人工智能有可能获取到涉及权利人隐私的内容,并且就这些被获取的隐私进行分析和学习。而对于这些已经由权利人向特定主体或不特定主体所公开的个人隐私,或可以推导出个人隐私的信息,法律是否仍然应该进行保护,以及应在何种程度上去追究侵权人的责任都需要进行具体讨论。
在利用人工智能进行某种活动的时候,一般存在三方不同主体,分别是人工智能的研发者、运营者和使用者。人工智能的研发者、运营者和使用者在人工智能运转过程中的权利义务分配,是确定人工智能侵权责任归属的重要前提。
在分配人工智能技术所涉及的三方主体的权利义务时,需要结合人工智能的相关属性,即智能性、自主性以及高度专业性。首先,要对权利义务的分配方式进行讨论。一般而言,权利义务的分配方式包括法定分配、格式合同分配和意定分配等方式。对于这几种分配方式,选择哪一种方式或配合使用对于分配人工智能三方主体的权利义务能够更为合理,以及在使用格式合同分配和意定分配时所能自由规定的内容,都需要进行具体讨论。其次,要明确权利义务的分配标准,在人工智能的研发者、运营者和使用者之间进行权利与义务的分配,要兼顾公平、正义和效率的原则。但是,在公平、正义和效率三者之间往往又会有所侧重,受限于人工智能的高度专业性,以及当前人工智能技术发展阶段和普及水平,在分配研发者、运营者和使用者的权利与义务时,要考虑侧重于哪种原则更能有利于人工智能技术的发展,以及有利于保护人工智能的研发者、运营者、使用者和其他人的合法权益。
讨论人工智能侵权责任的认定问题,需要根据被侵权人的不同而进行分类讨论。可以分为两种,第一种是讨论被侵权人为使用者时的侵权责任认定问题,第二种则是要讨论使用者在使用过程中对他人造成侵权时的责任认定问题。对于这两种情况,都需要从侵权责任构成要件和归责原则两方面进行讨论。
首先,需要讨论人工智能侵权责任的归责原则。当被侵权人为使用者时,承担侵权责任的主体一般应是人工智能的研发者和运营者。而当被侵权人为使用者以外的主体时,承担侵权责任的主体一般应是人工智能的研发者、运营者和使用者。但是,基于人工智能的智能性、自主性以及高度专业性,是否能够在这两种情况下均要求侵权责任的潜在承担者承担无过错责任和连带责任是需要探讨的。
如果让人工智能的研发者、运营者和使用者在各种情况下,均承担无过错责任和连带责任,或许可以充分保护被侵权人的利益,但是对于侵权人的利益以及人工智能的发展均有可能造成不利影响。因此,应对不同主体承担责任时所适用的归责原则进行分类讨论,并明确不同主体所享有的免责事由。在明确了归责原则之后,就能为应采纳侵权责任中的“三要件”说还是“四要件”说提供理论支持。
在认定人工智能侵权责任的具体类型时,有可能出现两种侵权责任类型的竞合。这一问题的根本原因在于人工智能的自主性和智能性,使用者在操作人工智能的过程中,往往不会下达非常具体的命令,更多地是选择人工智能运行模式或基本设定。此时,人工智能在使用过程中的具体行为往往无法由使用者做出提前的预判,并加以干涉。因此,使用者在使用人工智能的过程中出现侵权行为,会出现与产品责任的竞合。因为无法区分两种责任,或是同时涉及到使用者与研发者、运营者共同侵权的可能性。
例如,当无人驾驶汽车造成交通事故的时候,如果认为是作为产品的无人驾驶汽车存在瑕疵,则需要追究产品研发者和运营者的产品责任。但是,若在无人驾驶汽车使用过程中,使用者存在操作不当或违规操作的问题,则应认定为交通事故责任。此种情形下,被侵权人尚能清晰地辨明自己所主张的对象。但是,假如无法区分责任归属,或是既存在产品瑕疵又存在操作不当的行为,就会产生产品责任和交通事故责任的竞合问题。再如,人工智能医疗器械在进行诊疗行为时所发生的医疗损害,也有可能如上述无人驾驶汽车的侵权问题一样,导致产品责任和医疗事故责任的竞合。因此,为了使被侵权人获得充分的保护,也为了保护不应承担侵权责任的一方主体的利益,需要针对此类具有特殊性的人工智能侵权问题的责任类型进行讨论,进一步分析其是否能够真正构成侵权责任的竞合,讨论在适用不同侵权责任时为同一人工智能侵权行为所带来的不同结果,以及应如何界定此类人工智能侵权责任更为合理。
人工智能民法问题的种类具有多样性,远不是本文所论述的有关人工智能代理问题、人工智能和隐私权保护问题以及人工智能侵权责任问题所能涵盖的。本文仅仅是以代理、隐私权保护和侵权责任为例,对当前对人工智能民法问题中,利用传统民法理论进行调整时所产生的不适用的突出表现进行了简要的梳理。同时,本文的主要目的在于,梳理具体类型的人工智能民法问题在适用传统民法理论进行调整时所表现出的不适。对于如何合理地解决这些问题,则需要进行进一步的讨论。
[1]玛丽莲·格林斯坦,托德M.法因曼.电子商务:安全、风险管理与控制[M].北京:机械工业出版社,2002:330.
[2]DAHIYAT E A R.Intelligent agents and liability:is it a doctrinal problem or merely a problem of explanation[J].Artificial Intelligence and Law,2010(18):103-121.
[3]BROZEK B.On the legal responsibility of autonomous machine[J].Artificial Intelligence and Law,2017(25):293-304.
[4]ALLEN A L.Protecting one’s own privacy in a big data economy[J].Harvard Law Review Forum,2016(130):71-78.
[5]CALO R.Robotics&the Law:Liability for Personal robots[J/OL].[2017-11-25]https://cyberlaw.stanford.edu/blog/2009/11/robotics-law-liability-personal-robots.