杨芳龄
(安徽大学法学院, 安徽 合肥 230601)
人工智能技术和科学不断蜕变,进而在人类智能模拟上不断趋近,前有无人驾驶汽车大量研发,后有阿法狗围棋赛大获全胜,在感慨科技给我们带来便利的同时,“焦虑”也随之而生:无人驾驶汽车发生交通事故时该当如何?机器人工作中致他人损害谁来赔偿?对于这些疑问,有关学者进行研究并给出了回应,但随着人工智能在各领域的蓬勃兴起,各种问题将会随之产生。欲摆脱人工智能品在侵权责任承担上的法律困境,需解决三个问题:人工智能品是否具有独立的法律主体资格?人工智能品侵权由谁承担责任?是否可以构建完善的人工智能品侵权保障体系?
在是否应当给予人工智能品独立法律主体地位的讨论中,总会涉及到对人工智能智力程度的判断。人们普遍认为,当人工智能品的自主能力、意志能力达到极高的程度才可以成为与人类相近的行为者,但何为“极高的程度”却无人能把握。即使在人工智能的技术领域,也没有形成广泛认同的“人工智能”定义。笔者认为,研究人工智能在外观和智力上是否具有类人性属于人工智能的技术层面,将其作为人工智能是否应当拥有法律主体地位的评判标准,反而导致自然科学和社会科学的不适当交叉,对于研究人工智能的法律属性并无益处。
关于人工智能的性质,学术上存在三种观点,分别是工具说、电子奴隶说和代理说。第一,工具说认为,人工智能产品仅是人类生产出来便利生活的工具,不论其内设程序的发达程度,本质上与剪刀、锤子等无异,只是为人类服务而存在,因此其既无权利能力也无行为能力,此乃“非法律主体说”,认为人工智能品不具有法律主体资格。第二,电子奴隶说认为,人工智能品虽然具有一定的智能水平,甚至可以实现与人类的对话,但这些程序都是设计师预先设定的,并且机器人以人类的指令为意志,在一定意义上与“奴隶”的行为相似,并不具有独立的意志,因此其虽具有行为能力,但不具有权利能力,不具有独立法律资格,因此,被认为是“无权利能力的法律主体”。第三,代理说认为,人类发明人工智能品是为了让其代替自己的部分工作,其行为的结果归属于人类,人工智能品的工作具有独立性,其具有行为能力,也具有权利能力,其行为性质与“代理”相似,但其不能自己承担责任,因此,被称为是“具有权利能力和行为能力的法律主体”。
笔者认为上述三种学说皆存在错漏之处。其一,按照学说提出者的说法,“工具说”认为人工智能产品仅是单纯的工具忽略了其智能性,计算机的运算能力早已超越了人类,在与阿法狗的人机大赛中,人工智能也显示出了超人的智力。因此,将其定义为普通的工具明显属于定性错误。其二,“电子奴隶说”认为人工智能品作为单独主体,具有行为能力,但其行为完全听命于人类,因此不具有权利能力。该观点忽略了人工智能品在运转时具有一定的判断能力和思考能力,仅具有行为能力,无权利能力的主体定位在实践中有何现实意义,人工智能产品作出的行为该当何以定性。因此,“无权利能力的法律主体”亦难认可。其三,“代理说”认为人工智能品与代理人相似,具有权利能力和行为能力,行为结果归属于被代理人似乎有理,但其忽略了独立的法律资格需要具有独立的责任能力。人工智能无法承受行为的后果,直接影响到责任的分配效率,在实践中会带来诸多麻烦。因此,该学说也不甚妥当。
笔者认为,在讨论人工智能品的性质时,应当走出从权利能力、行为能力、责任能力是否具备并由此判断其是否具有法律主体资格或是拟制某种“类”行为、“类”性质的误区。法律是手段,而不是目的。无论是主体资格概念的产生还是法人概念的拟制,目的都是维护不特定多数人的利益和意志,最终的落脚点还是在“人”身上。法律对人工智能品的立场,是鼓励设计师多生产符合人类生产生活或特定需要的智能产品,避免人工智能品带来的风险。
据此,笔者认为,人工智能品不宜成为法律主体,理由归纳如下:一、人工智能品只能依算法行事,即使其内部芯片中知识储备原高于人类,其也不可能真正明白其中的意思。例如,人工智能产品可能被设计成遵守法律,但其不会真正理解其含义,什么是权利、什么是责任,人工智能无法进行考虑,其也无法因为惧怕惩罚带来的恐惧由此作出阻却行为,一切只是程序化的。二、机器人无法独立承担责任,无论是侵权责任还是违约责任,由其引发的损害赔偿最终都会因其没有独立财产而由其他主体代为承担。有学者认为该种关系类似于未成年人的行为责任,笔者认为,法律对于未成年人在民事法律地位方面的规定是基于未成年成长期身心状况而定,更多的是保护未成年人,规范市场交易,况且未成年人终有一天会具有完全民事行为能力,而人工智能则不会,且对人工智能进行法律上的保护最终也只是为了维护其背后人的利益,因此,没有必要赋予其法律人格。三、倘若承认人工智能产品的法律主体地位,则意味着其不仅应承担义务,还享有权利,如此说来,使用机器人之前是否需要获得其同意?有学者认为,对于人工智能产品法律资格的定性可借鉴法人,对此,我们认为,法律并不反对拟制一个全新的概念,但这个概念有其实践用途。例如“法人”具有维护多数人意志的价值,实践中意义显著。而对人工智能品的法律地位进行拟制有何实质意义则值得商榷。因此,人工智能品不应具有法律主体资格。
否认人工智能品的法律主体资格,在人工智能品的行为产生特定不利后果时,由谁来确实承担责任?此乃研究人工智能品侵权法律问题的核心,有关人工智能产品法律资格的探讨实质也是为了解决责任承担问题。对此,学术界有不同观点。有人提倡消费者单边责任,也有人赞同生产者单边责任理论。笔者认为,生产者设计人工智能的目的是为了满足人类生活并以此盈利,但如果将此后人工智能不受控制行为的法律后果归属于生产者,虽然会使其在生产过程中尽最大的注意义务,但也势必会磨灭其创作积极性。如果由消费者来承担责任,也即消费者一旦确实适用人工智能产品,意味着其同意责任自负,在该种情况下会使得人工智能更加兴起,并且成本降低导致售价降低对消费者有益,但生产者不再担心责任问题因此势必会想尽办法降低成本,从而导致人工智能安全系数降低。据此,笔者认为,在人工智能行为的责任承担上应当采用双边责任制,即区分情况来判断责任究竟是由生产者承担还是消费者承担,此时即涉及到归责原则的问题,适用过错原则还是无过错原则可能会得出不同的结论。
人工智能行为导致侵权责任产生的情形主要包括四种:一是操作不当,即人工智能产品本身不存在任何技术问题,产品无瑕疵,仅是因为使用者在适用过程中没有严格按照说明使用,因而发生意外情况。二是生产者在生产过程中产生的失误,即使用者完全依照说明书使用产品,意外的发生是由于人工智能产品的生产中在生产过程中的失误即设计失误。三是生产者和使用者都具有过程,设计失误加上使用不当共同导致了最终结果的发生,此时双方都具有过错。四是生产者和使用者都不存在失误行为,损害的发生是由于人工智能自身的判断失误导致的,例如,在1989年全苏国际象棋比赛上,人机大赛冠军击败人工智能机器人,但机器人突然自主释放强电流致使冠军身亡。在该四种情况下,应当如何确定归责原则?笔者认为,应当适用严格责任,在确定生产者的责任时,类似于产品责任,产品存在缺陷以致发生侵权纠纷时,由生产者承担赔偿责任,此时存在一个问题,即“缺陷”的证明,可能存在一种情况,即生产者已经将产品所有使用说明和注意事项都标列其中,但适用者在理解上仍存在一些技术上的理解难度,此时是否应当认定生产者已尽到义务应当区别对待。若产品的适用群体是专业人士,则认定其不存在问题,若人工智能产品被投入普通消费者群体,该群体大部分人在正常情况下不能理解使用说明,即认为其存在缺陷。在仅因使用者适用不当场合,由使用者自负责任。当存在两者交叉的都有失误的情况下,由生产者负担主要责任,使用者的适用过失可适当减轻生产者责任,具体比例依个案判断。最后一种,当生产者未有产品缺陷,使用者没有失误的情形,机器自身判断失误致损该当如何处理。笔者认为,该种情况不应由使用者自担风险。但若完全有生产者承担风险也似有不公,不可否认的是生产者较使用者而言,存在明显的结构优势,无论是信息获取能力还是风险负担能力都较使用者更强,因此,可要求人工智能品的生产者购买强制保险,当存在双方都无失误的时候,通过保险得以救济。
尽管人工智能的发展势头迅猛,且已有大规模产量的基础,但其侵权责任的划分将会最终影响其市场化进程。法律有时会在生产者和使用者之间进行微妙的利益平衡。人工智能的产生确实丰富便捷了人类的生活,但实践告诉我们其确实存在潜在危险的可能性,并且这种危险在某些情况下不由人力导致。两害相权取其轻,我们不可能因为潜在的危险性而阻却科技的发展,但在鼓励技术进步的同时,我们同样要重视受害人的救济,两者是休戚相关的。若被害人在损害中得不到合理的救济势必会导致公众对人工智能产品缺乏信心,这种信心信任的缺乏会直接影响其产品的销售量,从而会打击生产者的积极性。因此,人工智能侵权责任的归责构建讲求鼓励创新与救济受害者并重。
在人工智能逐渐普及的情况下,法律可规定人工智能特殊侵权行为,对其主体、构成要件、责任分配等作出规定,以此分化清晰责任。
第一,责任主体。人工智能产品的生产商是当然的责任主体,承担无过错责任。如果存在销售商,则与生产商一起承担不真正的连带责任。这里的生产者指的是拥有核心技术的生产者,单纯只是为人工智能的生产提供配件等若无问题不承担责任。人工智能产品核心技术的设计者与生产者若在技术完成时未进行合理测试即投放市场导致大规模安全事件可能会涉及到刑事责任,设计者若已完成安全测试,则不承担责任。
第二,构成要件。人工智能产品侵权责任类似于产品责任,当人工智能产品存在缺陷时由生产者承担责任,其构成要件包括产品缺陷、损害和因果关系,此时,有关于缺陷的认定最为复杂,因此,一方面要制定人工智能安全的一般标准,在损害发生时可以进行准确的认定,另一方面,在确定统一的强制性安全标准之外,应当明确,产品不合理的危险也应当认定为缺陷的一种,何为不合理的危险需要结合产品的说明、用途、智能程度、流通的时间等进行综合判断。
第三,免责事由。人工智能在某些情况下亦存在免责事由,主要包括以下两点。一是受害人过错。即当受害人遭受损害是由自身原因导致的,主要包括没有及时保养与调试、维护与使用不当。有些人工智能产品可能要求使用者进行定期检查甚至返厂维护,但使用者没有遵守要求,或是不按照说明书要求正确使用以致危险,这种情况下即存在受害人过错。二是其他原因。主要包括受害人故意、第三人原因等。该类情况下,损害应当由真正的责任人承担。
第四,举证责任。根据“谁主张,谁举证”的举证原则,通常应当由受害方就缺陷、损害、因果关系承担举证责任,但由于对智能产品缺陷的举证在技术方面要求过高,将责任完全归于受害者客观不公,因此可由受害者承担具有缺陷的初步证据,再由生产者自证其产品不具有缺陷。免责事由举证则由生产者承担。
在人工智能产品非因受害人或生产者失误而致损的情况下,应当充分发挥责任保险机制的作用。法律应当要求人工智能产品生产者购买强制保险,实践中确实存在人工智能产品不受控的在自我意志下忽为某种行为,此种情况下如有强制保险,可以及时弥补受害者损失,使其得到较为全面的救济,分散事故风险,即使得受害者得到补偿,也不会因承担过高责任使得生产者丧失创作积极性。若生产者未依法律规定购买保险,造成该类损失时将由生产者承担赔偿责任。