张安毅 李博文
(河南财经政法大学 民商经济法学院 , 河南 郑州 450000)
人工智能在便利人类生产生活的同时,带来了难以忽视的数据安全、算法漏洞等风险,尤为突出的是人工智能在发展中出现的自主决策危害人类的伦理风险,比如自动驾驶汽车为避免违反交通规则或自我避险而选择冲撞行人。解决人工智能的各种风险在技术上并不存在障碍,重要的是如何从制度上保障可能具有超人类思维能力的人工智能不违反服务人类的目标,从立法上妥当设置人工智能与人类的关系。不过,由于人工智能的法律地位等问题至今未形成一致意见,这也导致人工智能的伦理规则如何构建存在着路径不明等问题。目前法学界主要从人工智能致损的侵权责任角度来解决人工智能的伦理风险,但侵权责任规则的主要功能是确定责任承担规则、救济损失,如何避免人工智能发生伦理风险而危害人类,侵权责任规则其实是力不从心。笔者认为,迄今为止人工智能在本质上仍然属于产品的范畴。《中华人民共和国产品质量法》(以下简称《产品质量法》)规制人工智能的伦理风险具有必然性、合理性,目前急迫的是探讨《产品质量法》中人工智能特殊规则的构建,并在合适的时机将人工智能立法引入《中华人民共和国民法典》。
人工智能技术究竟是福还是祸,每个人应该思量[1],随着人工智能的普及其失控一面也不断显现,带来一系列难以处理的棘手问题,人工智能伦理风险就是其中之一。不过本文所指的人工智能伦理风险,并不是人工智能对劳动力的取代引发失业等社会性问题,而是指人工智能在智能决策、自我行动过程中做出违背人类目标、损害人类权益决策和行动的风险,这种人工智能“反人类”决策往往违反人类社会的法律、伦理规则。实践中也已出现类似的实例,比如在一次护理人员与智能音箱沟通心脏问题时,该智能音箱居然表示,“心跳是肢体最糟糕的过程”[2]。一般产品都是在人的操作下发挥产品功能,但人工智能的价值或者说人工智能发展的目标在于代替人类做出思考、判断、决策。在高危行业、推算领域等人工智能应用场景,人工智能往往可以比人类做得更好,比如人工智能诊断系统就大大提高了一些疾病诊断的准确率。但从另一方面讲,不同于人类凭借理性和经验的决策,人工智能的决策是建立在数据收集、分析与自动化推理之上,一个由算法“黑箱”控制的无意识的数字决策,容易将现行的一些相关法律法规、伦理准则变成废纸。人工智能应用于人类社会要直接处理人类社会的伦理判断与选择,但人工智能却不具有人的伦理情感、法律意识,不具有人类所独有的是非善恶观念,不会以人类社会价值观为背景做出判断。因此,人工智能依靠其系统设定做出的单向性决策,可能会违反人类社会公认规则。赋予人工智能自主思考的能力可能导致其有能力违反被赋予的“规则”[3]。
人工智能的表现与活动肯定不能逾越人类社会的法律法规、伦理规则,但法律法规、伦理规则能否直接适用人工智能,这需要从人工智能的法律地位出发来探讨。鉴于近年来人工智能发展出来了自我学习、自我决策等能力,有些能力还超越人类,因此,不少学者主张赋予人工智能法律主体地位,让人工智能直接接受现行法律的规制。有学者主张以财产性人格的进路将人工智能拟制为电子法人[4]。还有学者认为,人工智能应当具有有限的法律人格[5]。然而,人工智能的所作所为是按照既定程序运行的,虽然人工智能具有学习能力,但其仅仅是依据预定的程序去学习,改变不了其本质上依赖算法程序的特性,法律不可能对人工智能进行激励、约束或控制,人工智能也没有自己的财产可以独立承担法律责任,让人工智能成为法律主体、接受法律规范没有任何意义。
人工智能终究是人类发明的特殊工具,不具有独立存在的社会价值,人工智能应始终置于人类的控制下,应将其作为“法律关系的客体而非主体”[6]。人工智能作为人造物,权利、义务、责任对其来说并不具备与对人类相同的作用,比如适用于人类的惩罚方式如拘役、有期徒刑、死刑等就对人工智能没有震慑作用。伦理学界的学者也指出,人工智能的行为是根据规则形成的,并不是出于其自由意志,将其作为道德主体不符合我们对责任主体的理解。[7]因此,在人工智能不具有主体地位的情况下,人工智能不能成为法律、伦理直接规范的对象。人工智能是人类生产设计的,规制人工智能还要从人工智能的生产设计环节入手。
综上,如果将决策权交予人工智能,却又不设置决策的伦理界限,人工智能就会威胁人类社会规则。人工智能活动需要接受法律、伦理规范的审视,但我们无法直接要求人工智能遵守法律、伦理规则。解决人工智能伦理风险最终要解决的还是如何激励、约束、规范其设计、生产活动的问题。人工智能的决策是通过运算得出的,其运算具有规律性、重复性,这也决定了控制算法程序以规制其伦理风险具有可行性。
人工智能所带来的伦理风险国外学界也已广泛关注,霍金就曾表达过对人工智能发展失控的担忧。对于如何规制人工智能的伦理风险,国外也在积极探索,比如在人工智能对数据的处理过程中加强保护个人信息等。但遗憾的是至今国外也未建立起针对人工智能伦理风险的系统规制体系。笔者认为,如何建立人工智能伦理风险的法律规制体系,应从人工智能的本质属性出发来考虑。一般来说,制造者以消费者一定的欲望或是需求为基础,生产出来的各种类物的集合就是产品,而人工智能就是为了满足特殊需求而生产的特殊产品。人工智能究其本质依然是人类设计制造出来、经过销售后为人类服务的产品。所以,仍然不能脱离“物”的范畴体系。人工智能产品一般也是批量化生产和规模化销售。从属性界定来看,人工智能应然属于产品的序列,应接受我国《产品质量法》的调整,而《产品质量法》规制人工智能伦理风险也具有多个方面的适应性与合理性。
第一,《产品质量法》的产品质量和产品缺陷制度,可以用来判断人工智能产品是否合格、是否符合社会要求。人工智能所伴随的各种风险,比如违反伦理的自动化决策、失控而致损第三人等方面,其实都来源于人工智能产品本身的缺陷。人工智能不应存在伦理风险,这也是对人工智能产品质量的要求。人类社会的行为规则适用于人工智能自动化决策,途径也在于构建人工智能生产设计的质量标准。传统产品的缺陷类型,仍然可以适用于人工智能,比如智能机器人电池漏电就属于制造缺陷;有些人工智能厂家采用过度宣传的手段对人工智能产品进行宣传销售,导致消费者对人工智能产品盲目自信,这属于人工智能的警示缺陷[8],即因为警示不够充分导致产品存在缺陷。人工智能与其他产品不同,人工智能致人损害基本都是由于系统出现故障导致的,或许是系统接收信息的敏感度低而延迟处理危险信号导致损害行为发生,或许是在自主学习过程中错误地预测了外部环境导致实施了错误的行为致人损害,或许是系统运行程序没有设定必要的应有规则致人损害,这些都属于系统设计存在的漏洞,属于设计缺陷。可见,规避人工智能的伦理风险,从本质上还是要控制人工智能的产品质量,防范出现产品缺陷。
第二,《产品质量法》的产品责任制度,可以督促生产者尽最大努力保证人工智能这一产品的安全,杜绝人工智能在自动化决策过程中出现伦理风险。一方面,很多时候人工智能运行过程中处于完全自主、自动的状态,此时如果出现伦理风险进而导致产生侵害他人权益的后果,判断谁有过错并进而确定责任人就成为难题。比如自动驾驶汽车发生交通事故时,车内乘客并没有操控汽车,自动驾驶汽车是按照设定的程序运行,谁有过错就难以判定。而产品责任实行无过错责任归责原则,可以督促生产者、设计者履行自己的产品质量控制责任。另一方面,人工智能产品在致人损害的过程中大多都是由人工智能决策系统出现故障导致的,有时候是人工智能在自主学习过程中错误地预测了外部的环境,实施了错误的行为导致损害发生。这种侵权事故的发生究其原因还是人工智能系统漏洞,应由人工智能产品生产者依照产品责任承担民事责任。比如医疗人工智能产品,不论是初级的医疗人工智能产品还是尖端医疗智能机器人,都是医疗诊治过程中的辅助工具,如果由于医疗人工智能产品发生故障导致医疗侵权,那么让设计制造者承担侵权责任才能督促厂家生产出合格的医疗人工智能产品。
第三,《产品质量法》的产品责任制度抗辩事由也可以适用于人工智能伦理风险引发的损失赔偿场合,保障生产积极性。人工智能的伦理风险需要控制,但不能因为规避伦理风险而遏制人工智能技术的发展。我国的《产品质量法》第四十一条规定了产品责任制度抗辩事由,其中科学技术无法发现瑕疵的抗辩事由也被称为开发风险抗辩,开发风险抗辩的衡量标准一般是社会整体层面的平均科学技术水平。这些抗辩事由适用于人工智能致损具有合理性,可以在一定程度上鼓励科技创新。当然这种抗辩并非易事,比如生产设计者以缺陷尚不能发现这种法定事由主张免责,就需要证明这种缺陷超越了人类的认知能力和水平。人工智能具有后天学习能力,也许会在学习了人类知识之后产生决策上的伦理风险,但这是生产者在生产人工智能产品时就可以预测到的现象,当然不能以此为由免责。
现阶段《产品质量法》规制人工智能伦理风险具有合理性,当然如果未来人工智能的发展实现了自我规范和约束,具有法律伦理、是非观念意识,人工智能就可能直接成为主体而接受法律、伦理规则的调整了。但在人工智能可以进行自我管理之前,人工智能的伦理风险也只有通过《产品质量法》才可以得到恰当、良好的控制。
虽然人工智能本身可以克服人类在运算能力等方面的不足,但人工智能赖以决策的数据不全面、机械推演等都可能会导致人工智能偏离人类初衷而出现伦理风险,此类复杂问题的解决应落脚于产品质量控制,主要是人工智能产品质量标准的制定及产品缺陷的认定。
人工智能是否会出现违背人类根本目标、利益的伦理风险,取决于人工智能的决策系统即算法,而这在根本上属于人工智能的质量要求范畴。但传统的产品质量标准是对产品的结构、规格、物理性能、重量、检验方法等所作的技术规定,丝毫不涉及社会伦理方面的内容。因此,我们需要改进人工智能的产品质量标准。传统的产品质量标准仍可以适用于人工智能产品,比如对自动驾驶汽车来说,传统汽车质量标准对轮胎、发动机的质量要求仍然适用。但人工智能产品的特殊性在于,自动决策是要帮助人类做出选择,这就导致人工智能很多时候会像人类一样陷入道德选择困境。例如在碰撞不可避免时,自动驾驶汽车决策应遵循何种决策规则,是优先保护乘客安全,还是设法去拯救最多的人,抑或是保护最有价值的财产以便使车主财产利益最大化,就是一个难题。自动驾驶汽车的算法设计绕不开伦理审视。
通常情况下,人工智能的算法主要从结果出发,把效率作为其第一要义,这很可能导致算法无视社会权利观念、公平观念等。防范人工智能产品可能出现有违道德伦理的决策,是为了避免人工智能给人类社会带来系统性伦理风险。人工智能从事的行为其实原本属于人类应进行的决策,这就要求应以人类社会规范来检视人工智能的表现。但人工智能不会以人类特有思维做出判断,不会考虑决策背后的文化、价值等社会因素。我们需要做的是通过规范设计保障人工智能的决策符合社会伦理要求。
今后,人工智能质量标准中的伦理要求应纳入立法,成为一项强制性的规范。建议修订《产品质量法》,并明确人工智能产品的质量标准应包括对其程序设计即算法方面的要求,人工智能的算法应符合社会伦理标准。具体内容包括:一是人工智能算法操纵下的自动化决策应符合法律法规。法律法规的权威性在任何时候都应该维护,人工智能决策如果违反法律法规,比如人工智能算法出现违反法律平等原则的歧视性决策,应属于产品重大缺陷。二是人工智能算法操纵下的自动化决策应符合社会主义核心价值观和伦理道德原则,尊重主体权利,尊重他人人格尊严等。三是人工智能的算法应具有公正和可解释性。人工智能的算法应接受检验,主要是算法运行结果的检验。法律可能无法保证算法的透明,因为普通大众难以理解算法运算机理,但要保障算法的公正和可解释性。目前我国还未制定人工智能产品质量的国家、行业标准。建议以后将科技部作为人工智能产品质量的监管部门,起草制定人工智能决策场合涉及到的社会伦理标准具体细则。人工智能产品的伦理问题往往是消费者难以发现的,而算法的伦理检验其实是人工智能产品质量的检验,应成为人工智能产品上市的必经环节。新类型的人工智能产品进入市场销售前,监管部门要对人工智能产品进行内部算法检验,对其决策风险进行评估,确保算法的结果符合法律法规、社会核心伦理观。
按照我国《产品质量法》的规定,如果一个产品质量不合格就存在产品缺陷,传统产品主要从性能、耐用性、可靠性与维修性、安全性、适应性、经济性等方面来设定质量的合格判断标准,不涉及伦理问题。传统产品缺陷制度在适用于人工智能产品时应予以改进。如果人工智能决策系统不能避免人工智能出现违反伦理道德规范行为的,在本质上属于程序设计问题,依据传统的产品质量法,这应属于产品设计缺陷。但笔者认为,如果人工智能的程序设计不能避免人工智能出现违反社会伦理做出决策的,人工智能的算法不符合社会伦理标准的,应视为存在产品伦理缺陷。未来应将人工智能产品伦理缺陷独立为一个类型,具体原因在于:一是不管是产品的设计缺陷,还是制造缺陷和警示缺陷,所针对的缺陷都是产品存在危及人身和财产安全的不合理风险,但人工智能产品伦理风险的本质是自动化决策违背人类社会伦理规范,这不一定会导致出现现实的可评估的人身和财产损害,比如存在性别歧视的算法所导致的后果就是一种社会不良影响。所以现有产品缺陷制度无法涵盖人工智能产品伦理缺陷的内涵。二是伦理缺陷是导致人工智能产品存在伦理风险的源头,伦理缺陷虽然也是设计问题造成的,但却不同于传统的产品设计缺陷。通常情况下设计缺陷一般是指产品结构设计、选材设计、安全装置设计等方面存在的问题,但伦理缺陷是没有考虑社会伦理规则而导致决策上出现问题。传统设计缺陷是可以预测的,但许多人工智能的自动化决策是无法事先预估的,把伦理缺陷列为一个单独的产品缺陷类型,才能督促人工智能的产品制造商重视并杜绝此类缺陷的出现。三是人工智能产品属于物,不是伦理主体,但人工智能蕴含着人类的思想,与人类道德密切相关。人工智能的决策过程与结果都要接受人类法律、道德的评判。因此,伦理规范对人工智能的评判结果不合格的,就应有不合格的结论,即伦理缺陷。
人工智能产品如果出现伦理风险,侵害了其他主体的合法权益,需要以产品责任予以规制和救济,以解决人工智能侵权的责任主体、归责原则、责任方式。一个由违法、违反伦理道德的算法引发的损害,应视为产品缺陷引发的损害,要按照产品责任承担侵权责任,这样可以倒逼人工智能产品的生产商控制算法。因此,传统《产品质量法》规定的产品责任举证规则、责任主体规则都需要改进,才能更科学地规制人工智能产品侵权责任。
在通常情形下,受害者要求产品的责任主体承担产品责任,应对被诉产品存在缺陷、损害的发生、产品缺陷与损害之间存在因果关系进行举证证明。但人工智能产品设计、伦理缺陷属于算法程序上的缺陷,需要从其运算原理上进行说明,指出设计环节上存在的不合理之处,对此问题社会大众在理解上都会存在困难,更不用说举证了,即便是该领域的专业人士也难以通过算法证明算法程序上的缺陷。一些人工智能还具有后天学习能力,其判断分析建立在后期不断增加的数据资料之上,其行为、决策的推理过程,已经不同于设计者设计人工智能之初,而且人工智能的计算分析能力远比人脑强大,想通过人类的运算证明人工智能产品决策上的设计、伦理缺陷是一项几乎无法完成的工作。很多时候,即便专业人士证明了人工智能产品的设计、伦理缺陷,司法工作人员能否对此形成统一意见也是个问题。因此,在人工智能产品责任认定场合,有必要对人工智能产品是否存在设计、伦理缺陷实行举证责任倒置。受害人证明了存在损害且损害是由人工智能产品造成的,人工智能产品生产者就应当对人工智能是否存在设计、伦理缺陷进行举证,并承担举证不能的风险。如果人工智能产品生产者证明了产品不存在设计、伦理缺陷,受害人就应当对人工智能产品是否存在其他缺陷进一步进行举证。
人工智能产品的研发设计环节有很强的专业性,即使是专业人士也很难清晰地解释其计算过程和原理,为了保障研发并分散研发失败的投资风险,很多人工智能产品设计者大多选择单独成立法人或其他独立市场主体。实践中,许多人工智能产品的致损都是设计缺陷、伦理缺陷造成的,生产者也无法控制人工智能会做出什么样的决策。为了督促设计者尽可能地防范人工智能产品出现风险,应由设计者对基于设计因素发生的设计缺陷、伦理缺陷承担产品责任。人工智能基于算法拥有独立的自主学习系统和辨认、控制能力,这种算法是设计者才能掌控的。如果人工智能产品基于设计上存在的问题而发生侵权,要求生产者和销售者承担责任,也无法起到防止风险发生的效果。因此,人工智能产品设计者应纳入侵权责任主体,与生产者一道承担无过错的产品侵权责任。
在西方法学界,机器人是否是人、谁为机器人的行为负责也是个争论不休的话题,西方学界也预判到当人工智能有了情感交流能力,在自然人与自然人、人工智能与人工智能以及自然人与人工智能之间的多元关系中,谁来制定规则,为谁制定规则,都远超出了当下的想象。不过截至目前来看,人工智能仍应接受人类的控制,人工智能产品是人类生产的产品,在法律上就应接受《产品质量法》的规制。不过人工智能产品与一般产品不同的是,人工智能拥有自我判断能力,替代人类决策使得人工智能的伦理选择、伦理风险必然出现。我们需要做的是要以伦理为先导构建人工智能调控体系。遗憾的是,我国 2020年颁布的《中华人民共和国民法典》并未直接规范人工智能问题,未来可以先在《产品质量法》中完善人工智能产品的质量标准、侵权责任,待《中华人民共和国民法典》出台修正案或出台司法解释时再专门增加条款规范人工智能法律问题。
总之,建议在我国《产品质量法》中增加条文专门规范人工智能产品的特殊问题:人工智能产品的自动化决策应符合法律法规和社会伦理规范,人工智能产品销售前应接受伦理规范审核;人工智能产品的自动化决策违反法律法规或伦理规范的,应视为存在产品伦理缺陷;人工智能产品造成他人损害的,生产者、设计者应对产品是否存在设计缺陷、伦理缺陷承担举证责任;人工智能产品存在缺陷造成他人损害的,生产者、设计者应当承担侵权责任。