胡元聪
摘要:人工智能产品虽然具有其特殊性,但是人工智能产品责任之发展风险抗辩制度,仍然应该遵循普通产品责任之发展风险抗辩制度的基本原理。通过分析国内外产品发展风险抗辩制度,就我国而言,应该确立人工智能产品责任之发展风险抗辩的基本制度,主要包括技术标准制度、时间节点制度、主体资格制度和请求时效制度。同时建立相应的配套制度,主要包括跟踪观察制度、勤勉警示制度、产品召回制度等。尤其是还需要做好基本制度与配套制度的衔接,从而为我国人工智能产品责任之发展风险抗辩提供完善的制度保障,并推动我国人工智能产业的高质量发展。
关键词:人工智能产品;发展风险抗辨制度;基本制度;配套制度;制度衔接
中图分类号:D9
文献标志码:A
文章编号:1004-3160(2020)01-0070-20
一、问题的提出
全球的人工智能浪潮正在汹涌而来,全球已经进入了人工智能时代,人工智能产品的日益普及,为我们带来了巨大的福利,但是处于新生成长期的人工智能开发在造福人类的同时递增社会风险系数,尤其是其在生产者与消费者之间产生了一种新的张力,这种张力导致生产者与消费者之间产生了新的权利和义务的不平衡。人工智能产品设计者尤其是生产者作为“始作俑者”对于其产品的安全应当负责,否则消费者的权益得不到有效保障。因为,在人工智能时代,消费者的受教育权、知情权更容易被侵害,这些都源于其与产品生产者之间的信息不对称现象带来的问题将会加剧。但是由于人工智能技术是前沿高端技术,设计者或生产者也不能是上帝而知晓或掌握一切科技知识,他们也只是人工智能科技产品的探索者、试验者,他们可能成功也可能很失败。因此,“冰冷”的法律在此问题上应该增加一定的“温度”,对于设计者和生产者的失败给以合理和恰当的宽容,从而实现人工智能产品生产者与消费者之间实质意义上的公平与正义。因此,在人工智能发展战略成为国家战略的背景之下,必须重新权衡人工智能生产者与消费者之间的权利和义务关系。其中产品发展风险抗辩制度是用以平衡人工智能产品生产者与消费者之间权利义务关系的一种新形式。大部分国家的法律虽然确认了发展风险抗辩制度,但许多在实际应用中都严格限制它的适用。因此,发展风险抗辩制度充其量只是对严格责任归责原则的一个修正,体现出各个国家的立法者既想阻止严格责任的绝对化,又想防止发展风险抗辩滥用的价值追求。基于此,本文拟解决三个方面的问题:一是基本制度方面,我国是否应根据世界各国产品责任之发展风险抗辩制度的历史发展规律并根据我国实际确立我国人工智能产品责任之发展风险抗辩制度?具体需要如何明确适用之技术标准制度、时间节点制度、主体资格制度以及请求时效制度?二是配套制度方面,如何完善生产者的跟踪观察制度,勤勉警示制度和产品召回制度,以及专家证人制度?三是如何做好基本制度与配套制度的衔接?基本制度为什么是适用产品发展风险抗辩的基础和前提条件?配套制度为什么是适用产品发展风险抗辩的补充和后续条件?
二、确立我国人工智能产品责任之发展风险抗辩的基本制度
(一)明确人工智能产品责任发展风险抗辩适用之技术标准制度
前文已述,产品发展风险抗辩制度存在太多的争论点,对于发展风险抗辩中的“技术标准”也一直都存在争议。国际上也尚无统一标准,有人认可国内标准,有人支持国家标准。总体来看,支持国际标准的观点相对来说要多一些。所以,我国在确立人工智能产品责任发展风险抗辩制度时,应该首先明确其适用“技术标准”问题,为具体司法实践提供准确的尺度参考。在明确技术标准问题时,也要考虑到具体参考标准问题,如是否考虑生产者了解信息的阻碍困境以及何为信息被公布被知晓。另外还要考虑具体司法实践中法院客观认定“技术标准”的可能性与效率性。具体而言:
1.建议采用“国际标准”
本文建议在人工智能产品发展风险抗辩中采用“国际标准”,即“以国际科学范围内最新最先进的技术标准为准”。因为这样可以要求人工智能产品生产者及时跟踪和了解世界范围内的最先进技术,最大程度确保人工智能的产品的安全性能并提高产品的国际竞争力,以及助推国家的人工智能战略产业的高质量发展。具体理由如下:
(1)人工智能产品生产者经营的是国家重大战略产业而技术更新迭代快。之所以建议我国对于人工智能产品发展风险抗辩制度必须采取世界范围内最新技术水平,是因为人工智能产业不同于其他任何普通产业和行业,人工智能产品也不同于其他任何普通的产品。换句话说,人工智能产业是现在以及未来世界各国重点研究发展的国家战略竞争性产业。人工智能产品本身就是科技的代名词,其研发创新汇集了人类最新智慧与最前沿高端技术,科技水平要求极高,生产者在生产研发时理应关注到世界范围内的最新技术,也只有这样才能确保我国走在全世界人工智能产业发展队伍的前列,确保人工智能产业的高质量发展。
(2)人工智能产品生产者处于生产的核心环节而掌握的信息更多更详细。由于人工智能产品的生产者处于人工智能产品研发应用贯穿始终的各个环节,包括掌握着产品的生产制造等过程。其他主体,包括经销商、消费者等难以介入了解更多详细信息。生产者在决上市某一人工智能产品时,理应充分的跟踪和关注并收集该人工智能产品所涉及的全球范围之内的相关技术更迭情况,在产品投入流通之前应该进行全面的最终的安全性检测,即通过充分汇集世界范围内的最新技术来检测人工智能产品是否存在缺陷。也只有这样才能确保人工智能产品在全球市场上的国际竞争力。
(3)人工智能产品生产者拥有专业的团队和专业的研发生产能力。生产者在生产该人工智能产品时必然要引进了大量的专业人士,因此,生产者就拥有相对专业的技术团队,同时具有足够的物力财力去收集最新技术情况,是故,没有人比生产者更有可能认知到最新技术。因此,若允许生产者可以以自己没有能力掌握国际最新技术进行抗辩,那么某种程度上会降低生产者的谨慎度,生产者就很容易通过适用发展风险抗辩进行免责。因為,关于是否已经“尽最大能力掌握”本就带有强烈的主观性,难以辨别清楚,法官也难以判断其客观性,所以应该采用国际标准。在互联网与信息发达的今天,专业人士去了解专业的信息并不困难,只要尽到足够的谨慎,就可以及时得到最新的技术信息。而生产者的团队里并不缺乏专业人士,理应及时关注与自己产品相关的技术信息,强化责任意识,最大程度内确保产品安全。
2.完善《产品质量法》第41条中关于“风险抗辩条款”规定
(1)将“世界最新技术标准”法制化从而实现有法可依。本文建议,将“世界最新技术标准”的表述写入该条款,并将需要具体考量的细节等情形详细列明,将其上升到法律高度。因为确立人工智能发展风险抗辩制度一定要坚持立法先行,即通过完善法律规定,将其上升为法定事项,通过完善《产品质量法》第41条可以使其真正投入适用,使其不再处于“沉睡状态”而更具有操作性,从而彰显法的价值。
(2)将“世界最新技术标准”法制化并进行实时调整。因为目前关于具体采取哪种标准问题并未达成一致规定,有人支持“国际标准”,有人支持“国内标准”,而国际上做法也不一致,这会给我国今后人工智能产品发展风险抗辩的具体司法实践带来一定的困难,毕竟裁判必然要援引法律条款。所以,若要确立人工智能产品责任发展风险抗辩制度就必须首先解决标准问题,因此,建议尽快补充修改《产品质量法》第41条,将“世界最新技术标准”写入条款中,为司法实践中法官进行裁判提供确定的法律依据。同时,根据实际情况适时调整法律,坚持立法的先行和导向,确保法律实施的成效。如美国众议院2017年9月批准的《自动驾驶法案》要求国家高速公路交通安全管理局逐步完善包括自动驾驶汽车在内的汽车安全标准或者安全范围,并要求定期审查和更新。
3.明确技术标准在实践过程的具体参考判断问题
要明确技术标准在实践过程的具体参考判断问题,就需要详细规定如何客观判断生产者是否已经达到了“世界最新技术水平”的问题。只要世界最新技术成果已经发表在公共平台或者公共报刊等各类媒介时,生产者就应该知晓,即使该成果不是以通俗易懂的文字或者报告公布,也不考虑具体是以中文或者外文形式进行展示,易言之,此时不考虑生产者的认知困境。
(1)人工智能产品领域适宜适用“世界最新技术标准”以避免生产者的使用发展风险抗辩而不当免责企图。在人工智能领域采取如此严格之“技术标准”,主要是因为发展风险抗辩的具体条款本身就是对严格责任的例外规定,适用过程中理应给予严格标准而不可宽松,否则人工智能产品生产者如果可以轻易通过适用该条款免责,那么严格责任就容易被架空,从而违背了产品责任法保护消费者合法权益的初衷。易言之,如果没有严格责任为基础,一方面受害者的诸多损害后果无法完成救济;另一方面社会风险行为无法转化成侵权责任,也就无法完成风险分配和消解。
(2)人工智能产品领域适宜适用“世界最新技术标准”以降低产品风险从而确保产品最大程度的安全。现如今人工智能产品对人类社会的影响可谓广泛而深刻,人类生活的方方面面都可以接触到人工智能产品,而且人工智能产品还在各个重要领域占据一席之地。这就使得人工智能产品的安全问题成为生产者尤其是消费者关注的首要问题。相反,缺陷人工智能产品所造成的后果比较严重,因此,必须严格控制生产者适用发展风险抗辩的条件,从源头上把控风险,从而降低人工智能缺陷产品出现的概率。
4.运用大数据和专业团队协助法院客观认定“最新技术标准”问题
在人工智能时代,法院要客观认定人工智能产品生产者是否真实达到“最新技术标准”,就需要借助先进的数据信息、技术手段的支撑和专业化团队的支持。因此,我们不得不考虑的问题是,在生产者提出人工智能发展风险抗辩的司法案例中,生产者主张已经达到抗辩的技术标准,但法院实际上很难判断生产者所言之真实性。因为人工智能涉及信息及其专业和复杂,让不具备专业人工智能技术的法院去查明生产者关于“世界最新技术”证据的真实性确属不易,因此法院在认定过程中就会比较被动,容易被生产者的一面之词蒙蔽。是故,我们需要做好以下两方面的工作:
(1)借助专业人工智能大数据信息建立动态公告平台以协助法院客观认定生产者是否真实达到“最新技术标准”。换言之,非常有必要建立专业的人工智能相关技术信息库,以汇集世界范围内的技术信息,利用大数据以及智能系统及时检测更新最新技术信息,设立搜索引擎专门为法院提供协助。法院可以在人工智能系统搜索相关信息,判断生产者提出的达标真实性问题,如此将更加便捷的确定人工智能产品是否达到最新科技标准的真伪问题。
(2)组建专家学者库建立协助平台以协助法院客观认定生产者是否真实达到“最新技术标准”。换句话说,必须组建利用专业团队,建立专家学者等多方协助平台,同时将其纳入科技专家团队方阵。因为他们对人工智能技术发展情况更加了解,观察更具敏锐度,可以为法院提供专业性的建议,从而协助法院查明生产者的人工智能产品关于“达到最新技术标准”言辞之真实性,从而有助于实现人工智能时代司法的公正性。
(二)明确人工智能产品责任发展风险抗辩适用之时间节点制度
确立人工智能发展风险抗辩制度还需要考虑适用之风险时间节点以及相关问题,主要解决何为“投入流通”的问题。即应以何时的投入流通为风险时间节点问题,以及人工智能产品投入流通后因科技发展发现缺陷时的处理问题。具体而言:
1.在立法层面应该尽快明确“投入流通”的含义以及相关问题
目前一些国家已经对此做出规定,但我国法律尚未规定“投入流通”的含义。因此,建议参考其他国家相关概念规定,在《产品质量法》第41条中关于人工智能产品发展风险抗辩条款中进一步详细规定“投入流通”的定义,从而解决概念模糊问题。具体来讲:
(1)界定“投入流通”时需要重点考虑两方面的因素。针对“未投入流通”的产品生产者是可以免责的,因此界定“投入流通”概念尤为重要。具体在界定“投入流通”概念时,应该考虑生产者和消费者的客观方面和主观方面等几个方面的因素。具体来讲,在客观方面,要求产品生产者事实上已經将产品投入市场且确实交付消费者。易言之,产品在生产者与消费者之间发生了所有权的转移的事实。在主观方面,要求生产者交付该产品时是基于自己的主观上的真实意思表示,消费者接受产品也是基于自己做出同意的意思表示,否则就不算是真正的“投入流通”。如例外情形包括但不限于:产品被人偷窃后在市场上销售。这就不属于真正的“投入流通”。
(2)界定“投入流通”时需要考虑其他附带的问题。同时应该将相关问题写入法律,例如明确的风险时间节点,并将其详细列入发展风险抗辩条款。还需在法律中明确投入流通后发现缺陷人工智能产品如何处理的相关规定,弥补发展风险抗辩的制度漏洞,使人工智能发展风险抗辩条款更加合理。毕竟立法前行,法律明确规定的事项将会更具有操作性。只有借助法律强制性,实施起来也将更加顺畅,更加高效,更具公信力。
2.明确人工智能产品发展风险抗辩“时间点”为“最后一次投入流通”
关于产品风险时间节点问题目前亦没有明确定论,有人支持以“第一次投入流通”為准,有人则坚持认为应以“最后一次投入流通”为准,即生产者提出发展风险抗辩时,必须最接近的一批产品投入流通时的发展水平不足以发现缺陷才可以,并不是以初始产品投入流通时的技术水平为标准。对人工智能产品而言,本文建议发展风险抗辩“时间点”为“最后一次投入流通”。理由在于:
(1)人工智能产品技术要求高更新换代快。之所以建议以“最后一次投入流通”为准,是因为人工智能产品投入市场不止一次,而当今世界人工智能技术更迭速度太快,初始流通的智能产品无法发现的缺陷会随着技术的迅速发展被发现。而生产者也往往必须根据人工智能技术发展变化及时更新升级产品,从而弥补设计生产之不合理地方,使商品性能更优化而更具有竞争力。
(2)人工智能产品安全性要求高检测要求严。以“最后一次投入流通”为准,可以有效督促人工智能产品生产者针对每一批次产品做出全面的安全性能监测。同时,可以督促生产者及时了解世界最新技术信息以完善人工智能产品安全性,从而更能充分保护消费者权益。从条款的公平正义视角来看,也将使得该条款更加合理,能够充分实现生产者与消费者之间利益的平衡。
总之,明确人工智能产品发展风险抗辩制度中的“风险时间节点”也要以严格控制为原则,在保护人工智能产品生产者积极性的同时,也应该充分考虑消费者利益,严禁生产者滥用产品发展风险抗辩条款逃避责任,从而损害消费者权利,必须充分保证生产者对产品尽到足够勤勉谨慎义务,从而确保人工智能产品的高度安全性。
(三)明确人工智能产品责任发展风险抗辩适用之主体资格制度
确立人工智能产品责任发展风险抗辩制度还需要明确的一个问题,就是申请人主体资格。有人认为只有生产者才可以提起申请,有人认为设计研发者也可以提起申请,目前尚无统一定论。另外,关于申请主体资格问题还涉及是否考虑将设计者也纳入责任主体体系,以及具体如何让设计者承担责任,生产者与设计者之间如何划分责任等一系列问题。
1.明确规定人工智能产品设计者与生产者都有提起抗辩的主体资格
(1)人工智能产品设计者与生产者分别掌握人工智能产品研发应用的不同环节而彼此可能完全独立。设计者对人工智能产品设计环节的相关专业技术更加了解,在产品研发时候有义务关注研发环节的世界最新技术;而生产者根据设计者的研发成果组织人工智能产品的生产制造。因此生产者主要掌握人工智能产品制造过程中所涉及的安全问题,所以会对生产制造的最新技术重点关注了解,而对于设计环节的安全问题无法接触了解,更无从下手。
(2)人工智能产品缺陷包括设计缺陷、生产缺陷和警示缺陷。其中属于产品发展风险的缺陷一般都包括设计缺陷和警示缺陷。设计缺陷对应设计者,警示缺陷对应生产者。因此,既然人工智能产品缺陷包括设计缺陷与警示缺陷,那么在考虑人工智能发展风险抗辩制度时应该将设计者包含进去,在生产者之外也要允许设计者针对设计缺陷提起发展水平抗辩。
因此,建议在《产品质量法》中明确规定人工智能产品生产者和设计者都可以提起发展风险抗辩的相关内容,还可以规定他们的抗辩权利互不影响。也就是说,生产者提起抗辩的,不影响设计者提起抗辩的权利,设计者提起抗辩的,不影响生产者提起抗辩的权利。正如有学者所言,将发展风险作为人工智能产品设计者、生产者的免责事由,更能公平保障各方的权益。
2.明确将人工智能设计者纳入产品责任主体体系
(1)基于权利义务责任的统一性有必要充分考虑将设计者纳入产品责任主体体系。权利、义务、责任是一一对应的关系,有权利就有义务有责任。既然赋予人工智能产品设计者提起发展风险抗辩的权利,那么就应该将其也纳入人工智能产品责任主体体系。如果查明人工智能缺陷产品损害结果是由设计缺陷引起的,且不存在免责事由,则设计者应当承担相应的赔偿责任。
(2)基于人工智能产品的特殊性有必要充分考虑将设计者纳入产品责任主体体系。因为人工智能产品不同于一般产品,其必然涉及大量的数据与复杂的算法基础,专业要求度极高。因此,设计者之外的非专业人士难以接触,更无法了解设计中的相关技术。所以,发现设计缺陷的可能性极低,只有设计者才能完全掌握创新产品的过程。因此很有必要将其纳入产品责任主体体系。
是故,需要在加强人工智能产品设计者的伦理道德规范约束的前提下,同时在《产品质量法》中明确规定人工智能产品设计者的权利、义务以及责任,通过强制性的法律规定正式将设计者纳入产品责任体系,使其受法律约束,督促其谨慎设计,尽可能减少因设计缺陷引起的损害,从设计源头降低人工智能产品的安全风险。
3.明确让人工智能产品设计者承担责任的现实路径
(1)强制规定产品包装上增加设计单位和个人等相关信息。鉴于设计单位和个人信息的隐蔽性,应该强制要求在人工智能产品包装上增加设计者、设计团队或者设计单位标识,尤其是人工智能机器人、人工智能大型医疗设备等特殊人工智能产品。只有如此,消费者可以直观发现设计者,主张权利对象将更加明确,从而更有利于保护消费者。
(2)规定消费者可以直接向设计者主张赔偿权利。由于设计者往往不直接接触消费者,消费者在主张损害赔偿的时候难以发现设计者,因此建议:扩宽消费者主张权利的对象范围,即允许消费者在就产品损害主张赔偿时,既可以向生产者、销售者主张赔偿,也可以直接向设计者主张权利,且设计者不可要求消费者先向生产者寻求赔偿,从而明确规定生产者、销售者以及设计者就缺陷人工智能产品损害承担连带责任。美国第三巡回法院曾经做出过一个判决,载人航空器设计者对该案件承担无过错责任。美国的《侵权法重述(第三版)》中的产品责任主体加入了产品设计者,并要求他们承担过错责任。
4.明确人工智能产品设计者与生产者之间的责任划分并允许设计者进行追偿
(1)明确人工智能产品设计者与生产者各负其责。通过法律规定厘清生产者与设计者各自的责任划分和责任承担范围,即生产者就人工智能产品的生产制造中的警示缺陷承担赔偿责任,设计者就人工智能产品的设计缺陷承担责任。当然,双方都可以就自己负责环节申请产品责任发展风险抗辩。
(2)明确消费者可以选择向人工智能产品设计者与生产者起诉。虽然消费者在主张赔偿时候可以不做区分,自由选择起诉,但应该明确生产者和设计者的責任划分,若损害不是因自己负责的环节而产生,允许任何一方在承担现行赔偿责任后,向另外一方追偿。
综上,确立人工智能发展风险抗辩制度时,抗辩主体资格问题以及相关系列问题也应该予以充分考虑,从而使人工智能产品发展风险抗辩的相关规定更加合理更加完善,在激励人工智能产业蓬勃发展的同时,能够给予消费者充分的消费安全保护。
(四)明确人工智能产品责任发展风险抗辩适用之请求时效制度
确立人工智能产品责任发展风险抗辩制度必须明确的一个重要问题就是产品发展风险抗辩的时间范围。明确了人工智能产品责任发展风险抗辩适用之时间节点制度主要解决的是起算时间问题,实质上,还需要确定发展风险抗辩适用之终点问题。
从普通产品责任的诉讼时效来看,由于《民法通则》规定的1年的时效期间与《产品质量法》规定的2年的时效期间明显不同,因此也常常引起不必要的混淆。学界目前比较一致的观点是,他们都认为产品交易违反担保的违约之诉适用《民法通则》规定的1年的时效规定,而缺陷产品侵权致损引起的侵权之诉适用《产品质量法》规定的2年的时效规定。这种考虑对于保护广大消费者权益更为有利。从普通产品责任的请求权期间来看,其请求权也不是没有终点。易言之,受害人的损害赔偿请求权因超过存续时间也会归于消灭。在此情形下,生产者的产品责任即可以被免除。关于请求权的存续时间,绝大多数国家均规定为十年(详见下表,例外如巴西规定为5年,中国台湾地区规定为2年,此为例外之一)。当然,十年也不是绝对的,如美国《统一产品责任示范法》第110条B款2项对责任期限作了限制性规定,在四种情况下,请求权的期限还可适当延长。
我国在《产品质量法》中的规定为10年,从造成损害之缺陷产品交付给最初之消费者满10年丧失,但没有超过明示的安全使用期的产品除外。该规定是符合国际通说的,也是有利有弊。利在对于生产者而言,可以避免漫无边际的产品责任,尤其对那些使用过的产品而言。而弊在于,因为对于各种不同种类的生产者来说,一个统一的一致的适用期间是否合适仍然值得探讨。尤其是一方面,人工智能产品更新换代特别快,另一方面,不同类别的人工智能产品因个体差异及其工艺过程等不同,其性能、用途、使用年限也不同,对其适用统一的责任期间,难免会使得利益差别对待而显得不公。因此,不同的人工智能产品如果设定一个统一时间也难免不合时宜。
因此,针对人工智能产品的特殊性,本文建议,可以借鉴法国10年的限制规定,但是在起算时间范围点,应该修改为自造成损害的缺陷产品投入流通之日起算。关于第三点产品的使用期限,美国《统一产品责任示范法》第109条进行了规定,即“产品出售者应对其产品在它的有效销售期限内所造成的损害负责。”因此,这就表明超过有效期限,生产者可以不承担责任,也就是说生产者可以适用发展风险抗辩制度。同时,为兼顾消费者利益,还应补充规定以下三种例外情形:其一是人工智能产品生产者故意虚伪陈述或者运用欺诈等手段隐瞒人工智能产品的有关信息;其二是人工智能产品在交付给消费者时就已经存在缺陷,但在10年后才被一般人所发现;其三是损害是由于长期使用人工智能缺陷产品所造成,也就是如在体内蓄积所引起的损害,也可以说是使用人工智能产品时已经造成了损害,但由于程度较轻,在10年以后才得以充分显现的情况。
三、建立我国人工智能产品责任之发展风险抗辩的配套制度
科技进步导致对风险分配的新认识,因为社会的发展导致有能力发现原产品的新风险。因此,确定人工智能产品责任发展风险抗辩之时间点界限后就不得不考虑,若“最后一次投入流通”时科技水平不足以发现风险,但是产品投入流通后一段时间内生产者又发现了缺陷,这种情况应该如何处理的问题,是否应该通过法律条文或者相关制度进行明确?关于这一点,我国目前并没有在法律中专门规定后续观察义务,而许多国家已经针对此问题专门做了规定,实际实施效果很好。因此我国应该确立该系列配套制度。
(一)建立人工智能产品生产者的跟踪观察制度
生产者因将产品投入流通而开启了危险,因此其应当采取所有可期待的措施,以控制由其产生的风险,这就是产品跟踪观察义务。国内学者将“跟踪观察义务”界定为,产品投入流通以后,生产者和销售者应当继续跟踪观察,如果产品在使用中存在可能危害消费者、使用者等危险,生产者和销售者就有义务对此种危险采取措施,以减少危险的发生。人工智能产品跟踪观察制度的内容及实施方面:人工智能产品跟踪观察制度要求生产者将人工智能产品投入市场之后并非万事大吉,而是依然需要将产品责任负责到底,即及时利用自己不断更新的技术措施跟踪观察投入市场的产品情况。这就已经表明,人工智能产品生产者是跟踪观察义务主体。但是,因为人工智能产品的全球化趋势明显,因此,人工智能产品的进口商也在履行跟踪观察义务者之列。跟踪观察义务主要是指对产品投入流通后的产品质量状态进行跟踪以期及时发现产品于交付前不知之弱点与瑕疵,以及获得关于该产品之可靠性、生命周期、操作风险等资料。因此,生产者的跟踪观察义务主要是获取与产品安全相关的一切信息。具体途径是,内部渠道包括生产环节、产品测试环节等;外部渠道包括售后服务、营销网络、竞争对手的产品情况、行政机构告知的信息等。具体来讲,人工智能产品生产企业的跟踪观察义务具体包括但不限于:
1.建立人工智能产品生产企业的内部产品质量监控机制
建立人工智能生产企业内部质量监控机制,主要从两个方面着手:一方面,监控人工智能产品在制售前各个环节的各项安全指标;另一方面,跟踪监控其制售后各个环节的安全保障情况。即生产者应当主动获取和分析与自己产品安全有关的信息,从而形成自己产品是否存在危险的判断的义务。这样做的目的,旨在通过产品制售前后市场调查、售后服务、产品自查等方法,及时发现产品可能存在和逐步凸显的潜在风险并进行整改。一旦观察到该产品经常发生危险,对于尚未进入生产或进入市场的产品须为改善之必要措施;对已进入市场之产品则事后须采取相关危险预防措施。从而不但为已有产品的质量把好关,同时也为新产品的研发提供机制参考。同时,除了把精力放在现有的人工智能产品的安全上,还要紧盯本领域人工智能产品的知识和技术的最新发展尤其是确保安全的技术方面的发展。
2.建立人工智能产品生产企业的外部产品信息反馈机制
在产品投入流通以后,生产者要通过收集信息、分析信息,从而了解其产品经过使用(包括错误的使用)是否被证明是安全可靠的。因此,建立人工智能生产企业外部信息反馈机制,旨在通过设立和完善消费者投诉机制、人工智能产品使用意见反馈机制以及定期上报监管部门机制等方式,及时收集广大消费者、市场监管者和社会其他人员对人工智能产品的投诉意见和反馈信息,通过梳理这些反馈信息,针对相关产品进行产品质量的创新和提升,从而整体上提高人工智能产品的质量。对于不同的产品,在设计信息反馈机制时的标准也不一样,如美国在2008年由总统签署的《消费者产品安全强化法案》将儿童用具纳入强制溯源的范畴之中。这一点也值得我们借鉴。
3.建立人工智能产品生产企业的产品质量回访和和应对机制
建立产品质量回访和应对机制旨在收集产品使用者对产品质量的评价信息并及时做出反应从而确保产品质量。生产者应当接受消费者就自己产品致损事件和产品不安全性的投诉,收集、分析这些信息并进行验证的义务。如果已经发现了线索,生产者应当通过产品测试或委托他人进行研究等方式,确认产品是否存在危险。倘若发现人工智能产品存在缺陷问题,就要及时采取所有一切措施避免使该缺陷产品给消费者带来损害。易言之,若发现缺陷时损害尚未发生,人工智能产品生产者应以最快速度,在第一时间通知消费者及相关部门,告知缺陷详情,然后采取具体的制度措施召回产品,利用更新的新技术重新检测升级。
4.建立人工智能产品生产企业的职能部门或行业主管部门监管机制
人工智能产品生产企业必须配合国家有关职能部门或行业主管部门的监管,因此也必须建立和完善相关的制度机制。当监管部门责令人工智能产品生产企业建立和完善产品回访、投诉、反馈、应对等机制,从法律规范的高度严格督促其履行跟踪观察义务时必须予以配合和协助。所以,在建立跟踪观察制度前提下,如果人工智能产品生产者在产品投入流通时,因科学技术限制无法发现缺陷,而投入流通后因技术发展发现问题,此时生产者必须有所作为,如果消极不作为,就丧失主张发展风险抗辩的相关权利。
总之,我国应当确立人工智能产品生产者的跟踪观察义务并形成制度。即通过相关法律对其进行详细规定,包括明确规定生产者具体的义务,若不履行义务则不允许其进行发展风险抗辩等内容,从而约束生产者,使其尽到充分的持续监测产品风险的义务。
(二)建立人工智能产品生产者的勤勉警示制度
有学者将警示义务和召回义务称为反应义务并认为是最重要的反应义务。国内学者将“产品售后警示义务”界定为,生产者、销售者对产品投入流通后发现的不合理的危险予以警告和指示的义务。警告是指提醒产品使用者以及第三人注意产品的危险。指示是指告知产品使用者以及第三人如何控制和避免产品的危险。由于人工智能产品发展风险抗辩制度可以使生产者对于产品投入流通时不能发现的缺陷导致的损害免于承担责任,因此,为了不使得消费者的权利缩水和打折扣,为了进一步平衡人工智能时代消费者与生产者之间的利益平衡,我国应该借鉴国外经验,建立健全人工智能产品生产者的勤勉警示制度。需要注意的是,警示义务分为售前警示义务和售后警示义务。因为售前警示义务已经在我国《产品质量法》第15条和《消费者权益保护法》第18条有相关规定,而售后警示义务目前尚无相关规定,因此,这里主要谈及人工智能产品生产者的售后警示义务。
人工智能产品生产者勤勉警示义务的内容及实施:勤勉警示制度要求人工智能产品生产者需要对已经投入流通并已经脱离其控制的产品的安全使用进行持续的监控,一旦发现缺陷存在,立即采取必要的警示措施。换句话说,若生产者知道产品缺陷存在,或能够知道产品缺陷存在,或由于疏忽未知产品缺陷存在的,生产者无任何时间限制的承担产品责任。这也是基于“允许风险分配的大前提下,注意义务是关于某个行为人是否对他人之間存在法律关系,并且指向行为人应该或如何避免伤害他人”。因此,有关产品安全的信息会成为生产者持续勤勉关心的事情。人工智能产品生产者将勤勉努力地希望了解所有可合理获知的产品缺陷信息。这样生产者需要勤勉地测试其产品的安全性能,如果可行,生产者会实施最终用户的售后安全监测,建立一定的规程尽可能地收集有关产品缺陷的信息。经过勤勉地测试和监控,如果发现缺陷,生产者应该考虑采取适当措施避免损害的发生。适当措施根据具体情况可包括但不限于:向公众发布有关缺陷的警示信息,提供免费修理或通过召回免费更换无缺陷产品。
我国2009年12月26日通过的《侵权责任法》第46条也有类似的规定,即“产品投入流通后发现存在缺陷的,生产者、销售者应当及时采取警示、召回等补救措施。未及时采取补救措施或者补救措施不力造成损害的,应当承担侵权责任。”虽然德国学者Bollweg认为是“现代化的规定,它实现了对消费者的全面保护,可以成为西方国家法制的榜样”。但是其实很不完善,难以适应人工智能时代人工智能产品的需要。国家新一代人工智能治理专业委员会2019年6月发布的《新一代人工智能治理原则——发展负责任的人工智能》提出“人工智能应用过程中应确保人类知情权,告知可能产生的风险和影响”。结合法律规定和治理原则,本文建议对人工智能产品生产者的发展风险抗辩做进一步的限制,即规定如果生产者未对其制造的产品履行持续谨慎观察义务的不得主张发展风险抗辩。同时,警示的内容方面,具体包括但不限于详细规定需要警示时间、警示对象、警示程度、警示方式以及不进行警示的责任后果等等。具体来讲,人工智能产品生产企业的勤勉警示义务具体包括但不限于:
1.确定警示时间
基于人工智能产品呈现出进入市场快速、种类数量繁多以及更新迭代频繁等特点,因此应当对潜在的缺陷产品及时予以警示,至迟应控制在生产者知道或应当知道人工智能产品缺陷的一个合理时间内。这一“合理时间”如何判断,还要结合具体根据人工智能产品的性质特点、科技含量、危害程度、上市数量、上市速度等因素进行考虑而定。
2.确定警示对象
生产者可以对销售者发出警示,也可以直接对消费者发出警示。通常来说,单纯向销售者警示是不够的。警示也不能仅仅向最初的购买人作出,如果可以合理预见到产品将被第三人使用,或者给第三人带来威胁,还应当对第三人发出警示。人工智能产品缺陷警示对象范围的大小决定了人工智能产品生产者义务的大小程度和消费者权益的保障程度,因此尤其重要。基于人工智能时代讯息传递的时间快、范围广和数量大等特点,警示的对象范围并不是要求实际通知到该缺陷产品的每一个实际使用人,只要人工智能生产企业以“广而告之”的方式通过必要渠道有效传递给使用人,就可以推定其已履行了警示义务。这一点类似于美国北达科他州高级法院审理的一起车胎轮企业告知义务案件。
3.确定警示程度
警示应当使相对人能够理解危险,并能够采取措施避免自己和第三人遭受损害。因此,警示程度的确定应该依赖于产品的致损程度。易言之,受害人遭受损害之权利的位阶也有一定的影响,位阶越高的权利受损,行为人承担损害的可能性或数量就越大,因此实施的警示程度就高。基于不同类型的人工智能产品的致害程度不一,因此需要进行差异化的考量和分析。具体警示到什么程度取决于是否能够使消费者正确地、充分地认识到产品的危险。即不同的警示程度要求与人工智能产品不同的危险程度相匹配。警示程度旨在“使消费者有能力识别出产品的可能危险和采取避免危险措施的义务”从而有效避免或减少人工智能产品缺陷产品带来的损害或损害发生的可能程度。因此,至少通过警示,能将损害或潜在损害控制在最低限度内为好。
4.确定警示方式
生产者可以通过给销售者发信、给消费者发信,或者借助大众媒体等方式发出警示。当然,警示方式应该随着人工智能时代的到来而进行创新和发展。人工智能产品缺陷警示的方式应当不必局限于以上警告方式。人工智能产品生产企业、销售企业可以通过内部、外部的各类警示机制,借助发达的人工智能通讯系统和网络传媒,通过充分履行售后警示义务,让人工智能产品消费者能够明了产品使用中的各种规则,充分保证受教育权的实现。
(三)建立人工智能产品生产者的产品召回制度
召回是指生产者通过免费的维修、更换、回购的方式来排除产品的危险。国内学者将“产品召回制度”界定为产品的生产者或销售者对于其生产、销售或进口的产品,当存在缺陷,可能或者已经危害消费者人身、财产安全时,依法向主管机构报告并及时通知消费者,对缺陷产品进行免费维修、更换或收回,主管机构对整个过程进行监督的制度。为了防止人工智能产品生产者通过抗辩免责后的懈怠态度以及不作为从而让消费者的权利得不到充分的保障。除了为生产者设定跟踪观察义务和勤勉警示义务之外,还设定了产品召回义务。产品召回制度是为了克服人工智能产品发展风险抗辩制度带来的弊端而采取的又一项保护消费者的弥补措施。至于产品召回制度在法律性质上究竟是属于法定义务还是法律责任,关键在于如何认识现代社会中法律责任的新发展。本文在这里不做探讨。
因为生产者具备充足的优势条件,所以生产者实际上很容易通过发展风险抗辩免除责任。若不规定生产者的后期补救义务,就会使生产者放松谨慎心理,实现永久性免责,从而让消费者处于不利地位而有违公平。美国建立了存在侵害风险的自动驾驶汽车召回制度,剥夺了肇事车辆上路行驶的资格,以避免它的人工智能系统再次做出侵害他人的《指令》。我国现在已经在部分产品领域确立产品召回制度,本文建议应该进一步完善针对人工智能产品的召回制度条款,即将人工智能产品纳入召回范围,并加以区分和类型化,对于特殊智能产品应确立专门的召回程序以及更加严格的召回标准。具体来讲,人工智能产品生产企业的产品召回义务具体包括但不限于:
1.召回范围方面
由于人工智能产品的高科技性,产品缺陷是一种系统性缺陷以及致损的严重性等情况,因此就人工智能产品召回范围而言,应当不限于特定类型的产品。易言之,当人工智能产品缺陷造成损害的个案一旦发生,生产者、销售者就应该将同类产品全部予以召回,从而实现产品召回制度的價值,以确保人工智能产品消费者的合法权益得到充分的保障。另外,如果产品导致人身或财产损害的严重性超过了产品的价值,就应当停止产品的销售。同时,更改产品的设计方案;改进生产流程以降低制造缺陷;或者完善产品的售前警示。
2.召回方式方面
召回方式包括自愿召回和强制召回。自愿召回又称为主动召回,其是指当人工智能产品生产者、销售者发现产品发生缺陷,可能或已经造成人身、财产损害时,按照相关法律规定或行业规定,将召回的原因、时间、措施等信息报告相关的行政主管机构,以便备案与监管。通过其内部机制召回产品,并进行检查、维修或退换货。强制召回又称为责令召回,其是指国家公权力强迫人工智能产品生产者、销售者不愿召回或召回不当时。召回主体是相应的主管机关;召回方式是以责令的方式进行;召回内容是要求生产者、销售者履行召回义务;召回责任是如果不履行,则予以实施警告、罚款等。
3.召回费用方面
人工智能产品在召回时还涉及相应费用的负担问题。对于生产者履行召回义务时的费用到底应该由谁负担,国外理论上存在三种不同的看法。一是认为生产者要承担所有的费用(包括运输费、修理费,甚至以销售价格回购产品等);二是认为消费者应当自己承担移送费用(包括将产品送到生产者或其经销商处的费用),其他的费用由生产者承担。三是认为在有条件的召回前提下,消费者要分担部分召回的费用。本文主张,应当由生产者负担人工智能产品召回的费用,其法律依据是《缺陷汽车产品召回管理条例》第19条第2款的规定。
四、我国人工智能产品责任之发展风险抗辩基本制度与配套制度的衔接
发展风险抗辩基本制度与配套制度(即产品后续观察制度)可以进行衔接。随着科技的发展,使得能够发现产品风险之时点为界进行责任划分:对于这之前的科技水平无法发现的产品风险所导致的损害,生产者是可以依发展风险抗辩免除严格产品责任。而对于这之后该风险所导致的损害,如果生产者没有严格履行产品后续观察义务则承担相应责任,因此产品后续观察义务可与发展风险抗辩在制度上形成衔接。
(一)基本制度是人工智能产品适用发展风险抗辩的基础和前提条件
1.基本制度的各项指标是适用发展风险抗辩的核心考量内容
毋庸置疑,我国人工智能产品责任之发展风险抗辩基本制度是适用产品发展风险抗辩的基础和前提条件,也是适用时需要考量的核心内容,诸如人工智能产品的技术标准、时间节点、主体资格和请求时效等等。易言之,如果人工智能产品生产企业要适用发展风险抗辩制度,首先就要对基本制度中的技术标准制度、时间节点制度、主体资格制度和请求时效制度涉及到的相关标准、相关内容、相关范围、相关程序等进行详细考量从而决定符不符合相关条件,能不能够具体适用。具体来讲,只有这些条件的每一项都符合且整体符合才能适用,只要一个条件不符合就不得适用。如针对我国到底该不该适用产品发展风险抗辩制度的问题上,有学者主张以《产品质量法》第41条为依据,承认产品发展风险抗辩,并以“国际性的科学最新发展水平”作为科学技术水平的标准。这些都体现了基本制度是适用产品发展风险抗辩的基础和前提条件。
2.基本制度的内容又是存在争论最多的部分但没有影响到适用
很显然,通过梳理国内外文献,我们发现关于基本制度的核心内容也是存在争论最多的部分,可以说,几乎每一个要点都存在巨大的争论。不过,虽然从“developmentrisk”的解释、采纳主观标准还是客观标准、采纳绝对标准还是合理标准、投入流通的时间起点和终点如何计算……等等一系列问题都充满了各种分歧和争论(似乎这个制度中的每一个问题都存在着争论)。但是,目前很多国家已经接受产品发展风险抗辩制度,并且在基本制度的内容方面已经逐步达成共识。不可否认的是,部分争论还在持续之中,不过这些都没有实质影响到其广泛地被适用。在人工智能时代,人工智能产品要适用发展风险抗辩制度也将带来不少的争论,当然,这种争论中的部分可能是基于人工智能产品的特殊性而产生,而并不完全是基于传统的意见分歧而产生。
(二)配套制度是人工智能产品适用发展风险抗辩的补充和后续条件
1.配套制度与基本制度之间的“冲突”
有学者指出,产品发展风险抗辩制度的适用会纵容生产者对开发缺陷产品采取听之任之的消极态度,使召回制度难以实施,从而危及公共安全和社会公众的利益。还有学者认为,如果允许发展缺陷抗辩的存在,产品的后续观察义务就失去了存在的基础。学者们所要表达的意思是配套制度与基本制度之间存在“冲突”。学者们关于产品发展风险抗辩制度与产品召回制度、跟踪观察制度以及勤勉警示制度之矛盾的论证原理都是一致的。其中最核心的观点就是,割裂了产品发展风险抗辩基本制度与配套制度的关系,认为只能适用其中之一。这些认识出现也有具体的原因或者理由:
(1)法律位阶相同导致的冲突。我国《侵权责任法》与《产品质量法》同属于基本法,皆由全国人大常委会审议通过,因此法律位阶相同。这就由此导致两法在发生冲突时存在如何适用的问题。一方面,如果遵循“特别法优于普通法”原则,那么作为特别法的《产品质量法》则应该优先于作为普通法的《侵权责任法》,此时适用发展风险抗辩制度就变得理所当然。另一方面,如果遵循“新法优于旧法”原则,那么规定发展风险抗辩制度的《产品质量法》则应该让位于规定后续观察义务的《侵权责任法》,此时适用发展风险抗辩制度就有欠妥当。当然,当同一机关制定的新的一般规定与旧的特别规定不一致而无法确认如何具体适用时则应由制定机关来裁决,而在未予裁决的情况下,两者之间该如何选择适用的确事实上存有冲突。
(2)立法背景各异导致的冲突。基于我国当时的生产力状况以及与当时整个社会的经济发展水平相适应的《产品质量法》规定了发展风险抗辩制度。因为通过发展风险抗辩制度的适用而免除生产者的责任,对生产者的激励作用非常明显:生产者可以大胆开发、大胆创新,从而促进科技水平提升。然而,随着社会经济的不断发展,适应缺陷产品导致安全事故和损害事件频发的背景之下应时而生的《侵权责任法》又规定了后续观察义务。因为若生产者、销售者主张发展风险抗辩,那么作为受害人的广大消费者的权益就不能得到充分保障。因此,为了纠正适用风险抗辩制度导致的生产者和消费者权益重新失衡的问题,又增加了这些义务进行平衡和协调。可见,立法背景的不同事实上加剧了发展风险抗辩基本制度与配套制度之间的冲突。而且,产品的后续观察义务与发展风险抗辩之间有深层次的矛盾。如果允许发展缺陷抗辩的存在,产品的后续观察义务就失去了存在的基础。
2.配套制度与基本制度之间的弥合
虽然说因为各种原因导致配套制度与基本制度之间存在事实上的“冲突”,但是本文认为,此种“冲突”并非绝对性实质性意义上的冲突。因为他们的共同目标和价值取向是一致的,那就是尽力做到生产者与消费者之间的利益平衡。基于此,本文认为配套制度与基本制度的冲突是可以弥合的。第46条是对《产品质量法》发展缺陷免责条款的修正。尤其是在人工智能时代,人工智能产品生产者与消费者之间的利益关系已经发生了巨大变化,这就迫切需要相关制度进行革新以进行适应。而基本制度与配套制度的协调就成为必然要求。
(1)配套制度是产品发展风险抗辩制度适用基本配套的必要制度。“从发展风险抗辩中可以推导出生产者的产品跟踪观察义务。”易言之,产品发展风险抗辩之后,并不是说生产者就完全脱离干系,与己无关而拍屁股走人。如果生产者违反了谨慎观察义务、勤勉警示义务和产品召回义务,该抗辩就直接无效而应当承担纯粹的严格责任。因此,该配套制度并不会纵容生产者对存在发展风险的产品采取听之任之的消极态度。反而,配套制度与发展风险抗辩基本制度之间是互相补充,相辅相成的关系。因为,在生产者的产品销售后再要求其承担跟踪观察义务、勤勉警示义务和产品召回义务是适用发展风险抗辩制度之时,实现对于消费者保护的几种重要的手段。在产品由于科学技术水平导致存在特定的无法发现风险的情况下,如果不对生产者施加必要的售后义务,将会使产品责任制度产生漏洞,从而对发展风险抗辩基本制度带来影响。因此,抗辩事由的采纳也会导致对消费者保护的不足,这就需要产品跟踪观察义务来予以弥补。即在给予生产者发展风险免责的同时,应当要求其持续跟踪观察其销售的产品,勤勉谨慎加强研究以及时发现产品的未知缺陷。并且,在随后由于科技的进步而确实发现产品存在缺陷之时应当及时采取补救措施。易言之,生产者在将产品投入到市场后,应当收集该產品的使用效果和不良事故发生的情况的相关数据和信息;当有足够证据表明产品存在以前无法发现的缺陷时,产品制造商应当立即采取相应措施进行应急处置。可能采用的措施包括事后的风险警告和产品召回。在德国,为了消除因发展风险抗辩制度的适用对消费者权益的损害而确立了产品的跟踪观察义务,其要求制造商不间断地对产品予以跟踪观察,并通过对生产者和销售者施加勤勉警示义务或产品召回义务等来有效避免或减少因产品发展风险而导致的损害。如果生产者和销售者不履行这一义务,受害消费者则可据此对抗生产者的发展风险抗辩。《欧共体产品责任指令》第15条规定其成员国可以将该项免责事由作为保留条款予以回避,这也意味着其对发展风险抗辩制度适用的限制。
(2)配套制度是产品发展风险抗辩制度适用基本配套的前提制度。如早先我国香港地区法律委员会建议采用产品发展风险抗辩,但是其建议与大多数情形略有不同,即生产者未尽到召回义务的,禁止援用产品发展风险抗辩。这就将配套制度具有的前提基础性的地位凸显出来了。通过仔细分析《侵权责任法》第46条的适用人工智能产品发展风险抗辩制度的情形,我们会发现,允许生产者以发展风险作为抗辩事由必须具备一定的条件。而这个条件是必须建立在人工智能产品生产者能够证明其已严格履行后续观察义务的基础之上。一方面,当人工智能产品因科技水平的原因而发生缺陷但尚未造成损害结果,人工智能产品生产者应当在第一时间采取严格的警示及召回等措施以防止损害结果的发生,否则其就丧失了发展风险抗辩的基础。另一方面,当人工智能产品因发展缺陷已经造成损害之时,人工智能产品生产者更应通过严格履行义务来防止损害结果的进一步扩大,否则同样丧失发展风险抗辩的基础。
总之,我们不难推断出《侵权责任法》第46条的立法本意。那就是其旨在鼓励生产者积极履行产品后续观察义务(具体包括生产者的跟踪观察义务、勤勉警示义务和产品召回义务等)。因此,该法条本身的规定与发展风险抗辩制度的规定之间并非存在绝然的矛盾。但是,在人工智能产品责任的具体诉讼中,如果人工智能产品生产者、销售者要以适用发展风险抗辩制度来免责的话,那么其前提条件就是必须证明其已经严格履行了《侵权责任法》第46条规定的后续观察等系列义务。反之,因人工智能产品发展风险可能带来的损害,生产者可以通过采取产品跟踪观察、勤勉警示与产品召回等有效制度机制予以避免。这样我们就会发现,这也许正是《侵权责任法》第46条的价值体现。因此,与其说配套制度与基本制度之间存在着冲突,不如说配套制度是对基本制度的有限承认与重要补充。他们共同协调了生产者与消费者之间冲突的利益,尤其是构筑了对消费者权益的保护网。那么在人工智能时代,要实现人工智能产品生产者与消费者之间利益的平衡,更需要我们对配套制度尤其是对基本制度进行完善和革新,并且实现基本制度与配套制度的有效衔接。但是,需要提及的是,《侵权责任法》第46条所确立的仅仅是私法上的产品跟踪观察义务,并非行政法上的义务,这一规定不能成为行政执法的依据。
五、结语
我国确立产品责任之发展风险抗辩的包括技术标准制度、时间节点制度、主体资格制度以及请求时效制度等等的基本制度,旨在保护人工智能产品生产者的创造性并提高我国人工智能发展的国际竞争力,从而为以法律制度提升全球人工智能治理制度性话语权提供中国智慧和中国方案。确立配套制度旨在为适用产品发展风险抗辩制度提供补充和后续条件。其中,基本制度主要是從客观主义的视角进行的制度构建,与生产者的主观意识没有关系。而配套制度主要是从主观主义的视角进行的制度构建,与生产者的主观意识具有很大的关联。因此需要对基本制度与配套制度进行有效衔接。
责任编辑:杨炼