解正山
现今,人工智能已成社会热议的高频词汇并成为国际竞争的新焦点,但它并非法律概念甚至没有统一的行业定义,因为准确定义人工智能甚为困难。这不在于“人工”概念而在于“智能”一词的模糊性,因为后者的定义相当宽泛并同人类自身都难以界定的一些特质,如自我意识、学习能力、推理能力等相互关联。
不过,仍可从以下几个方面来理解人工智能,即“像人一样行为”、“像人一样思考”。 随着技术进步,这些高度自主的人工智能实体(如自动驾驶汽车、护理机器人、医疗机器人等,下称“智能机器人”或“机器人”)完全可脱离人类之手并基于自身与周围环境的互动与分析而独立地为或不为一定的行为。此所谓“机器的范式”,即在没有人类参与或干预情况下自行“感知—思考—行动”。 即将到来的人工智能革命或将为人类的生产与生活带来无限可能。实践中,包括中国在内的许多国家正如火如荼地进行自动驾驶汽车商用前测试,机器人投资顾问则已开始帮助金融消费者作出投资决策,机器人“棋手”甚至还多次赢得与人类棋手的较量。于是,民法学者发出了“机器人究竟应当作为法律关系的主体还是客体出现?应当将其等同于普通的机器或者动物对待,抑或将其作为‘人’来看待”之问。这一问题的回答关系到机器人进入人类生活后的法律地位,尤其是机器人权利及其“行为”责任问题。通过对智能机器人自主性、社会性以及权利主体历史演变等方面的论证,越来越多的学者(国内研究者如许中缘、彭诚信、袁曾、张玉洁、郭少飞等,国外研究者如Filipe M. Alexandre、Paulius Cerka、Ryan Calo、Colin R. Davies、Hutan Ashrafian、Samir Chopra等)认为,应授予这些机器人法律人格或主张将其视为法律主体。然而,授予机器人法律人格终将“充满挑战与困难。毕竟,法律是——并且始终是——由人类制定并服务于人类的。想想那些基础概念,比如‘人格’与‘法律人格’。历史上,这些概念都与人类有关”。而且,授予机器人法律人格并非解决它们“行为”责任的灵丹妙药,反而可能打开“潘多拉魔盒”。因为享有法律人格的机器人很可能会成为一个“坏主人”而非“好仆人”,它们或将成为某些人推卸责任的替罪羊,人们将因此陷入更加危险的境地,现有的法律威慑体系恐被消解。
那么,到底是否应授予机器人法律人格以便其享有权利、负担义务,从而解决高度自主的机器人造成损害时的道德与法律责任问题?换言之,将机器人视为法律意义上的“人”是否是框定其行为及后果,尤其是责任承担的必然选择?这些问题不仅关乎“人”(自然人,下同)与机器人关系的法律确认,也涉及机器人法律地位与“行为”责任,是人工智能技术演进中应予解决的难题。本质上,法律人格的授予是主体间相互尊重彼此权利并对侵害权利行为加以法律控制的一种手段,其与权利授予以及责任承担或义务履行密不可分。
正所谓“每个人都有自己的生活,且都有责任去创造生活……这种责任与我们传统中承认的权利相匹配,它就是……自己能够定义人格或定义生活的权利……这些权利与更普遍的责任共存”。 显而易见,法律人格的内核就是享受权利、负担义务的能力,其具有如下属性或本质要求:其一,能成为法律上的主体,具有相应的智力与理性;其二,成为法律主体使之有能力行使权利并能切实理解、遵守其所承担的法律义务,且对惩罚或制裁具有敏感性;其三,享受权利需要其意识到自己应得的权利以及他人应履行的义务。 基于上述人格之法理,下文将尝试回答:机器人能否成为法律上权利与义务的主体,即机器人是否具有成为权利和义务潜在拥有者的能力,包括为行使权利、承担义务而创建、修改或废除法律关系的能力?上述“法律人格论”者之所以主张赋予机器人法律人格,主要基于以下几项理据:(1)人工智能技术已经或将要使机器人呈现一些所谓道德的或法律的行为能力,具备与其他法律主体直接互动的能力以及自主决策能力,且能从自身经验中学习,智能机器人变得越自主就越不应将其视为工具而应被视为独立于其所有人或使用人的法律实体,
它们“须以权利义务的承担者身份参与到民事法律关系中才能解决法律工具主义观下责任归责的困局”;(2)从社会性角度看,具有人形且自主的社会型机器人已能与人类进行交流与互动,随着人工智能技术不断取得突破,它们的社会能力将会不断提升,社会行为模式与情感交流将愈发突出, 在社会化应用过程中逐渐扩张机器人的权利空间是这些智能实体实用主义功能催生的人类自我让步,而社会及经济上的便利性恰恰对决定是否将法律人格授予某些类别的实体发挥着至关重要的作用; (3)人类法律既然能把法律人格授予人类婴孩以及丧失心智的成年人,而且也认可既无“身体”也无“心智”的公司或庙宇成为法人,那么就没有什么可以成为机器人享有法律人格的阻碍因素。 “法律人格论”者还从权利主体历史演化与发展逻辑中找到了机器人享有权利的正当性,并在法律主体历史演变中发现了确立人工智能主体地位的制度空间。总之,在“法律人格论”者看来,人类正处在迎接一个全新智能族群的当口,不管此种智能是否是人工的,都不应阻止这些数字平民获得尊严与权利, 且应“表达出自然人类对人工智能体拥有同情与关爱之良善本性”。因此,“当机器人社会化应用达到一定阶段,人类必须对此作出必要回应……而回应的必要措施就是通过立法的方式肯定机器人的法律主体地位,并赋予其一定的权利”。尽管“法律人格论”者言之凿凿,且现代人工智能技术催生的智能机器人具有了某些与人类相似的特征,但这些机器人根本不同于具有生命的自然人,也有别于具有独立意志并作为自然人集合体的法人等非“人”实体。因而,无论在道德层面还是在法律层面,承认机器人的权利“能力”并赋予其所谓的权利都是值得商榷的。
首先,机器人与“人”具有本质差异,它们不可能成为“理性的人”,既无法区分善与恶、 对与错、好与坏等复杂的道德观念,也不要指望它们拥有难能可贵的同情心。毕竟,“人代表……一种具有理性思考与反省能力的智慧生物”,
只有“人”才具有灵魂、目的性、意识、 感情、利益以及自由意志。正因如此,“只有人类能够触及那些不可思议的事物,他们辨别着、选择着、判断着……”。独特的思考能力、自我意识、自省能力以及自尊等特质奠定了人类享有某种程度人格的哲学基础,意味着每个人与生俱来地拥有相同或同等的权利“能力”,他们平等地拥有生命权、自由权、财产权以及追求幸福的权利等自然权利。这表明,人格对于人类而言是自由的、平等的、包容的。然而,较之于“人”,机器智能充其量是一种演绎智慧,只能对数据进行无理性、无情感的枯燥处理,无论其具有多强的感知能力、深度学习能力以及由此形成的自主性都不过是对人类某些认知行为的模拟,根本谈不上运用自由意志以及所谓的道德知识在道德两难中做出正确的选择。总之,机器人不可能与人类签订互相赋予权利的契约,而且,其作为人类工具的原初地位无法改变,并且没有不容破解的内心秘密。进一步而言,基于人类自身利益,人工智能技术发展的禁区必然要避免机器人成为一个具有“自我”意识的存在。因为一旦“人工智能有了‘我’的概念和意识,不仅是对人的模拟,而且也具有了人的核心内核。在这个层面上而言,人工智能就在个体上可以成为另一个物种的‘人’”,此时,它将思考自身存在的意义,而人类恐将“沦落为技术‘眼中’的他者”,人类的生存将因此而受到实质性威胁。可见,无论机器人多么智能,其限度必然是不得等同或超越人类地位,因为一旦对人类主体地位构成威胁,它们就会失去存在的正当性与合法性。另外,具备人格的一个本质要求便是拥有“自我”意识,这个“自我”不仅是个可识别的实体,而且还能根据“生活计划”进行创造性的自我定义。
然而,人工“主体”缺乏内在情感,不具备包含了理解自我以及感知他人感受的“自我认识智能”。 况且,智能机器人虽具备了形式逻辑能力,但并不具备辩证思维能力。正所谓“没有理性的东西只具有一种相对的价值,只能作为手段,因而叫作‘物’;而有理性的生灵才叫作‘人’,因为人依其本质即为目的本身,而不能仅仅作为手段来使用”。总之,如果无法成为一个有“生活计划”的自我意识实体且以某种方式“关心”这一计划的实现,那么承认机器人某种程度的人格就缺乏必要的前提与基础,它们自然难以由道德无涉者演变为道德或权利主体。其次,以公司法人这一非“人”实体具有享受权利、承担义务的主体资格为理据论证智能机器人应获得同等法律待遇也是站不住脚的,这一论据不仅忽视了公司法人与智能机器人的差异性,而且没有意识到机器人“权利意识”觉醒带来的风险。
一方面,公司虽在形式上具有独立人格,但事实上并未真正脱离“人”的控制或干预,其“意思能力”很大程度上取决于“人”的意思能力:无论是公司的意思形成机关还是意思表示机关,其背后都是“人”而非公司本身。例如,董事会决议是由自然人担任的董事共同作出,即便存在法人股东,股东会决议也都可以最终穿透至自然人股东的意思,一旦公司“意思”形成,最终是由“人”所担任的法定代表人向交易相对方作出而非公司自身。总之,公司很大程度上仅是个抽象的存在,其“并非真正自主,因为它的行为由其股东、董事、经理等利益相关者而非‘自身’决定,它的‘意志’总是其股东、董事、经理等利益相关者的‘意志’”。
公司人格的正当性在于公司的权利与义务/责任实际上就是拥有、管理它的“人”的权利与义务。这意味着承认公司法人的独立人格不致危及“人”的主体地位。不可否认,把法律人格延及公司这种非“人”实体反映了立法者乐于为商业或技术创新提供相应的法律保护,同时也表明法律人格是一个发展且开放性的概念。然而,即便法律人格是一个发展的概念,也并不意味可以无限扩展。否则,只要某一事物具备一定的人格表征就主张赋予其法律人格或权利,那么到最后权利客体恐怕都将不复存在。无权利客体,权利本身自然就成了空中楼阁。另一方面,鉴于公司“没有可被诅咒的灵魂,亦无能被踢打的身体”,
因此,在本质上,公司法人的所谓自主性是虚拟的,而智能机器人自主性往往是真实的。这种自主性正是“法律人格论”者认为机器人应被赋予法律人格或权利的重要论据。然而,由于机器人具有全部或部分独立于人类的自主性,所以,一旦在法律上强化它们的独立地位,恐怕将无法确定它们如何表达使用人的意志以及谁能控制它们。鉴于此,越来越多的学者、科技企业家以及未来学家警示道,更强大的人工智能可能会抗拒人类对其行为的监管,从而给人类带来灾难甚或生存危机,此种风险并非源于智能系统对人类的恶意或无法理解人类的主观意图,而是源于它们对人类主观意图根本就漠不关心。 因此,对于人工智能系统,应非常小心地向其索取,否则人类将会看到原本设计的实用功能可能并不是它字面含义那么简单。 就此而言,不仅不应在法律上强化机器人的独立地位,相反,还应从严监管这些人工智能系统以免其危及人类的安全与秩序。说到底,无论人工智能系统多么复杂、智慧多么高级,它们终究只是作为“工具”而存在,反映的是人类技术能力的进步。那种根据“实力界定权利”理论所得出的“机器人与人类之间的实力变化可能催生出机器人权利”的观点,显然是把机器人与人类置于博弈的场域中。无论如何,机器人都不可能也不应该脱离于人类独立地作为“类人”而存在。或许是意识到机器人与“人”或法人之间的本质差异,“法律人格论”者转而借用动物权利之论述来论证机器人享有权利的正当性。他们认为,无论是在心理上还是在哲学层面,动物与机器人都具有相似性,人类既然能承担避免让动物产生痛苦的道德义务且能对某些动物固有的尊严表示尊重,那么,也可同样对待拟人化的机器人——赋予它们权利且不虐待它们。
不可否认,人类行使对自然的统治权既需要对动物进行道德关怀,又需要谨慎关注人类自身利益。鉴于人类自身利益与动物和环境的利益交织在一起,因此,为保护濒危物种和人类赖以生存的生态系统的可持续性,立法者制定了一些保护动物的法律。但这并非意味人类立法者赋予濒危动物或其他物种某些权利,而是因为生物多样性与生态系统稳定关乎人类自身的可持续性发展,立法者系基于人类自身权利或利益之考虑而对特定物种施加保护。很大程度上,要求善待动物不是因为它们享有权利而是因为人类的同理心——动物的痛苦可能让人类感同身受。但这种同理心并不足以让动物们拥有人格或享有权利,相反,人们仍可自由地购买、出售自己的宠物。 可见,所谓的动物权利充其量只是一种道德倡导或道德层面的论述。更重要的是,动物无法与人类进行自我意识之间的复杂互动,正因这种“能力”差异,无论人类如何拟人化动物或对动物充满爱意,但在法律权利方面,动物通常只能被视为一个“物”。 而且,因动物缺乏“善的观念”和“正义感”,且无法满足道德人格和政治公民的要求,所以人类对待动物的态度通常并不涉及正义问题。 总之,所谓的动物权利更多是人类基于自身利益或同理心而给予动物某种程度的道德关怀,它们在法律上的客体地位不曾有过改变。机器人又何尝不是如此!进一步而言,如果机器人能够享有法律权利,那么它们可享有什么样的权利?生存权?财产权?与人类通婚的权利?休息的权利?被认定为受害人的权利?保护它的运行系统免遭无端搜查与扣留的权利?请求不被拆解或免遭终止电力供应等惩罚的权利?通常,权利的概念根植于人类的道德世界。这决定了权利概念及其体系与“人”的密切关联性。不难想象,人类立法者承认机器人享有原本专属于“人”的那些权利时将遭遇怎样的挑战!或因如此,主张赋予机器人权利的学者并未在现有权利框架中讨论,转而强调以法律拟制手段“强制性要求人们之间达成‘机器人拥有权利’的基本共识”,赋予机器人拟制性且利他的所谓新型权利。然而,这些拟制性且利他的权利要么是不现实的,要么是多余的。所谓“基于功能约束的自由权”,更多是指向机器人在产品意义上所能发挥的功能——机动性,它怎么可能成为一项独立存在的权利呢?根本没有必要把这种产品意义上的机动性上升到权利的高度,只要此种机动性不致对人类构成显著的或无法控制的危险,立法者完全可允许机器人发挥其机动性。至于“获得法律救济的权利”完全可在机器人作为“物”的情形下给予权利主体——所有者或使用人——相应的救济即可,而非一定要把机器人视为法律主体方可为之。
正如我们所知,不存在纯粹的权利或义务,任何主体享有权利的同时也应负担义务。换言之,对于一个完全自主的法律主体而言,其不仅有“能力”意识到自己行为的意义,而且能对其行为负责。因为,如果一个人在社群中与其他人共存,就应以负责任的态度与社群中的其他成员进行互动,承认彼此的权利且须为侵犯这一权利而承担相应的责任。
那么,具有类似于人类自主性的智能机器人拥有这样的“能力”吗?不可否认,机器人若能为其行为负责,那么确有必要重新审视现有的法律人格之概念并对现有法律体系是否足以适应新的法律现实进行评估。但问题是,机器人具有履行义务/承担责任的能力吗?或者说,它们能够拥有财产进而具备履行义务/承担责任的物质基础吗?如果可以,那么它们拥有或占有财产的表征方式是什么?如果不能,赋予它们法律人格还有意义吗?一般认为,公司等非“人”实体获得人格不在于它们的伦理性,很大程度上是因它们财产与责任的独立性。鉴于此,有论者提出可通过法律拟制让人工智能系统像公司那样,不仅能拥有财产而且还可作为被告应诉,自己承担责任。
果真如此,那么机器人的生产者(包括设计者、编程者等当事人,下同)、所有者或使用人(下称“用户”)自然无须再为机器人的行为承担责任了,除非他们“出资”不足或其他原因需“刺破人工智能面纱”。可问题是,谁负责“出资”以构成机器人的财产与责任基础?需要设定最低的财产额度吗?“出资”人是否以出资额为限承担有限责任?即便不考虑立法技术上的挑战,仅从生产者或用户的立场看,这也是不现实的。因为要求他们履行“出资”义务势必增加他们的经济成本,而且也不具操作性。如此做法既不经济也不方便,看似解决了机器人责任承担问题,实则徒增各方负担,包括立法上的成本。额外的成本负担不仅会打击人工智能开发者的创新热情,而且也将浇灭用户使用人工智能的兴趣,没有市场需求的支撑,人工智能技术的开发者自然就会失去技术创新的动力。进一步而言,如果机器人真的具有了权利意识而且具备了承担责任的基础,那么这对“人”而言到底是祸是福?人类准备好接受一个拥有法律人格且具有公司无法比拟的自主性的新角色了吗?从刑事责任能力的角度观察,认为机器人能为其自主“行为”负责更是不可能。较之于公司,绝大多数机器人因具有相应的物理形态从而显得比公司更实在,加之有人工智能技术的支撑,它们也都具有一定的意志能力。有学者据此认为,“智能机器人的意志自由程度比单位更强”,它们“完全可能脱离人类产生独立的意志。对于人类来说,智能机器人是人类模拟自身神经网络创造出来的事物,比世界上任何事物更类似于人,刑法应当尊重其自由意志,适时考虑赋予其法律上的主体资格”;而且,唯有“将其作为行为主体与社会成员看待,有罪必罚,并经由刑事诉讼程序进行法律上的审判,才能在智能机器人的‘大脑’中建立价值体系,植入人类文明,使其自觉遵守并维护社会秩序,从而实现‘人工人’向‘社会人’的转变”。笔者以为,赋予机器人刑事责任主体地位的构想显然是天方夜谭。
首先,如上文所言,机器人很难对善恶、好坏进行道德判断,既无力在是非、对错之间进行抉择,也不可能理解法律禁止的以及法律允许的行为的真正意涵。其次,较之于智能机器人越来越高的自主性,公司的意志很大程度上仍是“人”的意志,它们在本质上仍是虚拟的主体,其背后的“人”才是真正的主宰者。因此,公司犯罪时,除可处以罚金外,立法者还把刑事责任延伸至其背后的“人”。就此而言,对公司的惩罚实质上是对其背后“人”的惩罚,这不仅使惩罚公司成为可能,而且能防止公司自身产生不可控风险。相反,当机器人意志自由程度等同甚或超越“人”或公司的意志时,那么此种失控物可能会对人类利益造成损害甚至威胁到“人”的主体地位。最后,如果承认机器人具有刑事责任能力或主体地位,那么自然可对其错误行为处以罚金或徒刑甚至直接将其销毁。但问题是,此等刑罚是否有意义?且不说机器人能否像公司那样因拥有独立的财产从而可对其处以罚金,单就对机器人能否处以徒刑而言就是个极大疑问。能让机器人因失去自由而感到痛苦并因此痛改前非吗?经由审判或道德谴责,它们会对自己的错误行为感到羞愧吗?通常,对被告人处以刑罚意味着这些主体要承受社会、心理乃至身体上的不利后果。可是,所有这些对无法成为道德主体的机器人而言是毫无意义的。此时,刑法的惩罚与矫正功能如何实现?除非机器人与其生产者或用户的关系如同公司与其实际控制人之关系,否则,法院难以对机器人错误“行为”施以有效制裁。
如果不能对机器人的错误选择与行动施加有效的刑事制裁,那么就更不用说让其他机器人“感知”并“意识”到它们未来作出相同或类似错误“行为”的风险所在了,而这恰恰关系到刑法威慑功能对机器人“种群”的实际效用。总之,机器人不可能具有所谓的“感知刑罚痛苦的能力”,更不可能在“犯罪的‘快感’与刑罚的‘痛感’之间进行理性权衡”。机器人真若有此“能力”,那么立法者不仅不应承认它们的自由意志,还应毫不犹豫地阻绝这一技术发展趋势。很难想象,人类如何与“社会化”的机器人相处!既然难以像法人等非“人”主体那样具备责任能力,那么可否退一步,赋予机器人类似于人类婴孩般的法律地位?正如我们所知,即便是尚不具备完全意志能力的未成年人或暂时丧失自由意志的精神病人以及医学上的植物人仍都具有法律人格。承认这些特殊主体具有法律人格的根本原因在于:他们是“我们中的一员”,虽然认知能力存在不足或障碍,但并不妨碍他们与认知能力正常的人一样享有尊严并获得尊重,而且,他们都具有培养完全人格的潜力。总之,人类的这些特殊成员享有“不同但却平等”的人格。
然而,机器人不可能也不应该获得这般地位。首先,较之于人类上述特殊成员,机器人不可能具有培养完全人格的潜力,即便机器人未来在强人工智能技术支撑下具有或超过人类普通成员那般的认知能力,其作为手段或工具而存在的本质规定性也不可能逆转。更重要的是,认知能力状态虽对“人”享有何种权利、承担何种责任具有决定性影响,但对其是否具有法律上承认的人格却几乎不起作用,法律人格与法律权利的基础更多在于人性而非认知能力。 否则,不仅可把法律人格授予机器人,甚至也可让黑猩猩等“聪明”的动物享有人格,因为它们的自主性或认知能力有时比上述人类特殊成员健全。显然,这种逻辑站不住脚,而且将贬损人类尤其是那些处于弱势地位的人类成员的尊严。其次,如果把机器人视为民法上的未成年人,那么机器人可能就得接受民法上对未成年人行为能力的区分与限制。随之而来的问题,如何区隔机器人的行为“能力”?它们将如何自主地为或不为一定的行为?解决这些问题必将带来高昂的立法成本。或因意识到以法律人格或主体地位为前提建构责任框架的非现实性,所以,“法律人格论”者在论证机器人等人工智能系统如何承担责任时,又不自觉地回到传统的法律体系中寻求答案而非站在授予机器人法律人格之立场来构建其责任框架。例如,建议通过强化产品责任、要求机器人生产者或用户承担严格责任。不难看出,这些论者弱化甚至是放弃了围绕法律人格来构建机器人民事责任框架的努力,他们把本应能独立承担责任的法律人格之假定与非人格范畴的产品责任糅合在一起,从而导致论证上的逻辑不自洽。因为,适用产品责任的逻辑前提是把机器人视为“物”,责任承担者自然是生产者等法律主体而非产品本身,但如果将机器人视为主体,无论它们的人格是有限的还是完全的,都不可能再落入“物”或客体的范畴。既然站在“物”的立场来构建机器人的责任框架,还有什么必要授予机器人法律人格或主体地位呢? 不可否认,许可与产品责任等既有监管与责任框架适用于机器人时存在不充分性,也有必要对现有框架予以优化以应对人工智能产品责任风险与挑战,但这并不代表要建构一个以主体为前提的责任体系。
综上,机器人或能具有一定的自主性以及与环境进行交互的能力,但在根本上,它们不可能具备人类那般的理性,缺乏像“人”那样的自我意识、辩证思考。况且,某种程度上,人格还与某一实体为自身制定目标以及实现这一目标的能力紧密相连,而机器人尚不具备这种能力。即便这些人工智能实体具有某种“目标”,顶多也是为实现生产者或用户的目标而衍生出来的,
且它们根本不“关心”这一目标能否实现。 机器人能否具备公平和公正的价值观更是值得怀疑。通常,只有“人”具备公平和公正的意识,才能真正地理解权利与责任的意涵。确实,人类通过编程可使机器人“符合”规则,但绝非“遵守”规则,因为对规则的“遵守”预设了人们对规则意涵的理解,但机器人并没有这种理解能力。正如霍斯特·艾丹米勒所言:“某一特定社会的法律以及赋予该特定社会成员的权利义务是‘人类境况’的表达。法律……反映了我们认为处于人类核心的东西,以及处于核心的人何以为人的意义……如果将法律人格赋予机器……让它们有权取得财产、订立合同,这简直会使这个世界非人化”。总之,在促进科技进步的同时,更应确保“人”的主体地位、自由和人格尊严不受侵害,树立对尊重自然人人格的民法底线。说到底,机器人仍在民法“物”的范畴之内,虽具备了部分类似于“人”的功能或行为,本质上仍是“物”之属性的产品,它们的所谓“智能”体现的仍是人类技术能力本身。毕竟,人工智能技术的根本出发点在于:提高技术工具为人类预设目标服务的能力而非令其成为“我们”当中的一员。如果说人工智能技术使机器实体具备了某些道德的或法律的能力,那么充其量也只是它们提高了服务人类生产、生活的能力,而不能把这样的智能表现理解为构成了主体资格的一般要件。总之,人工智能技术催生的机器自主决策无法等同于社会规范中智能机器人的“主体性”。至于“法律人格论”者担心的机器人“责任归责之困局”,完全可通过将这些人工智能体界定为产品加以解决,在法律上为机器人行为负责的总是人类自身。如上文所言,将机器人定位为民法上的“物”且将其视为产品并据以确定其民事责任应是更现实的选择。一旦将机器人视为产品或人类生活的一种工具,那么,当需对其法律或道德上的责任进行评价时,焦点自然应将转向制造或使用它的当事人。
类型上,智能机器人引发致害事故无非两种情形:一是由警示缺陷(未充分警示消费者如何使用产品或应予注意的风险)、设计缺陷(产品的可预见风险本可通过合理的替代设计而被避免或被降低)、制造缺陷(产品偏离了设计意图、未根据既有规格进行生产)造成的,用户未尽合理注意义务亦可能产生致害事故;二是机器人自主决策模式下的致害行为,即致害事故不是由警示缺陷、制造缺陷或设计缺陷等产品缺陷以及用户未尽合理注意义务引起的,而是机器人基于自我学习所带来的意外副产品。
第一种情形下,鉴于与机器人有关的责任都是人为错误的结果,因此,自可适用现有产品责任与侵权责任框架,要求生产者承担产品责任或由用户承担侵权责任。产品责任在法律属性上属无过错的严格责任,它要求当事人应尽最大努力阻止伤害。这是立法者强行分配的一种责任承担形式,免除了受害人对责任方是否存在过错的证明责任,受害人仅需证明产品存在缺陷且缺陷与损害之间存在因果关系即可,生产者是否采取适当的措施或是否存有过错在所不问。理由在于:责任方往往获利最多并控制着设计生产过程,且大多数情况下的损害是由“错误”导致的。
本质上,产品缺陷系因设计生产者对可预见风险的疏忽而产生,这种过错自然构成他们承担严格责任的正当基础。这也意味着,若产品缺陷及其导致的损害是可以证明的,那么,责任归属不会因机器人而产生额外问题。只是人工智能时代受害人或将面临如下挑战:机器人所依赖的“算法”越复杂,受害人就越难证明其中的特定错误以及错误与损害之间的因果关系,因为“算法”对普通人而言就是一个“黑箱”,要求他们破解算法黑箱或证明存在合理的替代设计,难度可想而知!有时甚至连技术创新者都无法解释致害事故的真正原因,更不用说让受害人去破解机器人的算法黑箱进而证明机器人是否存在缺陷以及该缺陷与损害之间的因果关系!此外,生产者利用责任豁免条款——产品投入流通时引起损害的缺陷尚不存在或当时的科技水平尚不能发现缺陷存在——进行抗辩更将增加受害人的证明难度。第二种情形下的归责问题更具挑战性。具有一定自主性与学习能力是智能机器人最突出特征之一,但也导致了可预见性难题。因为它们在本质上并不受提前预置的概念、经验法则、传统智慧等要素的限制,而人类则需依靠这些要素才能进行决策,
这意味着智能机器人可能做出人类无法预见的行为。虽然此种情形目前仍限于较小范围,但随着机器“学习”能力的增强,越发自主的机器人的应用范围将更加广泛,从而带来棘手的归责难题,包括过错认定与责任分配。如果说上述第一种情形下,缺陷以及缺陷与损害之间的因果关系尚有可能证成,那么第二种情形下,甚至连机器人本身是否存在缺陷都是一个极大的疑问。例如,完全自主的无人驾驶汽车根据自我学习而自行做出的行为以及它与其他智能驾驶车辆或其所处环境进行互动与协调而作出的行为所导致的致害事故就会使损害赔偿趋向复杂化。此时,要求受害人根据既有责任框架证明导致其受损的原因或产品存在缺陷就存在极大困难。 鉴于这些自主行为往往是机器学习的结果,因此,即使是最谨慎的生产者恐怕也难以预见那些已具备了与现实世界互动能力的智能机器人所导致的风险,不管这种结果是否是设计生产者本身所期望的,它都将给现有责任框架带来挑战。一方面,在技术层面上,机器人根据自身经历而做出的自主行为及其风险已非生产者所能预见或控制,而在现有产品责任框架中,他们仅对可预见性风险负有警示义务或合理注意义务。此种情形下,机器人的生产者或用户能否以机器人自主行为不受其控制而请求豁免承担责任?传统侵权责任归责时惯常适用的因果关系链条是否会因高机器人的高度自主行为而被打破?毕竟,普遍接受的观点是,要求一个人为他无法控制的人所犯下的错误行为负责是不公平、不公正的。 另一方面,若豁免机器人的生产者等当事人此种情形下的责任,又该如何向受害人提供救济?为没有过错但遭受损害的个体提供救济本就是一项重要的价值,因此,让个体承担损失尤其是在因果关系无法解释的情形下要求其自行承担损失显然是与公平、分配正义以及风险分担等基本的社会观念相悖的。对此,最需解决的问题是,当“不得伤害人类或以不作为之方式放任人类被伤害”这一律法已被植入机器人“思维”系统之中,且有证据表明机器人是因自己的学习能力而违反了这一律法时,是否仍可要求生产者承担责任?真若如此,或意味着他们在任何事情出错时都可能要承担责任!此时,生产者等当事方承担责任的依据是什么?是否可因他们处于更有利的经济地位从而要求他们承担责任?或者,机器人的每个“错误”是否都是法律意义上的缺陷造成的? 一般认为,具有自适应性与自我学习能力的机器人可自由地与人类或周围环境互动,它们能以不可预知的方式对新感知到的信息做出反应。鉴于此,若机器人的自主行为对第三方造成损害,那么将很难认定机器人存在法律意义上的缺陷,因为它做了应该做的:对新输入的信息(变量)做出反应并调整自己的行为。
然而,侵权法的一般原则是,非因自己过错而遭受损害的一方不应自行承担损害成本。一旦机器人的自主行为致使他人受到损害,自然应有人为此负责。问题是,谁该为此负责?唯一可行的方案似乎是推导出某种新的理论,即机器人自主行为导致的事故本身就是缺陷的证明。 而且,鉴于机器人的自主行为以及它们在现有产品意义上的缺陷均能致害,因此,除非将机器人自主行为本身视为“缺陷”,否则,很难划分两者之间的界限。 如果这是正确的选择,那么,随之而来的问题是,法律应该如何在智能机器人的设计者、编程者、生产者以及其他参与方之间分配责任? 换言之,如果一个真正的自主机器的行为被认为是造成某种损害的主要原因,那么,在何种程度上要求生产者等当事人承担责任才是公平合理的?另外,机器人的生产者与用户间的责任分配也是亟待解决的法律难题。一方面,适用严格责任意味着生产者应确保它们生产的机器人难以被用户重置,或确保它们不遵从危险性指令,包括将旨在阻止机器人伤害人类或其财产安全的措施嵌入产品之中,唯有如此才有可能限制或免除自己的责任;另一方面,若完全豁免终端用户责任,则可能错误地激励他们不当使用机器人并因此导致第三人人身或财产受到侵害。可见,控制终端用户行为层面上的过错也是有效责任机制的重要组成部分。只是,如此一来,终端用户在传统侵权法框架下的合理注意义务或将延至需要及时了解人工智能系统是否失灵之情形,而且在某种程度上还应知道如何处理以避免损及他人人身或财产。当然,终端用户履行这些义务离不开生产者等前端当事人警示义务的适当履行,两者密切关联。即便如此,这也可能加重终端用户的合理注意义务。终端用户责任风险的增加势将降低他们购买或使用人工智能产品的意愿,这种不利影响最终将传导至生产者并致使后者因没有市场需求而延缓甚至是放弃技术创新。
可见,在生产者与终端用户之间分配责任时存在着明显的紧张关系,因而需要在法律政策上对责任负担做出合理安排。作为一般原则,智能机器人的生产者应为产品缺陷所致损害承担严格的产品责任。只是较之于普通产品,智能机器人具有高度复杂性,其所依赖的复杂“算法”或致使被侵权人难以证明机器人是否存在缺陷。而且,即便能够证明,受害人恐怕也得负担高昂的诉讼成本,譬如委托专业技术人员对产品缺陷进行证明。机器人脱离人类干预的自主行为的责任分配更会让法院左右为难。因此,作为回应:
第一,鉴于智能机器人为或不为一定行为取决于难以被普通人所理解的复杂“算法”,因此,首先应要求生产者等“算法”控制者遵从一套以人为本的伦理或法律准则,包括将人的保护置于最优先地位且应避免“算法”构成对不同人群的歧视等;其次,还应要求生产者能够解构“算法黑箱”并对依赖该“算法”而实施的行为或决策负责。例如,为方便查明致害原因到底是用户疏忽、技术失灵、机器人自主行为抑或其他外部因素所造成,可要求生产者在机器人体内置入“即时数据记录仪”,用以记录机器人运行状态及数据,为事故原因分析、因果关系证明、责任的合理分配提供客观、准确的证据支持。总之,机器人立法应促进机器“算法”的透明度与问责制,尤应要求生产者对智能机器人的运行逻辑进行解释。
第二,鉴于产品标准或规格通常是证明产品是否存在缺陷的重要依据,因此,未来立法可考虑创设或指定人工智能监管机构并由其负责制定机器人等人工智能产品的国家或行业技术标准(包括硬件安全、网络安全、公众知情乃至用户隐私保护等方面的具体标准),要求生产者确保机器人难以被终端用户重置或确保它们不遵从危险性指令,包括将旨在阻止机器人伤害人类或其财产的安全措施嵌入产品之中、警示用户何时应进行必要的维护、保养与检查以及应在何种情形下进行“人—机”切换等,不过,无论如何,不应不合理地增加终端用户的注意或监督义务,否则将有违人工智能系统是为人类提供某种便利而非提升人类操作水平或消除人为失误这一设计初衷。
总之,包括用户在内的社会公众有权对机器人安全性能抱有期待,即机器人安全等级或标准至少应与非人工智能产品持平或在统计学意义上比其他非人工智能产品更安全,这也是生产者最低的法律义务。第三,鉴于人工智能的高度复杂性,因此,可将机器人是否存在缺陷以及该缺陷与损害之间因果关系的证明责任分配给生产者。生产者证明产品缺陷存在与否的意义并不在于否定自己的责任,而是基于如下考虑:(1)若机器人存在产品缺陷,那么判令导致缺陷的那一方当事人最终承担责任自无异议;或当(2)致害事故非由产品缺陷或其他人为因素而是机器人自主行为造成的,那么生产者就应成为第一责任人,但其可要求参与机器人设计、编程、软件供应等环节的当事人共同担责。因为,一方面,一旦机器人进入自主决策模式,用户即不再控制其运行,此种情形下致害事故的最可能原因是智能系统本身的“失灵”而非用户过错,除非用户实施了干扰、阻碍等错误行为,否则要求其承担责任显然是不公平的;另一方面,就产品责任而言,现有立法要求生产者先行承担责任;承担责任后,可向有过错的其他责任方行使追索权,但在机器人自主决策模式下,先行承担责任者可能于事后无法向其他责任方进行追索,因为他们似乎都无“过错”。鉴于此,除非生产者处于承担损失的最佳地位,否则,由参与智能机器系统设计、制造、维护等环节的所有当事人或那些能够更有效防范或避免损失的当事方之间分摊责任才是公平合理的。
此种“共同责任”无须纠结于应把错误或不法行为的每一个细节归属于哪一方,一旦确定了责任,裁判者即可要求所有参与方共同承担责任——公平均摊责任或根据各自所获利益多寡分摊责任。这有助于解决智能自主机器对人类造成损害但将过错分配给特定一方是不可能的或不可行时的归责难题。进一步而言,从技术层面上看,让机器人等人工智能系统拥有自主决策能力即便不是设计、生产等环节当事人的直接目的,至少也是他们的间接目的,因为只有这样才能赋予机器人与周围环境进行互动的能力。一定程度上,这是该等当事人期望发生的,更是机器人高度智能的体现。可见,机器人的设计生产者对机器人所谓的不可预见行为及其风险并非全然不知。至少,他们是在“放任”甚至是“鼓励”机器人做出这样的自主行为。而且,较之于个体,商业组织分散风险与吸收损失的能力更强,且它们将通过售卖智能机器人而获得不菲的利益。因此,要求这些拥有共同目标且都分享了利益的潜在责任方分摊机器人自主决策模式下的“行为”责任自然是公平合理的。
更重要的是,如果可预见的损害成本小于因提供安全保障所花费的成本,那么生产者等当事人自然更愿承担损害成本而非花费力气提供安全保障。因此,唯有增强这些当事人的责任负担才能迫使他们把过错行为的成本内部化,确保更负责任的设计,尽力避免损害发生。不难看出,防止有害行为尤其是让受害人获得赔偿构成了上述“共同责任”的正当基础。不可否认,要求设计、编程、生产等环节的当事人承担机器人自主行为的全部责任或将增加他们的成本,若他们因责任风险而趋于保守,那么很大可能会阻碍人工智能技术的运用或迫使技术开发者大幅降低机器人的功能或运行范围。这种担心不无道理,但事实上,这些当事人除可根据产品定价等方式转移部分成本外,还将因人工智能系统优异的安全性能大幅降低事故率进而使其总体责任成本显著降低。
尽管如此,以下问题仍值得考虑:可否根据他们在技术应用方面预见能力的局限性或基于激励创新之考虑从而以某种方式减轻他们的责任?实际上,要求设计、生产等环节的当事人作为“一个整体”共同负担机器人自主决策模式的致害责任就是对这一问题的部分回应,至少是避免了某一个当事人承担全部责任,他们可以公平均摊责任或根据各自所获利益的多寡分摊责任。而且,作为对内部责任共担机制的补充或替代,还可考虑建立一种类似于自我保险的赔偿基金,由机器人设计、编程、生产等环节的当事人根据产品特性及风险因素共同筹资建立。当机器人非由产品缺陷或人为因素产生致害责任时,可由共同基金赔偿受害人损失。为激励技术创新、降低企业成本,政府也可考虑向该赔偿基金出资。将保险安排引入智能机器人致害事故的责任框架之中也是一个值得考虑的方案。鉴于智能机器人具有一定的自我“感知—思考—行动”能力,因此,如上文所言,把它作为纯粹的产品增加了生产者或用户的不可预见风险。为此,一个理性的事前解决方案就是通过保险安排来分担或降低当事人的赔付风险。为确保受害人总能获得部分或全部的损害赔偿,同时也为彰显产品责任法的激励与矫正功能,可强制要求利害关系人为机器人可能的致害风险包括其自主行为致害风险购买保险。该保险安排的基本立场是,无论机器人导致损害事故时是否处于自主决策状态,均应确保受害人通过保险获得赔偿。此外,鉴于技术革新降低了用户对保险产品的需求,加之人工智能产品致害责任向生产者转移,保险模式可考虑从传统的以保护用户为中心为其操作失误风险提供保险服务转向以保护生产者为中心为其智能系统失灵风险提供保险保障。具体而言,首先,若机器人发生致害事故,保险人将作为第一责任人负责赔偿损失,但存在下列情形时保险人有权排除或限制自身赔偿责任:一是被保险人擅自更改机器人操作系统引起致害事故;二是被保险人未根据保单的要求更新或检查机器人操作系统因而引起致害事故。其次,受害人对产生的损害负有部分或全部责任时,保险人的赔偿责任可相应减少,于机器人未投保之情形,应投保的当事人将成为第一责任人,保险人无须承担责任。最后,若最终查明事故系机器人传统意义上的产品缺陷所致,则保险人有权向生产者行使追索权,非由人为因素引起的机器人失灵风险仍由保险人承担。
与科学技术的激进性相比,法律具有明显的保守性。但是,面对快速发展的科学技术以及由其塑造的新的社会关系,立法者或裁判者应积极理解新技术,留意它的新风险并在此基础上作出回应。当初,克隆技术一经问世同样引起轰动,包括人们对克隆技术可能对人类伦理与生活秩序产生强烈冲击的担忧。最后,立法者的底线思维——禁止利用克隆技术“复制”另一个“我”——为这一技术革命设定了明确边界并确保其安全有序地发展。如今,人工智能技术的蓬勃发展使人类立法者再次面临挑战——是否允许一个在法律上作为主体而非客体的“类人”群体存在?笔者认为,无论机器人未来多么智能,它都不可能也不应该让其拥有“人”一样的自我意识与自身目的,其所发挥的仍应是智慧工具价值。尤不能忽视的是,“人之主体能力的本质与人所创造工具的工作能力表象之间”存在根本区别,这也是维持人类主体性的必然结果。而且,如上文所述,机器人也不同于作为自然人集合体的法人。总之,作为法律上的客体是智能机器人存在的合法性与正当性基础,以此为前提进一步优化机器人的民事责任框架才是更是现实的选择。