姚迪烨
云南师范大学商学院,云南 昆明 650032
随着近年来世界经济不断蓬勃发展,人类生产力不断解放,人类工业领域的传统模式“人操作机器人进行工作”已逐渐被“机器人操作自己进行工作”所取代。再加之人类科技水平的不断提高,短短20余年时间,上世纪末的计算机算力已与现在不可同日而语,若以普通人类的大脑算力作为参照,现今的家用PC已轻松超越,在社会各个领域,正在进行着一场场“人工智能革命”。智能机器人不管在各方面都能轻松超越人类,实证就如2016年3月韩国“国手”李世石,与Google公司研发的围棋机器人AlphaGo博弈棋艺数回合后以1:4的成绩惨败。诸如此类的事实在我们身边不断发生,所以我们不得不深思,按现今不算发达的科技水平来看人工智能都已如此卓越,那么在半个世纪甚至是一个世纪之后,彼时的人工智能又会发展到一个什么地步?会超越作为伟大“造物主”的人类?还是会发展到奴役我们人类?伴随着一系列的问题的是来自内心深处的深深寒意。但我们也无须过度悲观,因为人工智能可以协助我们人类提高生产效率已是一个不争的事实,且智能机器人的诞生也可代替我们去从事许多危险作业,所以,我们应当充分看到其优点,并在此方向上朝着人类所希冀看到的场景去努力。
伴随着技术爆炸,现今的法学理论与法律制度正面临着难以避免的冲击。本文着重于探讨在A.I.时代,人工智能机器人、设备的法律责任问题,即在A.I.时代,人工智能机器人是否拥有自我意识或是自我意志?若它有的话,当它实施伤害行为时,法律责任该如何认定?——由它自己承担责任?或是由它的所有者承担责任?而由于人工智能的法律责任认定尚属于一个有争议、比较模糊的问题,故本文在探讨人工智能的法律地位、法律责任时,以ANI来作为引例。
人工智能即A.I.,是使电脑或机器具备人类的普遍智慧行为,以解决需要人力完成的工作。但笔者认为此解释过于笼统,因为在现今中外各方学者的探讨下,人工智能尚无一个准确的、清晰的定义,故而笔者认为若在此对人工智能下定义,应借鉴最早点明人工智能是“什么”的人工智能之父—艾伦.M.图灵提出的观点。
艾伦.M.图灵曾于1950年提出过图灵测试,其大概含义是指,在一个空间内将一台机器与一名人类(被测试者)互相隔离开,由另一位人类(测试者)通过一定的不用与被测试者直接接触的媒介向被测试者随机发问,若由被测试者反馈回的答案使测试者不能分清这是出自一台机器还是一名人类的回答时,并且这种误判超过总问题占比的30%时,此时就可认为这一台机器具备人工智能要素[1]。图灵认为,可以使一名正常的、具有普通判断力的人类感到困惑的机器,可以认定其是人工智能机器。此外,在1956年的达特茅斯会议上约翰.麦卡锡再次定义了人工智能,并提出了人工智能在高度与深度上发展的可能性。而根据各国研究人工智能的学者的进一步研究,人工智能在类型上可以分为三种:即人工弱智能(ANI)、人工一般智能(AGI)、人工超智能(ASI)[2]。ANI代表了现今人类科学技术所能制造的所有智能机器与设备,它可以协助人类进行普通的生产生活作业,但同时它能从事的工作也相当有限,仅限在人类对其编程的范围之类。AGI则代表了人工智能体完全像人类一样学习、感知、理解知识与事物,使人工智能等同于一般人类。ASI则代表了人工智能体在一切人类所具备的能力上碾压普通人类,这可能标志着人工智能研究的顶峰时期,但同时也意味着人工智能开始对人类存在产生威胁。
就现在来看,人工智能已经在这个时代占据了一席之地,分布在我们的社会的各行各业之中。而从当下的科学技术水平与政治、经济、文化、社会因素综合考量出发,当下研究的主要对象是比较普遍的ANI即人工弱智能,而对于AGI与ASI方面的研究,还要等待人类科学技术水平的进一步提升才能开展。所以本文主要针对的对象是ANI及其普遍形式。
法律责任一词,是由“法律”与“责任”两个独立的词组合形成的专门法律术语。根据辞书的解释,责任一词是指一个人本应做的事,或者一个人对其做的事本应承担的结果。而在法学范畴内,法律责任是指由特定法律事实所引起的对损害予以补偿、强制履行或接受惩罚的特殊义务[3]。回溯法律责任之本质,即法律责任“是什么”与“为什么”的问题,而对于法律责任本质的研究,现有三种影响较大的不同理论:即道义责任论、社会责任论、规范责任论。其中笔者比较赞同规范责任论的观点,即认为法是指引与评价人之行为的规范,所以应对符合规范的行为表示肯定,而对不符或违反规范的行为表示否定。对于人类来说,趋利避害是天性,若一部法律被公之于众后,大多数人会选择遵循现行法律的规定,选择获得由法律给出的肯定性的评价。但对于人工智能机器人来说,它无法做到拥有人类一样的认识能力与判别能力,即它无法判别一件或一个抽象的事物对于自身的存在是有利还是有弊,它也无法像人类一样希望寻求外界的肯定评价而不是否定评价,它所能做的,就只有是按照它的生产者或销售者或使用者的指令来行事,这个指令可以是一个具体的目的,或是一个宽泛的范围,但它绝不可能按照自己的意志主动行事,因为它并不具有自由意志,它的生产者或销售者或使用者的意志就代表了它自身的意志。
自由意志,强调一个人只对出自自己自由意志支配下的行为负责,若一个人不具备自由意志,那么其行为将不会产生法律上的效果[4]。大卫·休谟认为,一个人所做出的行为并非突然由上帝决定,或是他的神经系统毫无缘由地下达一个莫名其妙的命令,他所作出的行为很大程度上取决于他的性格和喜好等因素[5]。人类尚存可决定其行为的因素,且普遍意义上说这些因素并不能成为一个人的免责事由,那么作为被人类制造出来的ANI,更不可能因为任何理由免责。若ANI在损害他人的合法利益,甚至是犯罪后,它的法律责任如何归属,已经有了一个清晰、明确的指向。
在研究ANI的法律责任的归属之前,应明确它的法律地位。对此,有学者认为,应赋予它与法人相当的,法律拟制的法律地位[6]。但笔者认为,ANI不具备法人的法律特征,更不能以自己的意志来进行一定的行为,来向受害者进行赔偿,所以它不应当被认定为法人,或是法律暂不应为其拟制法律地位(就现在的ANI来说),应将ANI视为一种特殊的动产更为合适。因为其本身不具备任何的自主意识,其行动范围也是仅在它的所有者指令范围内。所以,ANI应属于一种特殊的物,它是器物发展的极致阶段[7],因此它的所有者对其享有所有权,所以,若ANI需承担法律责任,应由其所有者承担。
在将ANI定性为一种特殊性质的物的同时,应当严格遵循技术中立原则[8]。即不将价值判断加之于人类的科学研究及相关的技术、机器或设备,也不用是否合法的标准来评判。若用一种二元性的观点去看待技术、机器或设备,可能并不利于这些新事物的发展,甚至可能在它尚未为人类所充分利用之前就已经被扼杀于摇篮中。这些技术、机器或设备,或许只是人类去认识与改造世界的一种辅助性工具,其本身不存在人类原初道德观念中的对与错、是与非、善与恶,其对人类社会或人类发展产生积极效果或是消极效果取决于使用者的意志,即使用者利用它去做合法、有利于人类的事,那么我们可认定其是有利的;使用者利用他去做违法、损害人类生存、生活利益的事,我们可认定其是有害的。由此可见,在针对ANI侵权或犯罪案件中,我们或许无须过多关注造成损害的ANI这一“工具”,而是要更多地关注其所有者的主观因素。
主观过错是认定一个案件,认定法律责任归属的不可或缺的组成部分之一。现代社会将主观过错作为法律责任构成的要件之一,不同的主观心理状态与认定某一行为是否有责及承担何种法律责任有着直接的联系[9]。在认定ANI的侵权案件中,或可借鉴现行《中华人民共和国侵权法》中关于特殊侵权的相关规定,认定所有者对其所有的ANI承担无过错责任,因所有者本应当在使用其机器人、设备时就对其使用范围加以严格限制,并且应当对机器人、设备可能造成的损害他人权益的隐患抱有积极预见的态度。在此,马修U.谢勒曾提出过一个关于人工智能侵权的认定因素模型,即在认定人工智能侵权时因加入自主性、可预见性和因果关系三个因素综合考量[10],因果关系本就是法律责任的一个重要构成部分,所以在此不加以赘述。自主性是指ANI是否会做出其所有者对其下达指令范围外的行为,但就当前来说,普遍的人工弱智能并不具有超越人类指令或超越其本身程序范围外的能力,所以自主性因素尚还值得商榷。可预见性则是指ANI的所有者有义务对ANI所做的行为、行动轨迹在时间、空间的发展维度上有一个预见,并且其所有者有义务去制止ANI做出不利于人类、不符合人类普遍道德观的行为,笔者认为,可预见性这个标准值得我们借鉴。
对于ANI犯罪案件,严格来说,应当是其所有者利用它去犯罪的案件,主观意图亦是一个至关重要的要件。上文已述,笔者不认为现在的ANI具有自主行动,甚至是自主确立自己意识形态、价值标准的能力,所以究其所有,如若ANI涉嫌某罪,其本质还是与人类用于辅助自己进行犯罪的其他犯罪工具别无二致,例如用刀、枪非法剥夺他人生命,用铁丝、镊子盗窃他人财物等,只是其更具备智能化这一特点。关于此,约翰·金斯顿认为,人工智能似乎不太可能会因为具备知道该犯罪行为正在发生的认识而违反法律,但它很有可能会违反“理性的人应当知道”的法律规定[11]。对此笔者认为,正因为ANI进行犯罪时不具备认识能力,不能认识到它自己正在做或即将做的行为是否符合法律规定的,但其又确实做出了犯罪行为,造成了法律应当对其谴责的后果时,法律不应当谴责一个“非生命人造体”,而应当评价其所有者的行为。可以说,ANI的行为即代表了其所有者的行为,而为了避免法律遗漏评价的现象出现,我们应当将人工智能犯罪后的刑事责任严格归责于其所有者,包括其所有者和附维护、修缮它的义务的人员。
人工智能相关科学理论、技术的不断提出,以及其他相关的前沿科学技术如3D打印机技术、基因改造技术等,确确实实为我们的世界带来了新鲜事物。但我们在看到机遇的同时,也要重视一系列科学技术带来的不小挑战。在今时今日,“技术爆炸”无时无刻不发生在每一个科学领域之中,或许今日的理论、学说就可完全推翻昔日的一切,正如哲学家勒内.笛卡尔所说:“我们要怀疑一切值得怀疑的事物”。或许,我们在进行对ANI的法律责任研究之前,应当着手起草规范人工智能领域的相关规则,如马修U.谢勒在其国范围内提倡《人工智能发展法》,用一部可以引据的法来指引人工智能领域的发展。值得庆幸的是,我国于2019年6月17日发布的《新一代人工智能治理原则——发展负责任的人工智能》是我国在人工智能领域蓬勃发展的积极苗头,相信在不远的将来,人工智能领域在中国不再只是一个遥远与模糊的概念。所以,确立人工智能领域的相关规范,对于推动我国经济、社会及生态可持续发展,共建人类命运共同体来说,是一个必行之事。