孙宏涛,郭莹莹
(华东政法大学 a.经济法学院;b.法律硕士教育中心,上海 200042)
人工智能(Artificial Intelligence,简称AI)是计算机科学的一个分支,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。目前,人工智能技术正处于高速发展阶段,医学、交通、文学、制造等各行业无不出现人工智能的身影。“智能时代”的来临为人类带来了巨大福利,同样也产生了许多新问题。就法律问题而论,人工智能的出现使得传统理论界认为的主客体之间不可逾越这一法理基础开始发生动摇[1]。为使人工智能技术更好地造福国民,2017年7月20日,国务院正式印发的《关于新一代人工智能发展规划的通知》,明确提出了“开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”。就民法领域而言,若想通过法律手段对人工智能机器人进行规制,最基础且最关键的问题在于如何对其法律地位进行精准定位。只有确定了其法律地位,才能正确评价其法律行为,合理认定因其违法行为引起的归责问题,人工智能技术的发展也会更加规范,该技术发展给社会带来的风险也能得以有效规制。
通过多年人工智能技术的研究,业界普遍认同人工智能技术可以分为运算智能、感知智能和认知智能三个层次。处于运算智能、感知智能层次的机器人的智能性较低,其优势主要体现在计算精准度和感知能力。因为其不具备学习能力和思考能力,所以其智能性始终无法与人类相提并论。但处于认知智能阶段的机器人已经可以做到自主学习和思考,且其智能性会随着学习和思考的深入而不断提高,与此同时,该阶段的机器人对社会造成危害的可能性也在增加。此外,学界对于人工智能技术的发展阶段还有弱人工智能、强人工智能、超人工智能的划分。弱人工智能机器是指不能真正地推理和解决问题的智能机器,而强人工智能机器能够真正地推理和解决问题,其被认为是有知觉的,有自我意识的,可以独立思考问题并制定解决问题的最优方案,有着自己的价值观和世界观体系。超人工智能机器人在社交能力、科学创造力等诸多方面都远超越了普通人。笔者认为,技术研发者所说的运算智能、感知智能层次的机器人与弱人工智能机器人大致等同,而认知智能层次的机器人与强人工智能、超人工智能相对应。据此可知,人类至今仍停留在弱人工智能阶段,强人工智能、超人工智能时代尚未真正来临。
“前瞻性”和“稳定性”是法学研究和立法过程中需要考虑的关键因素,面对日新月异的人工智能技术,法律人必须对该技术的发展历史以及发展前景有着较为全面的把握,依据不同发展水平下人工智能机器人的不同特性进行科学立法。具体而言,理论界在人工智能机器人领域尚存在以下几个问题。
(一)不同发展阶段下的人工智能机器人是否存在法学意义上的区别?人物两分法是现代民法的基本立场。人工智能机器人应归属于“人”还是“物”,引起了广大学者的热议。在社会大众看来,机器人自然应该归属于“物”,这对于扫地机器人等不具备高级智能的机器人而言毫无疑问。但随着科技的发展,进入强人工智能甚至是超人工智能阶段后,机器人就被赋予了学习能力和思维能力。在“机器人也是人”[2]这场革命的大趋势下,2016年,欧盟议会法律事务委员会向欧盟委员会提出立法建议,主张赋予高水平的智能机器人电子人的主体资格,进行身份登记,设立财产账号,缴费、纳税、领取养老金,与自然人具有同等的主体地位。2017年,沙特阿拉伯授予美国汉森机器人公司生产的机器人索菲亚公民资格[3]。但是赋予机器人法律意义上的人格是否等同于在为人类的发展埋下定时炸弹?毕竟随着技术的发展,超人工智能阶段到来的可能性日益增长。相较于域外立法,我国现行法律下对于人工智能机器人是否享有法律人格尚不明晰,由此造成现实中的诸多适用困境。
(二)如何评价人工智能机器人的行为?如果承认人工智能机器人的法律主体地位,那么人工智能机器人的行为就属于“人”的行为,具有自主性。如果否定人工智能机器人的法律主体地位,只承认其为一般意义上的物,那么人工智能机器人作为所有者、使用者的工具,其行为只是人的行为的延伸。
(三)如何对人工智能机器人的侵权责任进行归责?传统的智能水平较低的机器人的法律地位毫无疑问应定性为“物”,我国现行民法对此没有适用难题。若因产品质量问题对他人造成人身伤害、财产损失,应相应追究产品设计者、生产者、销售者的责任,若因产品使用过程中造成伤害,则应追究产品所有人、使用人的责任。但对于新兴的人工智能机器人,例如有着自主学习能力,能够独立思考的机器人,除生理特征外,其与人类并无差异,但其侵权行为产生的归责问题仍是一大难题。这是因为人工智能机器人在本质上不同于自然人,也不同于同样通过法律拟制手段取得主体资格的法人,其承担其行为后果的能力有限,我国侵权责任法第十五条规定的承担侵权责任的方式大多在此得不到适用。尤为明显的是“赔偿损失”这一方式,试问如何让一个机器人独立承担赔偿责任?对此,学界产生了类比“代理说”“产品责任说”等归责方法。
根据民法人物两分原则的基本立场,人工智能机器人在民法中的法律地位要么属于法律主体,享有法律人格,要么属于法律客体,其行为完全受人支配。我国民法明确规定的法律主体包括自然人主体和法律拟制主体。自然人主体根据民事行为能力的不同又区分为无民事行为能力人、限制民事行为能力人和完全民事行为能力人,其法律人格始于出生终于死亡。拟制主体是在商事活动的发展中逐步确立的,拟制主体享有拟制法律人格。除以上两种法律明文规定的法律人格外,在法学理论上,还存在虚拟人格等其他人格。目前,针对人工智能机器人的法律地位有以下几种观点。
(一)“肯定说 ”。该学说肯定人工智能机器人的法律主体地位,人与其他动物的区别在于仅有人类拥有高级智慧,而随着科技的发展,人工智能机器人也拥有了与人类相似甚至更为敏捷的学习思考和更为理性的决策能力,其应当受到法律的尊重和承认,成为法律意义上的人[4],享有法律上的权利。再者,从自然人到法人,民事主体随着社会的发展有着从少到多,逐渐扩张的趋势。在技术上赋予人工智能机器人法律人格,承认其民事权利能力和民事行为能力并非难事。但由于人工智能承担行为后果的能力有限,为解决“肯定说”下人工智能机器人的责任承担问题,大多学者又相继提出了不同的主张。如,“有限人格说”认为人工智能机器人享有的法律人格与自然人享有的法律人格有着些许区别,人工智能机器人应适用特殊的法律规范与侵权责任体系安排,其享有的人格为有限人格[5]。“代理说”认为,人工智能机器人是其拥有者的代理人,其根据被代理人的委托依据其独立的意思表示进行代理行为,因代理行为产生的侵权后果应由被代理人,即人工智能机器人的所有者或使用者承担[6]。“类比人格说”将人工智能机器人比作儿童,由此,所有者、使用者需对人工智能机器人尽到注意义务[7]。
(二)“否定说”。主张“否定说”的学者认为,人工智能机器人不具有法律人格。即其不是民事法律关系中的主体,它只是一个工具,只不过比以往人们所使用的工具更加智能。根据杨立新教授的观点,人工智能是具有人工类特性的物,但在本质上还是物,仍是民事法律关系中的客体[8]。此外,还有“电子奴隶说”,该学说在本质上是工具说的延伸,认为人工智能不具有人类特殊的情感与肉体特征,在工作时无休息等现实需要,可以认作不知疲倦的机器,有行为能力但没有权利能力,其引起的后果皆由其拥有者承担。“工具说”和“电子奴役说”令人诟病之处相类似,都在于如何解释人工智能机器人基于其智能性作出的“独立意思表示”。既然其与人类一样能够进行独立学习和深度思考,在不久的将来其可能拥有比人类更发达的神经网络,为何不能拥有法律主体地位,享有独立的法律人格。
(三)仅在一定条件下承认人工智能机器人的法律主体地位。人工智能机器人只在满足一定条件的情况下才能成为民事法律关系上的主体。吴汉东教授曾提出,“受自然人、自然人集合体——民事主体控制的机器人,尚不足以取得独立的主体”[9]。我们将这句话作反面解释,若人工智能机器人脱离了民事法律主体的控制,那么其就可以成为法律意义上的人。
一般而言,民事主体必须同时具备民事权利能力、民事行为能力和民事责任能力。“肯定说”“否定说”与“有条件说”的争议焦点应当归结于人工智能机器人是否具备以上三种能力,从而论证是否应该赋予人工智能机器人法律主体地位。可以肯定的是,不同阶段的人工智能机器人在是否具备以上三种能力这一问题上应做分类探讨。在民事权利能力这一方面,理性主义学派以“是否具备基础理性特征”作为法学意义上人与非人的标准[10]。人享有民事权利能力的主要原因在于我们具有自我意识、情感、理性以及一定的道德感[11],相较于动物或者自然界的其他存在而言,我们更具有理性精神,所以我们应获得支配其他物的权利以及尊重其他平等的人的义务的资格。弱人工智能机器人的智能性较低,不具备基本的理解能力,不具有理性思维能力,这一点足以否认其民事主体资格。而与之相反的是,强人工智能机器人已具备一定的理解能力和理性思维能力,也就是说其已达到获得民事权利能力的基本标准,且上文已提到,由于强人工智能机器人具备一定的学习能力,其理性思维能力还将随着学习的深入而不断提高。从这一点考虑,应承认强人工智能机器人具有民事权利能力。超人工智能机器人的思辨能力、创造能力等都超过了人类,但超人工智能机器人拥有的思维能否称为理性思维?这一问题仍有待考证。民事行为能力强调的是行为人以自己的行为独立进行民事活动的能力,其核心在于独立意思表示在构建民事法律关系中的重要性。于此,能否成功论证人工智能机器人具备形成并作出独立意思表示的能力成了是否可以承认人工智能机器人具备民事行为能力的标准。在这点上,“否定说”认为人工智能机器人受人的支配,其完全不具备形成独立意思表示的能力,相比之下,“肯定说”在这一方面的论述较为模糊。不同阶段下的人工智能机器人在能否作出独立意思表示这点上的可能性不尽相同,相较之下,强人工智能、超人工智能机器人的可能性较高,但其作出的意思表示是否具备独立性抑或机械运行结果也有待商讨。就民事责任能力而言,有权即有责,这是一般的法律逻辑,但是民法总则第一百零四条关于非法人组织民事责任的承担的规定是这一基本逻辑的例外。支持“否定说”的学者否认人工智能机器人的民事主体地位,仅把人工智能机器人当作物,物自然不需要承担民事责任,否认机器人的主体资格也更有利于超人工智能阶段下人类的自我保护。支持“肯定说”的学者试图用“代理说”等来解决人工智能机器人在责任承担上的局限性。但“代理说”成立的前提是能够完美论证人工智能机器人具备民事权利能力和民事行为能力,否则,人工智能机器人连人都称不上,又何谈代理人一说。此外,若因人工智能机器人不具备民事权利能力、民事行为能力和民事责任能力而否认其成为民事法律主体的可能性,那在现行政治经济发展水平下,我们又是否有必要通过拟制技术赋予其主体资格呢?对于以上争议,笔者将在下文展开论述。
以上可以看出,人工智能机器人法律地位的确定与人工智能技术的发展水平、人工智能机器人的智能程度高低等因素有着密切关联,人工智能机器人的法律地位的认定需始终秉持发展的思维。
相比之下,学界对于弱人工智能机器人的法律地位、法律责任的认定争议较小,实务中发生的具体的案例经过探讨已能得出较为一致的裁判意见,而对于强人工智能以及超人工智能机器人相关法律问题的认定仍存在较大的困境。
(一)目前所处的弱人工智能阶段不存在法律适用难题。吴汉东教授认为,弱人工智能背景下的机器人虽然具有相当智性,但不具有人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的[12]。笔者对此持一致观点,即弱人工智能背景下产生的人工智能机器人不具备成为民事法律主体的可能性。此外,笔者认为,现今法律实务中存在的与人工智能相关的疑难法律问题的关键点并不在于“弱人工智能机器人是否具备成为法律主体资格”,而在于由于法律工作者们未能对人工智能产品的运作原理作出详细剖析而误认为较为高级的弱人工智能机器人已经突破弱人工智能的界限而成了强人工智能产品。目前学界广为热议的自动驾驶汽车发生交通事故后的责任认定问题可以很好地用以论证此观点。2016年5月7日,Model S 拓速乐牌轿车与一辆拖挂车辆在美国佛罗里达州的高速公路上相撞致使驾驶员死亡。事故发生时,Model S拓速乐牌轿车正处于自动驾驶状态,其自动紧急制动系统未针对碰撞事件提供任何警告或者自动刹车,驾驶员未采取刹车、转向或其他行动来避免碰撞。据悉,美国机动车工程师协会将自动驾驶机动车分为0~5级共6级。级别越高,自动化程度越高[13]。本案中的Model S拓速乐牌轿车属于2级,即部分自动化机动车。部分自动化机动车的“自动性”虽然免去了驾驶员驾驶中的些许劳累,但也给驾驶者带来了更高的注意义务,因为该等级下机动车的传感器无法感知全部危险,需要驾驶人时刻关注路面信息,若机动车不能感知危险,驾驶人需要立即接替驾驶,这意味着一个合格的驾驶者应熟悉车辆性能,并以此作出合理安全的安排[14]。可见,该事故的发生是由于驾驶员没有尽到注意义务造成的,应按照传统道路交通事故责任确定责任归属,由该车驾驶人自行承担相应损失。
人工智能机器人的法律地位之所以在学界引起巨大争议是因为其具有与人相类似的特性,若将其定位为“物”将引起诸多矛盾。而人之所以为人是人符合生理学、心理学、社会学三个要素[15]。生理学要素指的是人体和人脑,心理学要素指的是人的意识能力和独立意志,社会学要素指的是独立的社会角色[16]。很显然,若将弱人工智能机器人与人类比,其不符合前两个要件,即其没有人体人脑。然而法人组织也不具有人体和人脑,但其依旧被法律确认为法律主体并赋予其拟制人格。更为重要的一点在于弱人工智能机器人没有独立的意识和意志,其意识是人类赋予的,是各种算法的机械运动,而不是能动的、独立的,也并非基于先前的学习和积累产生,其工作的全过程都受到人类的控制。因此,在民法上赋予其主体地位并不合适。因此,只要法律工作者对弱人工智能机器人的运行原理作出详细剖析,在弱人工智能阶段并不存在人工智能机器人的法律适用难题。
因此,在弱人工智能阶段,若因为其产品质量存在问题造成人身伤害、财产损失,可以适用产品质量法、侵权责任法的相关规定追究产品设计者、生产者的责任,若因为使用者操作不当引起的人身伤害财产损失,则由使用者自行担责。
(二)现行民法体系能够包容人工智能机器人的发展。在未来,人工智能机器人将拥有生物大脑,配备比人类更为丰富的神经元,超越人类成为更加优秀的社会工作者。进入强人工智能甚至超人工智能阶段后,人工智能机器人的存在、工作以及可能产生的侵权行为才真正地给学界带来了难题。这主要体现在该阶段下的机器人是否具备产生和作出独立的意思表示的可能性以及其是否能独立地承担法律责任两大问题上。
人工智能机器人是人类智慧的产物。人类将自己的思维转化为算法,使得机器人能够代替人脑和人的双手独立从事某方面的工作。此外,人工智能机器人还会进行自主学习和积累,以更好地融入人类社会。雷·库兹维尔曾提出,通过深入研究以及长时间的与人相处,机器人还将会获得意识[17]。但笔者认为,无论是强人工智能机器人抑或是超人工智能机器人,其拥有的意识都不是独立的,这种意识对人类工程师有着强大的依赖性。工程师在人工智能产品研发时输入一定参数,使其具备基础的智能性,之后其学习、决策、创作等一系列行为都是原始程序运行的结果。不论人工智能机器人拥有的意识与人的意识多么相似,两者仍有根本区别,人工智能机器人仍然受到人类操控,独立意识并不存在,人工智能机器人在本质上仍是一种人类设计的智能产品。
权利义务具有统一性,假设赋予了机器人主体资格,其便应享有作为法律主体应有的权利,也应当履行法律主体应承担的义务和责任。由于人工智能机器人责任承担的受限性,各学说都试图将责任承担转引至机器人的设计者、生产者、销售者或使用者,而并非机器人本身,这与权责统一的基本法律有所违背。为使法律责任的转嫁更具合理性,有学者试图用民法总则第十六条和侵权责任法第三十二条作为其论据[18]。民法总则第十六条规定,胎儿在涉及遗产继承、接受赠予等胎儿利益保护时视为具有民事权利能力,即将其视为民法上的主体,但无须承担义务和责任。对此,笔者并不认同,首先,该条款是对胎儿弱势利益的特别保护,机器人是否也处于一个弱势地位,尤其是人工智能技术发展到超人工智能阶段,该问题有待证实。此外,胎儿若顺利分娩,胚胎即成长为法律认可的法律主体——自然人,在这一点上,机器人与胎儿完全不同。侵权责任法第三十二条是关于无民事行为能力人、限制民事行为能力人责任承担问题的规定。笔者认为该条规定也不足以为人工智能机器人责任转嫁的正当性提供依据。因为监护人的替代责任有暂时性,当无民事行为能力人或限制民事行为能力人取得民事行为能力,该替代责任即刻解除。而人工智能背景下的替代责任具有永久性质。极具“灵性”的机器人超出机器发明者的发明意图实施的侵害行为,若要永久性地归责于发明者制作者,等于为自己埋下不定时炸弹,这将极大遏制产品创新,不利于社会发展。
既然人工智能机器人不能因其与人类的高度相似性而获得法律主体地位,那么立法者是否有必要如同赋予法人独立人格般,采用拟制手段承认人工智能机器人的财产权,并承认其法律主体地位呢[19]?笔者认为无此必要。面对人工智能技术的发展,民法体系表现出了较高的包容度。将人工智能机器人视为法律客体有其自身合理性,不会对现有法律体系造成冲击。相反,如果强行赋予人工智能机器人法律主体的地位,就意味着我们不得不承认自然人、法人和人工智能机器人将处于平等的法律地位,一旦发展到超人工智能阶段,人工智能机器人作出不利于人类的行为,我们将难以通过法律手段保护我们的自身利益。这与立法的初衷——防范人工智能时代可能带来的风险是相违背的。若采取拟制手法,最终,赫拉利在其《未来简史》中的预言可能即将变成现实:人工智能将取得统治地位,大部分人类活动被人工智能取代,仅有少数创造算法、为人工智能编写核心程序、通过人工智能驱动社会运转的,由智人进化而来的“神人”可“独善其身”[20]。纵观民事主体制度的发展史,法律主体资格的产生与消亡在本质上取决于人的需求[21]。如果仅仅为了防止人类对于某些智能机器人的滥用或歧视,完全可以比照对于动物的保护,将其视为体现人类价值关怀的特殊客体[22],使人类承担特定的不作为义务即可实现调整目标,而不必赋予其民事主体地位以实现自我保护[23]。
民事权利能力、民事行为能力和民事责任能力是评价人工智能机器人能否成为民事法律主体的三大标准。根据上文所述,即使工程师为人工智能机器人配备了强大的神经元和大脑,但其始终无法拥有与人类相似的能动的意识,人工智能机器人的大脑的运转是机械的[24],不具备人的智性和灵性,其作出的意思表示并不独立。此外,现行无论何种理论都无法妥善解决人工智能机器人的责任承担问题,若如此贸然承认人工智能机器人的民事主体地位,势必会对“权责一致”的民法原则形成重大冲击。在此基础上。虽然笔者同意通过法律拟制手段赋予人工智能机器人民事法律主体地位在立法技术上不存在难题这一论述,但这操作有违我们对人工智能展开探讨的初衷,即赋予人工智能机器人法律主体地位在本质上并不利于人类权利的保护和现有社会秩序的维护。综上,笔者认为,即使强人工智能机器人拥有高级智能,但其“智能性”不能改变其作为“物”的本质。在强人工智能、超人工智能时代,我们仍然应该坚持主体地位“否定说”。因其“工作”造成的人身伤害、财产损失应依照按照侵权责任法、产品责任法等法律向相应的设计者、生产者、销售者、使用者追责[25]。
虽然人工智能技术的发展尚未对现行法律制度产生根本上的冲击,但为了减少人工智能技术在发展过程中可能对司法审判、社会秩序、民众心理等方面带来的冲击,更好地放大人工智能技术给人类带来的福利,我们应在国家甚至国际层面上形成相应的监管网[26]以及风险预防措施。对此,笔者试图从风险存在的两个阶段对人工智能技术的未来进行规制。
(一)风险发生前:完善立法,建立全方位监管体系。根据上文所述,我国现行民法的基本理念和具体规则具有强大的包容性,可以适应人工智能技术发展,对此,我们无须改变民法基本理念寻找新的解决思路。但这并不代表立法上的一成不变,为解决人工智能技术发展带来的诸多法律问题,立法者仍需出台相应的法律法规,明确对人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等诸多法律问题,保证人工智能的技术研发、产品生产、投入使用等各个环节贯彻“以人为本”的理念,在人工智能技术的规制与促进人工智能产业发展之间寻找平衡点。
在完善立法的同时,要建立一套囊括事前、事中、事后的全方位监管体系。由于人工智能技术的复杂性和高风险性,监管的主体除了需要强大的政府作为权力保障,也需要专业人士成立行业协会与政府一起对人工智能技术进行协同监管。在人工智能产品开始设计之前,设计者需要进行备案,由于此时尚处于设计阶段,风险程度较低,故监管部门无须对设计者的资质展开实质审查。当设计者完成设计,设计作品即将投入生产之际,设计者和生产者需要择一或一起向政府提起行政许可申请。政府受理后需要连同行业协会或者指定专家团对相应的人工智能技术设计开展实质审查,力求在源头阻断风险,以免不利于人类发展的人工智能技术投入生产。获得行政许可的人工智能技术投入生产,最终进入公众领域后,若出现危害人类的侵权行为,除了需要追求相应主体的民事责任,还需要在行政法上对相应主体进行惩处,以此加强人工智能行业的自律性。
(二)风险发生后:准确归责,通过保险制度共担损失。人工智能技术的发展在给这个社会带来无尽福利的同时也会产生巨大的风险。虽然人工智能机器人极具“智能性”,但在强人工智能背景下,一个“心地歹毒”的智能机器人给社会造成的危害远大于一般产品,赔偿的范围或程度可能是一个设计者、生产者、销售者所无法承受的。
众所周知,在我国,机动车所有人或者管理者应投保第三者责任强制保险,国家应设立道路交通事故社会救助基金,保障交通事故受害人依法得到赔偿。保险的本质在于以较小的经济付出获得共担风险,降低损失的机会。对此,我们可以借鉴机动车第三者责任强制保险而设计一个“机器人责任强制保险”[27]。人工智能机器人的设计者、生产者、销售者应分别强制投保“机器人责任强制保险”,国家应建立机器人责任社会救助基金,保证在机器人设计者、生产者、销售者下落不明或者难以作出赔偿时优先对受害者在承保范围内进行赔付,随后向相应责任主体追偿。减少人工智能产业发展过程中产生的经济纠纷,促进该产业的良性发展。
人工智能时代必将到来,在法律领域,急迫且重要的问题是对人工智能机器人法律地位认定、法律责任归属等问题作出回应,并妥当设置相关规则、制度,在有效规范人工智能技术的同时,为新兴技术的发育预留必要的制度空间[28]。其中,弱人工智能机器人并不具备成为民事法律主体的可能,因其“工作”产生的相关民事责任应按照侵权责任法、产品责任法等追究产品生产者、所有者或使用者的责任。面对实务中产生的诸如自动驾驶汽车的责任认定等疑难案例,法律工作者需要对人工智能产品的运作原理作出详细剖析,切勿认为其已经突破弱人工智能的界限而成了强人工智能产品。未来的强人工智能机器人甚至超人工智能机器人,其具备强大的学习能力,但其作出的意思表示在本质上也并不独立,仍依赖于人类工程师的原始数据输入。因而其“物”的属性仍未改变,侵权责任法、产品责任法等相关法律仍然适用。
总之,人工智能机器人享有法律主体资格的论断缺乏普遍共识性和传统人格理论的支撑[29]。无论是在强人工智能时代还是弱人工智能时代,甚至超人工智能时代,将其认定为“物”都能够正确揭示本质特征,合理解决责任认定问题。此外,我国现行民法具有强大的包容能力,人工智能的发展尚未突破民法的调整范围,但面对已经到来的人工智能时代,我们需要作出充分且合理的风险防范措施:一方面出台人工智能专门立法,在现有法律中补充人工智能相关条款,并建立一套囊括事前、事中、事后的全方位监管体系,另一方面设立“机器人责任强制保险”制度,以保险的方式分散风险,促进该产业的良性发展。