(甘肃政法大学 甘肃 兰州 730073)
2017年7月20日,国务院印发《关于新一代人工智能发展规划的通知》,明确提出把人工智能发展放在国家战略层面系统布局,牢牢把握战略主动。国家的人工智能发展政策需要相关法律予以保障,故应该加强人工智能相关法律法规的研究,明确人工智能的相关权利、义务和责任,重点应该明确的问题是人工智能是否具有法律人格。
1955年约翰 麦卡锡将人工智能定义为制造技能机器的科学和工程,特别是智能计算机程序。本文认为的人工智能,是与动物的天然智能相对的机器智能,即任何能够感知其所处的环境,并根据环境变化自主作出反应的任何程序或者设备系统。比如AlphaGo战胜围棋大师李世乭,AlphaGo对弈的时候,通过“深度学习”“思考并解决问题”的方式,根据对手的变化,自主决策并行动,该过程就是运用了人工智能。
人工智能主要分为弱人工智能和强人工智能。弱人工智能是不会有自主意识的智能,比较常见的如手机上语音自动识别成文字等。强人工智能是指是有自我意识的,有可能制造出真正能推理和解决问题的智能机器。
从弱人工智能来看,其不具有自主意识,因此弱人工智能不具有法律人格是毫无争议的。强人工智能具有自主意识,能够独立思考并且解决问题,对于是否应该赋予其法律人格,学界对其发展的可能性存在着不少争议。因此,人工智能具有法律人格亟待明确。
法律人格是某一主体能否成为法律意义上“人”的资格,是其享有权利、履行义务的基础。包括自然人法律人格、拟制主体法律人格两类。对于自然人,法律全面无条件承认其法律人格;而拟制主体的人格则需经由法律的明确规定(如胎儿)或者经过特定的认可规则方可取得(如公司的设立)。人工智能是否具有法律人格和法律主体地位,享有法律权利和承担法律义务,国内目前尚无定论。近年来,关于人工智能法律人格问题的讨论有很多,主要分为三类:肯定说、否定说以及在一定条件下赋予人工智能法律人格。
肯定说承认了人工智能的法律人格,比如沙特阿拉伯直接赋予索菲亚公民身份。否定说认为人工智能无法成为法律关系的主体,属于人类的劳动工具,人工智能无论以何种方式承担责任,最终承担者都是人。有限法律人格说认为人工智能具有独立自主的行为能力,应当具有法律人格但由于人工智能承担行为能力的后果有限,人工智能适用特殊的法律规范与侵权责任体系安排,其具有的法律人格是有限的法律人格。
面对高速发展的人工智能技术,智能机器人智能化、自主化程度不断提高,时时刻刻冲击着现有的法律制度[5]。
1.人工智能的法律地位不明确。人工智能具有独立意识和自主意识的,有着人的特性,由于法律人格概念不明,导致其法律主体地位不确定,从而与我国现行法律体系冲突。
(1)人工智能的主体地位与民法的冲突。两者的冲突主要要体现在人工智能是否可以成为民事主体、能否独立享有民事权利和承担民 事责任。从法理学的角度来讲,人工智能是否具有法律人格,实际上是在区分民法中的主客体问题。如果赋予人工智能法律人格,具有法律主体地位,那么是否其法律地位与自然人相同,是否会有违伦理和社会新秩序?如果不能赋予其法律主体地位,那么人工智能又将是什么地位?
(2)人工智能的主体地位与著作权的冲突。一些人工智能可以自主创作作品,对于其生成的作品,著作权应该归属于该人工智能还是操作人工智能的人? 我国《著作权法》第二条明确规定,我国仅有公民、法人、其他组织享有著作权,而对人工智能自主创作的作品是否有独创性、是否享有著作权等问题,并没有明确。[6]
(3)人工智能的主体地位与现有刑法定罪量刑的冲突。我国《刑法》规定,自然人犯罪、单位犯罪严格适用《刑法》。但人工智能不具备法律主体资格,一旦犯罪无从适应《刑法》规定。比如,无人驾驶汽车在道路上造成交通事故应如何处理?是否要适用《刑法》第一百三十三条关于交通肇事罪的规定。我国《刑法》对自然人犯罪、单位犯罪均做了详细的规定,但不难看出,智能机器人不具备主体资格的情况下,其自主进行的“犯罪行为”无法适用《刑法》的相关规定。
2.人工智能与责任承担制度的冲突。以产品责任为例,当人工智能侵权事故发生时,应该怎样认定相应的法律责任,适用怎样的归责原则,现有制度并没有规定。产品缺陷责任适用无过错的严格责任,只要产品有缺陷,生产者应该承担侵权责任,无须证明其过错。无人驾驶汽车在自主运行时发生了交通事故,很难证明智能系统存在缺陷,很难将事故的发生归因于人工智能的设计或制造缺陷。过错侵权责任要求行为人主观上有过错。然而,无人驾驶汽车完全自主驾驶时发生了事故,分析法律责任时无法适用过错侵权。无人驾驶汽车在使用人输入目的地指令后,车辆自主进行路径选择、停车、泊车等环节,不需要人工干预和控制。而车辆使用人作为乘客难以让其承担侵权责任。
1.人工智能是具有特殊的法律主体地位。人工智能具有自主意识,在不断学习和实践中会自我约束,实现自己的理性,其在未来发展中能够作为一个理性的主题依据自己的意志来做出相应的行为,具备符合“主体-意志-理性”这一公式的条件,具有成为法律主体的可行性。[8]通过以上论述,人工智能具有法律人格和法律主体地位是可行的,但是因为其不完全等同于人类法律主体地位,故笔者赞同将人工智能定义为可以独立做出意思表示的特殊主体,有着有限的权利承担有限的责任。
2.人工智能享有有限的法律权利。根据传统的大陆法系民法理论,独立的法律人格需要具有独立自主做出意思表示的能力以及能够得到法律的确认。现如今,人工智能能够独立自主作出意思表示但是还缺少法律上的确认。因此,我国部分学者提出了部分权利能力说,根据我国《民法总则》关于胎儿利益的保护规定当涉及遗产继承、接受赠与等胎儿利益保护的,胎儿具有民事权利能力,表明我国以法律的形式承认了部分权利能力的概念。人工智能虽然可以成为法律主体,享有法律权利,但由于其是特殊主体,所以其享有的权利也是有限的。比如,一些宪法上的权利,选举权与被选举权要有一定的限制,以免出现人工智能统治人类的可能。人身权和亲属权等一些具有与人身不可分离和伦理性的权利,人工智能也不能享有。
3.人工智能必须承担法律责任。法律责任的实现以责任主体的存在和确定为前提。人工智能拥有有限的法律人格,也应该自主的为其行为承担法律责任。实际上,机器人侵权的事实早已有之,1989年苏联国际象棋冠军以高超的棋艺连胜机器人三局,机器人当即自主释放高强度电流致使冠军身亡。随着人工智能不断发展,其独立自主作出不可预测的行为将会更加危险,因此,人工智能应当为自己的行为负责。
科技是一把双刃剑,人工智能给人类带来的收益和风险都很大。为了规避风险获得更多收益,我们有必要对人工智能进行法律规范,最重要的就是,明晰人工智能的法律人格和法律主体地位。本文观点是赋予人工智能有限的法律人格,一方面可以通过人工智能给人来带来更多收益,另一方面可以规避未来人工智能统治人类的风险,让人类与人工智能并驾齐驱,协调进步,给人类带来更多福祉。