人工智能法律人格问题的思考

2019-03-03 03:05唐辰明
云南社会科学 2019年6期
关键词:工具性人格主体

唐辰明

2017年作为“人工智能年”,引发了社会各界对于人工智能的一系列展望和担忧。无论是无人驾驶责任问题、机器人创作物问题,还是数据歧视与隐私侵权等问题,都体现了人工智能体法律人格方面的争议。智能机器人能不能具有法律意义上的“人格”?如果答案是肯定的,也许会藉由其强力的数据广度和计算能力一举成为“超人类”并引发一系列安全问题、伦理问题与道德问题等;如果答案是否定的,那么一些高智能机器人可能会因此逃避一系列责任,亦或相反,高智能机器人可能会因为法律地位不明而受到基本权利方面的侵害。从宏观角度看,人工智能技术一方面提高了人类的行为效率,在生产、社会管理等多个领域都体现出其强大的生命力和应用潜能;另一方面,也体现出了新技术对人类“意识”层面上的突破,无论从传统的生产机器人到机器人撰写诗歌,还是从普通的算法到阿尔法狗下棋,都凸显了人工智能技术这一无法避免和阻拦的趋势,并开始了从“行为”到“意识”的发展。传统的法律规则与理论似乎已经不足以对人工智能体人格与法律定位问题进行有效调整,同时社会各领域都对这类人格问题提出了完善诉求,使得人工智能体的人格认定、法律定位等问题被提高到了十分重要的位置。①郭宁:《“互联网+”时代背景下人工智能面临的法律挑战》,《特区经济》2018年第8期。

人工智能技术的发展,对整个社会的不同领域、不同群体都产生了诸多影响,理应在考虑到各方面因素变化的基础上,理性分析人工智能对现行法律制度和社会运行体系的冲击,并明晰其逻辑机理。这是一项形似逻辑清晰却又复杂庞大的系统性工程,需要在哲学与伦理层面上明晰人工智能体的主体性地位,在社会层面上明确人工智能技术所诉求的实效性标准,并在法理层面上确定相关法律关系的逻辑结构,而社会、哲学与伦理诉求最终应当通过完善正当的法律形态体现出来。

一、问题的提出

一般来说,“人工智能”更多体现的是一种包含了计算机、机器人、语音图像及文字识别、自然语言处理等的新型技术,或者说是一门新兴科学。而人工智能体法律人格问题所涉及的“人工智能”这一表述,则更多地是利用上述技术所创造出的类人化的智能体、社会实在,而非前述的技术与科学。有关这类“智能体”的法律定位问题,与法律人格的研究事实上是同质的。人工智能体的法律人格存在与否决定着其能否具有法律上的主体地位以进行社会活动和法律行为。

宏观地看,上至1942年阿西莫夫机器人学三定律的提出,下到近年来人工智能在多领域对人类社会与机能提出的挑战,有关人工智能体在自然、社会和法律等方面的人格与定位争论一直没有停息。论者们从不同角度如哲学、道德、社会风险、法理等入手,对人工智能体的思维、意识、自我、社会性等多个方面进行了探讨,讨论的结果却是仁者见仁。电子人、电子代理人、拟制人、电子工具论等概念,体现了学界对人工智能发展现状与自然本质的不同看法。总结看来,已有的代表性观点可主要分为三类,即法律人格说(主体说)、有限人格说及客体说。

(一)法律人格说(主体说)

法律人格说、主体说完全地或较大程度地承认人工智能的法律主体地位,并提倡赋予人工智能以法律意义上的人格。2017年10月26日,沙特阿拉伯王国授予由美国汉森公司(Hanson Robotics)研制的智能机器人索菲亚(Sophia)以公民身份,沙特阿拉伯王国也因此成为了第一位授予智能机器人以公民身份的国家。以此为基础,诸多学者提出了为高智能机器人提供法律主体地位与法律人格的呼吁,如贺栩溪认为,在对人工智能进行科学分类后,对强人工智能赋予法律主体地位具有一定科学性,但需要在实际操作中施加一定限制,即“先分类,再确认”。①贺栩溪:《人工智能的法律主体资格研究》,《电子政务》2019年第2期。朱静洁认为,在分析了智能机器人的认知与行为理性后,有必要在刑事责任层面确认其主体地位与法律人格,并应当将其理性程度作为标准,分为无刑事责任能力、相对有刑事责任、完全刑事责任三类主体,即“先确认,再分类”。②朱静洁:《智能机器人的刑事责任主体论》,《电子政务》2019年第1期。尽管主体说承认人工智能体的主体地位,但该说要求对人工智能体的法律地位进行分类管理和规制,无论是先分类再确认,还是先确认再分类,都体现了区别处理的态度与诉求,这一理论具有相当的启示性,因为自然人也有着完全行为能力与限制行为能力等方面的分类,在发展不一、种类相异的智能体群体中,希冀对其进行统一类别监管与处理,是没有意义、没有可行性的。基于此,对于人工智能体人格问题的研究,应当将“类型化”纳入考虑,但相关的分类标准则需要进一步探讨。

(二)有限人格说

有限人格说的分析重点在于承认人工智能体一定限度的法律主体地位和人格地位,严格探讨了人工智能体与自然人之间的理性差距与意识差异。如杨清望和张磊认为,传统法律人格不能当然地套用到人工智能体之上。他们强调,需要从人类主体原则出发,运用法律拟制的手段赋予人工智能体特殊的法律地位,如借鉴法人制度、运用登记备案制度完善人工智能体的责任体制。这样一方面有利于促进人工智能体、人工智能相关技术为人类更好地服务,另一方面有利于确保“超人类”主体不会出现。③杨清望、张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报(社会科学版)》2018年第6期。张玉洁认为,机器人也有权利,这是社会发展的结果,也是权利发展史的正常运行方向。人工智能体具有法律拟制性、利他性和功能性(工具性),是社会活动的产物。这一权利体系与自然人不同,使得人工智能体只能具有有限的法律主体地位。④张玉洁:《论人工智能时代的机器人权利及其风险规制》,《东方法学》2017年第6期。另外,还有观点为人工智能赋予“电子代理人”或“电子人格”等身份,代理说将机器人作为人工智能体,其具有目的性、有限人格性。⑤Samir Chopra,Laurence F White,”A Legal Theory for Autonomous Artificial Agents”,Michigan: Michigan University of Michigan Press,vol.37,no.8(July 2011),pp.36-43.而电子人格说认为,机器人就像未成年人一样,其具有法律人格但有欠缺,如欧盟通过的《欧盟机器人民事法律草案》第59 f条款。依此规定,欧盟提出了一个新的类别,即“电子人”。

(三)客体说

客体说或工具说则坚决否认人工智能的主体地位与法律上的人格。工具论者强调的是人工智能体的“人工”特性、工具性,否认其接近人类、甚至超越人类的“智能”特性。人本主义的哲学观在此发挥得淋漓尽致,人的自然主体和社会主体地位在客体理论和工具理论里得到了坚决的捍卫。方芳认为,人工智能体暂时不适合被赋予法律人格与法律主体地位,其以自动驾驶汽车为例,自驾汽车等人工智能不具有独立的意思表示,没有独立的利益,也就不能承担起相应的法律责任。故人工智能体暂时仅适宜作为“产品”予以看待。①方芳:《自动驾驶汽车法律地位分析》,《智能城市》2018年第9期。李杨、李晓宇采用康德“主客体统一认识论”和“人是目的”的哲学观点,强调了人工智能体与人工智能技术的工具性特征,并进一步阐述人工智能体生产物的归属,应当属于雇主或者委托人,人工智能体本身不能成为真正意义上的“作者”,仅仅是被利用的工具。②李扬、李晓宇:《康德哲学观点下人工智能生成物的著作权问题探讨》,《法学杂志》2018年第9期。在责任承担方面,Ashrafian认为,机器人仅是权利的客体。这是目前各国立法、司法普遍接受的观点,致害路径是决定该机器人的所有人(占有人)承担责任的关键。③Hutan Ashrafian,”Artificial Intelligence and robot Responsibilities: Innovating BeyondRights”,Science and Engineering Ethics,vol.21,no.2(February 2015),pp.317-326.刘洪华认为,现阶段的人工智能体的“智能”并未超出人类理性,仍属于人类的工具性范畴,且隐含着巨大的风险,应当作为法律客体中的特殊物予以保护与规制。④刘洪华:《论人工智能的法律地位》,《政治与法律》2019年第1期。总体看来,工具说认为人工智能体产生于人,受人掌控,或者说人工智能体充其量仅是人的延伸物。⑤陈鹏:《人工智能人格权确认的道德风险和法律困境》,《西部法学评论》2018年第6期。

无论是法律人格说、客体说,还是有限人格说,都提出了相当有力的论证材料和逻辑依据。但已有的不同观点和流派都有其不足之处,需要加以完善与提升。首先,大前提方面,现有研究对人工智能体人格赋予条件未做出充分的分析研究。其次,小前提方面,已有研究未对人工智能体的本质内涵与特征进行系统化的梳理,如人工智能体的主体性、工具性价值,以及二者之间的联系、比例等,并未将其与人格赋予条件作出有效对比。再次,结论方面,现有研究的人工智能体人格分析结果较为绝对。根据人工智能体内部所包含主体性的强弱不同,其法律主体地位适格性也就不同,完全将其归为某种法律地位范畴实有不妥。也就是说,人工智能体“类型化”的研究工作在学界尚未完全展开,而这却恰是人工智能体人格问题研究的关键点之一。最后,基于已有结论,未进行相应的配套设施构建。

笔者认为,对人工智能体人格问题的进一步研究,应当沿用有限主体说、拟制主体说的综合化、比例化思维,另采用严格与科学的分类依据对现有的人工智能体进行类型化分析,并在不同类别、层级上讨论其有限的权利、责任与法律特征,并重视人工智能体的智能性与工具性,为中国智能产业、智慧化产业的进一步发展与应用提供长效的法律保障体系与正当性依据。法学研究对人工智能人格问题的回应,至少应解决以下问题:其一,人格的法理基础为何,亦即赋予人工智能体法律人格、法律主体地位的条件为何;其二,人工智能体的内涵、本质及特征为何,其是否符合人格的赋予条件、是否满足人格赋予的法理基础要求;其三,在进行人工智能的人格判定、法律定位后,相应的配套设施如分类管理、登记注册等应当如何构建。

二、人格的理论基础与人工智能的人格分析

法律人格的认定决定了人工智能体在现代社会的法律地位,并将进而影响到人工智能产业乃至宏观社会生产、运行与治理模式等的前进方向。为分析人工智能体法律人格问题的本质与根源,应当从人格的内涵、赋予人格地位的条件等角度出发,并结合人工智能体不同于传统人类创造物的本质特征,寻求其理论矛盾诱因所在。

(一)完全主体性与权利适格性:人格的理论基础

“人格”的概念最初是运用在心理学领域,即包含性格、心理特征等的统一的、稳定的结构整体。法文中的“personnalité”、英文中的“personality”都指“人格”,并都来源于拉丁文“persona”,即“面具”的意思。现代心理学认为,人格的存在意义包括两个部分,即人的社会外在表现即“外壳”与不为人知的“真实自我”。后者在社会心理学中,更多地体现的是人的心理特征和“个性”所在。①[美]伯格:《人格心理学》,陈会昌等译,北京:中国轻工业出版社,2010年,第10页。而后,法学领域逐渐丰富了人格的内涵,处于枢纽地位的理论即为托马斯·阿奎那的观点,即将人格与人的尊严联系在一起,而这就具有了基本权利的属性。②[意]托马斯·阿奎那:《论存在者与本质》,段德智译,北京:商务印书馆,2013年,第18页。在法学范畴中,人格分析并非单纯的对个性等心理学因素的研究,其更多的是通过“人格权”体现出来。

法学层面上的人格与人格权使得个体具有了权利义务主体的地位。人格权在罗马法上体现出分离性、自然性和公法性。其中分离性指的是人格属于“人身”中的“人”,与“身份”是分离的,并根据此进行资源的分配;自然性体现了人格的天赋属性。罗马法中的公法性主要体现了平民和奴隶、市民和外邦人等的区别上。③[英]巴里·尼古拉斯:《罗马法概论》,黄风译,北京:法律出版社,2010年,第36页。而法国《拿破仑民法典》则较之罗马法更加注重人格权的私法属性,大革命后,其人格权、法律人格更多地体现了古典自然法思想。④[法]狄骥:《拿破仑法典以来私法的普通变迁》,徐砥平译,北京:中国政法大学出版社,2003年,第28页。根据法国民法典第8条的规定,可以看出人类法律史上人格平等的格局已经开始显现。⑤马俊驹:《人与人格分离技术的形成、发展和变迁》,《现代法学》2006年第4期。《人权宣言》也是如此,私法领域的自由、平等思想原则以及相应的人权观体现得淋漓尽致。⑥黄金荣:《人权膨胀趋势下的人权概念重构——一种国际人权法的视角》,《浙江社会科学》2018年第10期。除这一点外,罗马法中分离性与天赋的思想和人格权特征则承继了下来。

另外,自为、自主等主体性原则内容在相关经典理论中也显现得十分充分,如在黑格尔的实体性理论看来,人格是人所以为人的社会性体现,而一种作为运动着的精神的、主体与客体合二为一的实体,即为“人”。黑格尔的观点成为了德国民法典的理论基础,其认为自我意识从绝对精神这个世界本体中获得自在自为性,就是人作为主体的原因。⑦[德]黑格尔:《精神现象学(下)》,贺麟、王玖兴译,北京:商务印书馆,1976年,第301页。马克思突破和发展了黑格尔的纯主观精神存在,基于唯物主义立场出发,认为人是既有目的性又有物质性的实践个体,即“人使自己的生命活动本身变成自己意志的和自己意识的对象”⑧林锋:《重读马克思:〈1844年经济学哲学手稿〉前沿问题新探》,北京: 中央编译出版社,2018年,第63页。。也就是说,马克思主义理论对于“人”的论述,一个最主要的特征就是从主体的角度看待人,从理性出发推导出人与外部世界的对立统一关系,以及作为“主体”的自由属性。同时,这一自由属性是不包含工具性的。纵观人类漫长的历史长河,在剥削、统治甚至屠杀面前,人更多感受到的是工具性而不是主体性。⑨郭湛:《主体性哲学:人的存在及其意义》,昆明:云南人民出版社,2002年,第1页。也就是说,拥有完整人格的人应当视自我为目的,而非工具;一旦掺杂了部分工具性价值,人格就无法完整。如此看来,“主体性”条件是讨论人或人格的首要条件。

上述内容体现了社会存在获得法律人格的实质性条件所在。第一,其需要具备主体性,即包含了个人性格特征、心理因素的自主自为性,并具有一定自然与道德属性。第二,分离性,即人格“面具”与人身的分离,法人的法律人格拟制技术即为此类。法律将人格面具戴在法人这一非自然人主体上,形成了有限主体的法律模式。之所以能在法人概念上运用法律拟制技术,就是因为人格的可分离性、法人能用自己的名义行使相应的法律权利并承担社会角色。第三,基本权利和民法权利的二重性。中国民法典人格权编的相应具体人格权规定、宪法第三十八条人格权基本权利规定等,通过基本权利的客观法属性联系在一起,并进行价值的扩散与互动。⑩张善斌:《民法人格权和宪法人格权的独立与互动》,《法学评论》2016年第6期。基于此,应当进一步对人工智能体的相关特征、条件满足程度进行更为细致的研判,并进行比较分析。

(二)主体性与工具性并存:人工智能的本质特征

对于人工智能体,虽然在不同学科具有不同的定义,但各界对其概念特征形成了一项共识,即人工智能科学研究的根本目的是模拟和延伸自然人类的智能,而其直接目的可能是提高社会运行效率、实现资源更优配置等等。将人工智能体的表述拆解,“人工”的定义并不具有较大的争议,“智能体”中的“智能”则具备了多学科、多领域的理论与知识技艺。智能涉及了意识、思维等概念,并应当结合人工智能技术的发展现状及其特征进行分析,基于此可得人工智能技术与人工智能体的本质特征。

其一,人工智能体本身具备主体性价值。主体性即某类存在作为世界的主体而具有的那部分价值,或者说人所为人的本质特征。①郭湛:《主体性哲学:人的存在及其意义》,第1页。根据马克思主义经典理论,人之为人所遵循的主体性原则包含着一些基本的内容,如能动性、受动性、自主性、自为性和交互性。②李志军、杨哲:《论五大发展理念的人民主体性价值》,《宁夏社会科学》2017年第2期。这些原则性内容亦既判断人格性的五个根本维度,其中,能动性体现了一种创造能力,受动性体现了创造与能动过程中所需要受到的限制性条件,自主性体现了人的学习与自由发挥能力,自为性体现的是目的的实现,而交互性则体现了广泛地、扩张地对地方性的突破。反观人工智能体,其虽然未形成完整的人的意识,但在主体性原则范畴,人工智能体仍然符合一定程度上的判断基准。其根据数据存储与应用,藉由算法形成的具有创造性的作品与行为,具备着一定程度上的能动性,如人工智能体创造的诗歌;人工智能体的行为在具有创造性的同时,暂无法突破设计者和所有者对其设下的目标枷锁,仍属于受制约的阶段,也符合受动性的要求;机器学习(machine learning)作为人工智能体的核心,使其在学习中突破传统经验,改善已有算法,体现了一定的自主性;交互性在整个人工智能领域体现得更为淋漓尽致,人工智能藉由数据网络实现的平台化信息处理机制,在交互与共享方面甚至已经超过人类。也就是说,人工智能体是符合主体性原则、具有一定程度主体性价值的存在。

其二,人工智能体具有一定分离性。作为社会发展、技术变革的产物,智能体从本身包含的工具性中逐渐衍生出一定自主与主体性。人类在科技创新中的自主性、学习性诉求,促使着智能体自主性的进一步发展,并据此满足了法学领域人格与人格权的第一个条件,即主体性的存在,这不仅体现了人工智能体被赋予人格的正当性、符合法律人格地位的实质性条件之一,同时也体现了其历史必然性。人工智能体从其本身的工具性中衍生出来的主体性,也满足赋予人格的第二个条件即“分离性”,其主体性与工具性是具有明显边界的。这一分析结果表明,人工智能体即使获得法律人格地位、法律主体地位,其法律定位仍然是不及一般自然人主体的。人工智能体的人格、法律地位始终是拟制的、有限的,类似于法人。因为自然人的人格始于出生,而人工智能的人格必须通过人为赋予,即必须采用法律拟制技术进行。

其三,人工智能体具有权利缺陷性,即在权利方面具有瑕疵。就现阶段人工智能体的发展阶段和现状看,要赋予其与自然人同等的权利,具备着极大的困难。以财产权为例,机器人能否享有财产权?财产权作为人身权的对称,具备的是物质性等特征,体现了主体对社会物质生产资料的占有、支配与处理等能力。《中华人民共和国宪法》第十三条规定,公民合法的私有财产不受侵犯,国家依照法律规定保护公民的私有财产权和继承权。美国宪法第十四修正案中规定,任何州不得拒绝在其管辖范围内对任何人的财产、经济给予同等保护。③许胜:《美国宪法中财产权的发展及意义》,《延边大学学报(社会科学版)》2003年第6期。除此之外,世界各国的宪法、宪法性文件都对公民的财产权做出了原则性规定,突出了财产权作为公民的基本权利特性,并以人本主义替代西方绝对自由主义的财产权观念,奠定了现代社会人权中财产权的基调。但人工智能体的财产权存在与否,不能单从财产权的个别法律特性进行分析,以主体限制性为例,财产权的主体仅限于可以享有或可以取得财产的人,而这一“人”的判定在宪法和法理上又需要借用财产权标准倒推,这便形成了逻辑循环,难以得到合理的证成。这进一步地证明了人工智能体无法天然地获得法律主体地位和法律人格,如果在满足社会实效的需求下,其必须通过拟制的手段获得有限的人格地位。

(三)主体性与权利的瑕疵:人工智能体人格问题的产生根源

根据上文所述,若要赋予人工智能体以法律人格或法律主体地位,需要具有主体性特征,并符合现有的权利体系条件;而人工智能的本质特征,则包括一部分主体性、权利缺陷性、工具性等。宏观地看,现阶段人工智能技术、智能体的发展状况与特征既符合部分法律人格与主体地位的条件,但又不能完全满足所有要件,这使得若要将人工智能体作为客体看待,将会损失一部分主体性价值;另而若赋予其完全的主体地位与法律人格,又忽略了其工具性价值,且权利(与责任)方面的瑕疵问题无法解决,是为人工智能体人格问题的最主要根源。

一方面,根据人工智能科学的研究目的,人类智能的延伸使得人工智能技术的创造性、自主性等价值属于其创造的本初目的。客体论在不区分其智能性程度和自主性程度的情况下,将其全部划归为物和法律客体的范畴,掩盖了人工智能体内部的主体性价值。另外,人工智能体包含的主体性造成了其难以理解性即“算法黑箱”,“算法黑箱”使其可认识性的效果大大减弱。以人工智能与大数据技术引发的程序错误与算法歧视为例,深度学习一方面大大提高了社会生活、社会治理等方面的效率,另一方面也造成了一定程度的风险与隐患,人工智能技术的错误识别与大数据的规制外运用效果,使得人们难以对其中的原理与过程难以捉摸。机器深度学习打破了传统机器学习的“输入-推理-预测”链条,由计算机自动学习、生成结果,而在输入的数据与输出的结果之间,存在着无法被人类深刻理解的隐层,这一隐层的本质又被成为“黑箱原理”,其使得行为背后的本质难以被识别,也增加了相应的规制困难。①吴梓源、游钟豪:《AI侵权的理论逻辑与解决路径——基于对“技术中立”的廓清》,《福建师范大学学报(哲学社会科学版)》2018年第5期。欧盟《统一数据保护条例》(GDRR,2018)与《数据保护指令》(Directive 95/46/EC,1995年)在个人选择权、敏感数据排除、个人数据收集的透明化与透明度方面加强了对自然人权利的保护。同时,对自动化不满的情况下,自然人有权要求人工介入和提出质疑,并有权获得人工智能相关“解释”。然而,Pedro Domingos却重新强调了这一解释的可理解性并表现出了强烈的担忧。②Pedro Domingos.,”A few useful things to know about machine learning”,Commun ACM ,vol.18,no.2(February 2009),pp.78-88.这种困境使得人类难以对其进行完全的把控,③Hod Lipson,”Evolutionary synthesis of kinematic mechanisms”,AI EDAM,vol.22,no.3(March 2008),pp.195-205.若将其作为客体或物的概念理解,则违背了物的可理解性与可控制性。

另一方面,若要将人工智能体划归于法律主体范畴,则其权利瑕疵与缺陷的特征将使得实践中产生诸多矛盾。上文有述,人工智能的权利具有瑕疵,如财产权等。人工智能体尚无法取得独立财产,而权利的缺陷使得其在责任承担方面也不符合法律主体与法律人格的确认条件。以典型的责任承担方式为例,其包括财产责任和行为责任,财产责任方面,赔偿损失、支付违约金方面,人工智能体因财产权瑕疵难以以其独立的财产赔偿受害人损失和支付违约金;行为责任方面如赔礼道歉等,人工智能体因其理性与意识的瑕疵,也无法实现与一般人类一样的效果。又如人身责任,在人工智能体违法行为产生后,传统的拘留、强制措施等行政行为对其产生的影响也远远不如对人类产生的那般有训诫或教育等效果。同时,人工智能体法律主体地位的认定,将消灭其内含的那部分工具性价值,并将人类附在智能体上的“人的目的”掩盖了。可以看出,上述两方面为人工智能体人格问题的主要产生根源,即无论是对人工智能的法律主体还是法律客体认定,都无法兼顾智能体内含的主体性价值与工具性价值,并无法解决其权利缺陷。

三、人工智能体法律人格问题解决路径

人工智能体因其同时具有主体性价值与工具性价值形成了人格设定困境,现有理论难以兼顾二者。在主体规范、客体规范都无法完全适用的情况下,折中的有限人格做法将是一种有效的途径,即先根据人工智能体的主体性、工具性之间的比例进行类型化,再给予人工智能体以有限法律地位,并规定其相应的管理规则、权利义务规范,最后分析不同类别的智能体法律规制体系构建及其配套设施构建。

(一)人工智能体类型化

人工智能体应当依据其主体性程度进行分类管理。由上述的分析可知,主体性与工具性并存,是人工智能体人格问题的主要根源所在,但是现阶段的人工智能技术发展却属于多层次、主体性跨度较大的情况,既有扫地机器人等主体性较低的、完全工具性的智能体,也有深蓝、阿尔法狗等主体性较强的智能体。故应当先按照主体性强弱对其进行类型化处理,并对不同类别的人工智能体进行区分处理,采取不同的法律人格问题解决方式。

麦卡锡曾提出过强弱人工智能(体)的区分,其标准为推理能力强弱等。①R.G 霍夫曼、高培焕:《廖士中.约翰·麦卡锡谈人工智能的探索》,《世界科学》1991年第9期。该标准与人工智能的主体性具有相似之处,并可运用到人工智能体法律人格问题的分类处理标准体系中。事实上,按照主体性程度对智能体进行分类,是符合比例原则的,法律对社会关系的调整,应当满足主体等方面的适当性标准,针对不同特点的主体,法律规制的重心应当进行相应的调整。实践中,可按照主体性强弱程度将人工智能群体分为强人工智能体和弱人工智能体,并基于此进行类型化规制与管理。其中,分类的标准“主体性程度”是一个模糊的概念,其范畴可纳入自主性、创造性、推理能力等因素,并赋予各因素不同的权重进行加权分析,构建出科学的、完整的和有效的强弱人工智能分类标准,作为人工智能人格问题解决方案的基础。

(二)强人工智能体:赋予拟制法律人格

在分类完成后,可赋予强人工智能体以拟制法律人格,承认其有限法律主体地位。从罗马法就可以看出,法律人格制度自始便具有一种技术性的特点,人格拟制技术也不例外。比如在罗马法上,人格的判定标准为人的身份,以人的身份层次将一些自然人排除在人格范畴之外,也就是据以确定部分人类的特权,②徐国栋:《罗马私法要论——文本与分析》,北京:科学出版社,2007年,第33页。并基于此压迫其他人。③尹田:《论法人人格权》,《法学研究》2004年第4期。而这一法律技术的基础,即为上文所提到的人格的可分离性特征。现有的法律人格拟制体系中,比较典型的是胎儿的人格拟制与法人的人格拟制。根据民法总则第十六条,胎儿虽未出生,但是在接受赠与等情形下,可以被视为具有法律人格,并具有法律主体地位。又根据民法总则第五十七条,法人具有法律主体地位,有具体的权利并承担相应责任。可以看出,人格的可分离性提供了人格拟制制度的法技术基础,并且,运用人格拟制技术的情形是特定的、有限的。以胎儿为例,胎儿接受赠与等的情形是有限的、预先设定的。人工智能体在一定情形下,根据需要,可以运用人格拟制技术,赋予其有限的法律人格和法律主体地位,但至少应当具备两个基本条件。一方面,对象智能体的主体性程度较高,即接近上述类型化处理中的强人工智能主体性程度。因为主体性的存在是人工智能体人格问题的根源所在,主体性与工具性的比例是应当主要考虑的方面。另一方面,对象智能体陷入了归责与地位判定不明等矛盾困境,即人工智能体人格赋予具有社会实效性。也就是说,较高主体性的存在与社会实效需要,是人工智能体被赋予法律拟制人格与法律主体地位所必须。同时,在这种情况下应当将其应享有的权利(如创作等)、应承担的责任(如定期测试、遵守阿西莫夫三定律)等进行预先设定并使其具有法律效应,以弥补现有法律规则体系的不足。

强人工智能体之所以适用并仅适用于法律拟制的方式进行人格的赋予,一方面是因为其较强的主体性、人工智能体独有的主体性、工具性之间的分离性满足上文论述的人格获取的前几个实质性条件,另一方面是其具有的权利瑕疵性侵蚀了其具有完全人格的可能性与正当性,只能用法律拟制技术进行补足。同时,在对强人工智能体进行人格拟制后,需要做到与现存法律体系之间的衔接与交融。实践中,一是加快相关立法步伐,形成多层次智能体管控体系,并通过相关司法实践对现实中的强人工智能人格法律问题进行明确,力求做到立法与司法的统一性;二是在立法、执法及司法队伍中加入人工智能方面的技术人才,有利于人格拟制与传统法律体系的连接,如相关法律解释的完善等方面即属此类。三是加快建立人工智能体人格拟制技术运用的评价体系,在其具体转化运行一段时间后,对其运行效果进行严密的评估分析,并据此明确相关的发展与完善方向。

(三)弱人工智能体:划归于法律客体

不同于强人工智能体,弱人工智能体在尚未发展出主体性或主体性程度较低、可以忽略不计时,则应当将其视为法律客体或一般物、特殊物等,运用现行法律规则体系或稍加完善予以规制。一方面,不具备一定主体性要求的弱人工智能体没有赋予法律拟制人格的必要,权利与义务可由所有者、使用者行使和承担,赋予智能体拟制人格不具有社会实效性。另一方面,主体性程度较低的智能体不符合人格设定的法理基础与哲学基础。同时,不加区分地将所有人工智能体纳入法律主体范畴,对现有法律规则体系冲击较大,并会造成立法与执法资源等的浪费。当然,将主体性较低的人工智能体视为法律客体或物才能充分发挥其工具性价值,有利于人工智能技术和智慧化学科创设与研究目的的实现。

进一步地,根据弱人工智能体的技术含量与标准,可对其进行再分类为一般物和特殊物两种类别。其中,技术含量较低的弱人工智能体如家居机器人等,可归为一般物(如产品)的范畴,适用物权法、侵权责任法等现有规则体系;而对于技术含量较高、发展较完备的弱人工智能体,可适当完善现有法规并将其视为特殊物进行重点关注,也可在法益层面上适当提升其价值,以保护其创造者、所有者和使用者的合法权益。

(四)基于类型化管理构建相应的配套设施

对于弱人工智能体,应当将其视为一般物或特殊物进行已有法律规则的使用,故配套设施的创新构建应主要针对强人工智能体而言,进行已有设施体系的革新。首先,强人工智能体的设计生产与使用应当进行登记注册,人工智能体的登记注册内容,应当包含其类型、性能、技术基础、设计者与生产者、使用人等信息,并应包含权属变更等情况。在智能机器人未进行登记与注册前,不应进行销售或将其投入使用。

其次,现阶段未形成强人工智能体相关职能管理的社会机构,如相关的登记注册机构、审计机构等。可对高智能体进行专门管理,成立相关专门管理机构、专门审计机构等以实现对强人工智能体的有效监督、专门仲裁机构以解决相关专业性、技术性纠纷等。同时,还可以构建强人工智能信息共享平台,以实现人工智能领域政府管理与社会管理的科学性与效率性。

最后,若赋予了强人工智能体以法律拟制主体,则应当通过立法、司法实践等为其分配为在社会上为一定范围内行为的权利。值得注意的是,这类拟制人权利是具有一定特征和限制的。其一是从属性,人工智能体一旦作为拟制主体进入法律规制体系,就必须与其所有者、使用者等建立联系,所有者与使用者形成了其主体基础,人工智能体的权利也从属与其人类主体,因为人工智能行使权利的目标与目的与其人类主体一致;其二是限制性,人工智能体难以获得像真正自然主体那样的全部权利,而是被限定在为达人类创设与使用人工智能的本初目标体系内,而非是一种自然的、先天的和完全的权利体系。其三是利他性,因为其主体性尚未发展和独立至与人类一般,机器人权利应当仍然更多地具有工具性。根据以上特征与原则,可有效设定人工智能体所拥有的各项有限权利。责任方面,应明晰人工智能体可承担的责任范围,如明确消除影响、排除妨害、恢复原状等在其能力范围内的责任承担方式;另外,还应明确人工智能体与其所有者、使用者之间的责任分配原则。因为人工智能体在现阶段并不适宜享有财产权,故在财产有关方面应由其所有者、使用者或生产设计者承担无限责任。

结 语

对人工智能体进行法律定位,目的在于确认其法律适用问题,以解决人工智能技术引发的社会矛盾,并长效地激发其主体性价值,以期真正实现继工业社会、信息社会之后的“知业社会”“智慧社会”的构建与发展。就人工智能技术发展的现状看来,其在意识、权利义务与责任承担能力等各方面的缺陷使其尚不足以使智能体取得适格的法律主体地位,但绝对地将其视为客体、工具或物,则掩盖了人工智能体在一定程度上的主体性及其功能与价值,不利于实现上述的社会总体目标。赋予人工智能体法律拟制主体地位将有利于充分实现其主体性功能的释放,并因人工智能体及其所有人之间在意志、财产上的联系,有利于归责等实践问题的解决。现阶段人工智能体的人格问题可由法律拟制得到充分的解决,并有效地调整人与人工智能体之间的法律与社会关系。当然,关于人工智能技术相关的研究并非一劳永逸,随着人工智能领域相关科技的发展,未来的智能体成为“超人类主体”的可能性及相关的伦理、道德与法律问题,仍需要各界给予充分的重视和实时的关注与研究分析,并保障技术的转化、进步与社会的运行、发展之间形成稳定的连接,使其呈现出互相促进、螺旋上升的态势。

猜你喜欢
工具性人格主体
共产党人的人格力量
论自然人破产法的适用主体
远去的平凡背影,光辉的伟大人格
工具性与人文性的和谐共生——核心素养下的语言文字表达能力培养
新课程对教师的新要求——兼谈语文工具性的另一面
中职数学“工具性”教学模式探究
技术创新体系的5个主体
论君子人格的养成
关于遗产保护主体的思考
怀旧风劲吹,80、90后成怀旧消费主体