姜淑明 胡明星
【摘 要】赋予人工智能以法律人格,既缺乏必要性又缺乏可行性。按照当下的研究进度以及现有的研究方法,强人工智能根本难以实现;另外,若赋予强人工智能法律人格,将有可能对现有社会制度造成较大的冲击,导致社会秩序陷入混乱。而弱人工智能运用和发展产生的法律问题均可以在现有法律制度框架内有效解决,同时因其难以产生独立自主的意思能力,缺乏独立的财产,也缺乏赋予法律人格的可行性。
【关键词】强人工智能;弱人工智能;法律人格
能否赋予人工智能以法律人格?理论界纷争不断,有“肯定说”和“否定说”两种对立的观点。“肯定说”内部存在不同的学说,有“拟制说”、“电子奴隶说”、“电子人格说”、“有限人格说”等。“拟制说”认为需要运用法律拟制的方式赋予人工智能法律人格。[1]“电子奴隶说”将人工智能定性为电子奴隶,奴隶本身没有权利和义务,没有权利订立合同,但是奴隶对外行为的后果由其主人承担。[2]“电子人格说”认为,应当将人工智能认定为电子人,并且赋予该类电子人法律人格。[3]“有限人格说”认为,人工智能应当具有法律人格,但是其仅具有有限的权利,仅具有有限的法律人格。[4]“否定说”细分为两派:“工具说”认为人工智能应当被定性为工具,不应当赋予其法律人格。[5]“软件代理说”认为人工智能仅仅是智能软件的信息传递者,不需要具有独立的法律人格。[6]
“肯定说”在讨论该问题时未能准确分析人工智能发展的趋势,在强人工智能研究与发展的态度上过于乐观;同时,忽略了哲学及伦理对于法律和法学观点的影响,错误的认为应当赋予人工智能法律人格;夸大了人工智能发展中产生的影响。笔者认为,不能赋予人工智能以法律人格。
一、赋予人工智能法律人格不符合伦理性要求
(一)具有理性特质的自然人具有法律人格
从哲学上看,理性包括理论理性和实践理性,理性不但包括基础判断力也包括演绎推理能力。康德哲学理论认为,理性特质是自然人所特有的,由此得以将自然人与物进行有效区分。物具有相对价值,其本质属性是手段,而具有理性特质的自然人的本质属性是目的。[7]也因为理性,自然人与物有本质的区分。理性的目的是从现象向物自身前进,从不完整的经验知识向全部经验知识的大统一前进,所要达到的最高统一体就是理性的理念。自然人是一类特殊的存在,能够产生意识,具有主观能动性。[8]黑格尔提出,人类具有理性特质,人类的属性是目的,并且人类依据自己的意愿做决策的行为就是自由。[9]自然人为了实现价值,必须要借助于一定的手段,手段必须依附于目的才能具有一定的价值,即仅具有相对价值;主体利用和改造客体,客体作为手段,其实就是主体的工具。物因为没有理性,确定物为客体,其仅具有相对的价值,是主体改造世界利用的工具。自然人因具有理性而与物之间存在着泾渭分明的明显界限,人类的地位高于其他存在的物。
(二)缺乏理性特质的人工智能不具有法律人格
人工智能属于人工创造的物,自然人与人工智能之间的关系,也应当符合上述哲学分析。目前人工智能尚处于弱人工智能阶段,人工智能运行的程序均由人为事先设定并调试,其在预先设定的规则或模式内行动,不具有主观能动性。以阿尔法围棋为例,围棋也是一项规则性极强的活动,围绕围棋的规则而展开,并且阿尔法围棋完全在人类事先设置好的规则内行动,阿尔法围棋的优势在于其高速的运行能力和海量的处理分析数据能力,寻找每一步最优的策略,而每一步的选择都是人类事先输入的数据,完全没有自主学习、随机应变的能力和独立的意识。那么,当人工智能发展到强人工智能时是否可以作为目的?强人工智能的智能程度更高,并且有可能达到与人类近似的智能水平,具备产生独立意思的可能。但是,强人工智能能否实现,尚存疑问;并且脱离自然人自身的人工创造物,即使具有一定的智能和独立性,但相对于自然人,其也不能具有绝对价值,仍仅具有相对价值,仍旧是手段,而不是目的本身。故不论人工智能发展到哪一阶段,均不能赋予其法律人格。因为,一旦赋予人工智能法律人格,将其放到与人类等同的地位,认定其也具有绝对价值,甚至让其统治全地球,让自然人成为其手段,则人类完全失去了价值,世界本身也将变得毫无意义。
二、缺乏赋予人工智能法律人格的必要性
现代民法具有法律人格的主體逐渐扩充,法律人格的范畴由自然人逐步扩展到了自然人之外的非生命实体,出现了“非人可人”的变革。法律人格具有明显的抽象性。在适当情形下,法律人格可以突破伦理性的要求,赋予公司等社会团体法律人格。从逻辑上讲,也可以将法律人格赋予自然人之外的如动物、公共群体等其他实体。但本文认为,通过法律拟制的方式赋予人工智能法律人格的做法不可取。
(一)缺乏赋予弱人工智能法律人格的必要性
就当前的研究情形而言,弱人工智能发展过程中产生的问题包括责任认定、责任承担主体、确定责任的规则、生成内容著作权归属等均可在现有法律制度内予以有效解决。
(二)缺乏赋予强人工智能法律人格的必要性
在乐观主义者的设想下,在不远的将来强人工智能将全面的介入人类社会生活,因此,借鉴团体法律人格的经验,基于社会现实需要,亟需突破伦理性的要求,赋予强人工智能法律人格。那么现有的关于人工智能的研究技术,能够支撑强人工智能的实现吗?答案是否定的。人工智能的研究方法包括结构模拟法、功能模拟法和行为模拟法,上述三种研究方法均存在明显的局限性,如果研究方法没有取得关键性的改变,强人工智能将难以实现。
所谓结构模拟法,即通过技术手段模拟人类的大脑皮层结构,以此来实现对于人类智慧的模拟。人脑科学研究表明,人类智慧的产生主要集中于大脑皮层,想要有效模拟人类的智慧,首先则应当了解人类大脑皮层的结构和机理。经研究发现,对于大脑皮层神经元结构的模拟主要有以下困难:首先,神经元的数量繁多,结构复杂;其次,人类大脑皮层的运行机制和原理不明确,导致即使完成了对于人类大脑皮层结构的模拟,仍缺乏使其自动运行的机制,仍难以实现模拟人类智慧的目的。
所谓功能模拟法,即通过计算机的功能来实现对于人类智慧的模拟。该方法的理论基础是,人类大脑的功能与计算机的功能等效,因此可以通过编订计算机程序的方法来模拟人类的智慧。该方法也存在着明显的局限性。首先,运用计算机的功能实现对人类智慧的模拟,要求计算机具有充足的知识储备,因为只有具备了充足的知识储备,才能在面对问题和面临抉择时做出正确的决策。目前人工智能自主学习能力尚未实现,人工智能知识的储备主要依靠人类手工输入,手工输入的方式效率很低,因此导致运用功能模拟法模拟人类智慧的时候人工智能容易出现知识储备的严重不足。另一方面功能模拟法仅能模拟人类的“显性智慧”,而对于人类的“隐性智慧”则难以模拟。人类不仅具有“显性智慧”的能力,同时也具有“隐性智慧”的能力,“隐性智慧”能力和“显性智慧”能力二者相辅相成、缺一不可,共同构成了人类的智慧能力。计算机仅具有形式逻辑运算功能,逻辑运算功能仅相当于人类智慧中的“显性智慧”,即解决问题的能力,而难以对于人类智慧中的“隐性智慧”进行模拟,这也导致该研究方法仅适用于弱人工智能的研究,运用该方法难以实现生产制造强人工智能的目标。
所谓行为模拟,即人工智能对于任何的外界刺激,均能够以合理的行为妥当的应对,就像人类表现的那样。当人类面对外界刺激时,总能迅速的做出恰当的反应,例如天气冷了,便添加衣服;驾驶汽车遇到红灯时则停止,变成绿灯时再通行等。行为模拟要求人工智能具有很强的模式分类能力,首先要求系统能准确的识别外界的刺激,同时也要求其能迅速的根据刺激做出合理的行动。但是这一方法具有很严重的局限性,因为该行为模拟方法仅能模拟一些简单的行为,而对于比较复杂的行为或者体现人本能的行为,则会显得无能为力。
正因为如此,强人工智能的研究在经历一段时期的高速发展后,美国、英国等国家分别就本国强人工智能的研究现状展开评估,并出具了分析报告。评估报告的结果使强人工智能界的信心遭受了极大的打击,并开始对强人工智能的实现产生了怀疑,甚至有部分专家改变了对强人工智能的乐观态度,主动放弃了强人工智能的研究。英国、美国和欧洲其他国家的政府也纷纷减少了对于强人工智能研究的支持力度,许多正在进行中的强人工智能的研究项目因为缺少经费而被迫停止。在这种情况下,强人工智能研究界开始出现分裂,部分研究者转变了研究的思路,不再积极投身于强人工智能的研究,而是开始了一类名为增强人类智能的研究,该研究将人工智能明确的定位为协助和辅助人类的工具,人工智能只是增强人类智能的手段。强人工智能的研究面临着多重的困难,强人工智能难以成为现实,缺乏赋予强人工智能法律人格的必要性。
三、缺乏赋予人工智能法律人格的可行性
如果赋予人工智能法律人格,将打破法律世界主客体二元结构,在人工智能与人类形成的法律关系中,人工智能与人类将处于平等的法律地位。那么在这种情形下,当人类与人工智能产生利益冲突时,该如何处理?无疑这将对现有成熟的民事法律制度造成颠覆性的冲击。
(一)缺乏赋予弱人工智能法律人格的可行性
假设赋予弱人工智能法律人格,弱人工智能将一定程度上独立自主的参与法律关系,而参与法律关系以具有相应的意思能力为前提。而弱人工智能难以产生独立意思能力。弱人工智能的主要功能在于解决特定的问题,其主要能力体现在逻辑运算和推理方面,缺乏动机、情感等非逻辑运算和推理的功能。动机的缺乏,使得弱人工智能的行为难以被认定为民法上的意思表示行为,因为其行为不具有目的意思和效果意思。从形式上看,弱人工智能可以通过某些行为表示某些意思,例如签订合同等,但其行为实际上仅仅是在执行设定的程序而已,弱人工智能难以真正理解其所从事行为的真实意思,因此弱人工智能难以产生必要的意思能力。其次,弱人工智能缺乏承担民事责任的能力。作为法律主体,应当遵守法律的规定,不得侵害他人的合法权益,但是如果侵害了他人的合法权益,则应当承担相应的法律责任。仅从民事责任而言,成为民事主体需要具备承担民事责任的能力。很显然,弱人工智能缺乏承担民事责任的物质基础,其一般不拥有财产,在特殊情况下弱人工智能可能会拥有一定的财产,但是其作为所有人或使用人控制下的工具,所获得的财产也应归属于其所有人或使用人。故此,因弱人工智能不具有独立的意思能力和独立的财产,无法赋予其以独立的法律人格。
(二)缺乏赋予强人工智能法律人格的可行性
讨论是否应当赋予强人工智能法律人格,应当持有一种特别谨慎的态度。因为赋予强人工智能法律人格需要对现有法律制度进行颠覆性的变革,在理论和实践基础并不牢固的情况下,在不能有效的評估赋予强人工智能法律人格将会产生怎样社会影响的情况下,不应当贸然的尝试赋予强人工智能法律人格。如果单纯因为需要杜绝强人工智能被滥用等情况的发生,完全可以参照关于动物保护等的规定,建立健全相关法律制度,强制性的要求人类善待强人工智能即可实现,而不必赋予其法律人格。
综上所述,就当前的情形而言,人工智能运用和发展产生的法律问题均可以在现有法律制度和框架内有效解决。
参考文献:
[1]杨清望,张磊.论人工智能的拟制法律人格[J].湖南科技大学学报(社会科学版)2018(6).
[2]SusanneBeck.Theproblemofascribinglegalresponsibil
ityinthecaseofrobotics[M].AI&Soc,2016:473-481,31.
[3]郭少飞.“电子人”法律主体论[J].东方法学2018(3).
[4]袁曾.人工智能有限法律人格审视[J].东方法学2017(5).
[5]郝铁川.不可幻想和高估人工智能对法治的影响[N].法制日报,2018-1-3(3).
[6]SusanneBeck.Theproblemofascribinglegalresponsibi
lityinthecaseofrobotics[M].AI&Soc,2016:473-481,31.
[7]卡尔·拉伦茨.德国民法总论[M].王晓晔等译,法律出版社,2003:45.
[8]郭大为.费希特与主体间性问题[J].北京大学学报(哲学社会科学版),1999(3):103-104.
[9]黑格尔.历史哲学[M].王时造译,上海书店出版社,1999:73.