董 芮
本文中的人工智能是实体层面上的人工智能,是指能不依赖于人的思维与决策而替代协助人执行相应使命的机器。我所讨论的人工智能都是实体,如果提及技术或者系统将直接表达成人工智能技术或者人工智能系统。
人工智能凝聚着人类智慧成果,并通过编程实现。人工智能的人工是指事先经过人的编程与设计而使得人工智能具有人期望实现的能替代人处理问题的功能,即人工智能不存在先天性。
人工智能拥有人类大脑中的部分功能。人工智能的智能内涵,在于它具有部分人类大脑智慧功能。当前,人工智能具备人脑中的识别、记忆、分析、决策、总结等基本功能。
人工智能最重要、最明显的特点就是代替性、辅助性,即协助或替代人解决并处理一部分问题。由于人工智能是通过人类的编程设计进而产生某部分人脑功能,因此人工智能不可能完全取代人类。就像其他科学技术,都是由人类为让人类生活更方便、更快捷而发明和创造的。
从目前来看,人工智能的总体发展程度处于弱人工智能的这个阶段,按照人工智能总体智能水平的发展程度可以将其分为三个阶段。
第一阶段、弱人工智能:实质上是一种服务于人的手段,它不具备独立思考能力,它必须在人的协助下,由人进行编程,设计和创作,才能完成相关工作。
第二阶段、强人工智能:指能从各方面与人相比,这时能实现人脑活动标准化甚至更高水平。它在行为方面具有独立自主性,能随不同的环境与情境而做出不同改变,不需要人的干预而能独立地知觉、思考与行为。但这并不等于彻底离开了人,它仍然要根据设计者进行设计和创作。
第三阶段、超人工智能:这意味着人工智能在各方面超过了人类的智能水平。既能独立自主又能与人彻底分离的机器人制造。
是否赋予人工智能法律主体资格是探讨人工智能规范治理问题的逻辑出发点,从而成为学界探讨的重点。当前法学界主要有三种意见,一是应赋予法律主体资格的肯定说,二是不宜赋予法律主体资格的否定说,三是折中说。
法律拟制说认为民事主体随时代发展而呈现扩张之势,因此人工智能可以对标法人,通过法律拟制的方式取得主体资格,但是意志的形成与表达仍然是自然人的行为,如同法人仍然是法人代表的行为一样。而股东与公司间是建立在投资关系上的,公司则完全听从股东的话,而且公司拥有独立的资产,能自行独立地承担起人的责任,在特殊情况下能戳破公司面纱地由其身后的自然人来承担。但是人工智能并没有自己单独的资产,也不可能责任自负,同时人工智能又具有较强的自主性,它没有完全被自然人所控制,类似于企业刺破面纱的做法在此也是不成立。
电子人格说的观点首先在欧盟这一国际组织中被提出来,同时也公开认可人工智能具有法律主体的地位。其目的在于给机器人创造出一个既区别于传统法律主体又区别于既有法律客体——电子人这一新范畴。但人工智能伴随着技术的发展而演进,其强大的感知与能力可以让其轻松处理各类问题,而一旦被发动就不再受外界支配的独立自主能力也会让其行为表现得虽智能却不可预知。这一性质会极大地增强它失控的危险,而这一事件使人类负有相应责任明显失之于公平和正义,同时又妨碍了科学技术的发展。
代理说把人工智能看作代理人,就相当于认可了人工智能的民事法律地位。代理分委托代理与法定代理两种,人工智能若为委托代理,人工智能产生的后果应由被代理人承担,除非被代理人在自己有过错时能够要求自己承担赔偿责任。但如何证明自己主观上存在过错,并使自己承担何种责任,还无法解释。法定代理以亲缘关系为基础,当前人工智能和自然人不具有这种关系,因此二者之间无法实现法定代理。
有限人格说是目前支持度最高的理论之一,该学说主张在分清人工智能种类的同时进一步确定对应的主体资格问题。该学说认为应该具体问题具体分析,将强人工智能赋予主体资格(纳入自然人范畴),弱人工智能仍处于客体位置。
否定说认为人工智能虽具有一定程度上的智慧,但并没有人之感情与理智,由人支配的人工智能暂时还不足以获得民事主体资格。
工具说考虑到人工智能体没有法律主体地位和法律人格,而是将其视为一种工具,以人类的利益为出发点来进行开发和使用。工具论者尤其强调人工智能的工具属性——机械性并坚决维护法律体系中人的中心地位。科技不过是人改造社会的工具,人才是目的。在这一领域中,无论技术将达到何种程度,机器的工具属性注定了其始终只能是人的工具,无法和人享有平等的法律地位。
电子奴隶说认为人工智能也没有人所特有的感情和肉体特征,它只会像电子奴隶那样为人服务。
目前的研究囿于既有法律、技术水平和大众心理承受能力等方面的限制,肯定说所倡导赋予人工智能以独立身份的原因并不充分,特别是缺乏针对特定类型法律的分析,很难提出实质性的有力依据,故而否定说占了上风。
所谓人工智能中的意识,只是人借助技术手段给予的结果,而没有真正意义上的自觉与思考。所以强人工智能不能因高度类人化赋予法律主体资格来打破传统民法中权利主体与权利客体区分的理论。
与之形成鲜明对比的是,弱、中度人工智能操作需要人来操控,不具备自主学习能力。学界对认定其为物与权利客体之定性并无争议。
因此,我们需要探讨的问题时,强人工智能是否具有法律属性,即是否应该被视为人或事,是否具备法律人格。我认为,强人工智能作为人造物和权利客体,不应该获得法律主体资格。
本人认为强人工智能作为人造物和权利客体不应获得法律主体资格。具体原因如下:
在立法技术及立法效果层面上,人工智能与自然人相比没有独立思考的能力,对自己的行为欠缺后果意识。与人相比,其没有独立的财产,无法及时有效地对利益受损方主体进行清偿。即便是通过一定方式对人工智能财产进行分配来解决人工智能财产不能独立承担责任这一难题,但是说到底,人工智能财产背后的终极投资者仍然是人,给予人工智能财产以法律主体的身份,并没有实质性的意义。
赋予人工智能产品以法律主体地位并无助于人工智能创作物的归属问题。版权保护实际上并不在于作品是否具有某种用途或高度审美价值,而在于作者是否具备个性化元素。这一个性化元素是人格所蕴含的一定性格的表现,正是这一性格成了他取得版权的必要条件,才使他的创作成果能够在著作权法上称之为作品。
人工智能所产生的内容都是经过规则、算法或反复论证演绎的产物,没有与反映人类独创性及任何个性化特点,不可以认定为一部著作。说到底,知识产权法所保护的只是人类智力成果,人工智能不可能与人类画上等号,从而也就不可能得到知识产权法所保护。版权制度从一开始就对人们赋予了版权。机器拥有知识产权是无意义的,机器创新不需要依赖外界环境的刺激,当然不需要保护。与把人工智能当作合作作品独立作者相比,把它所带来的贡献算为有能力偿付侵权人真实损失,因此受害人并不能真正获得补偿和弥补。与此同时,授予人工智能创作物主体资格自身并无实际意义。工作所产生的获益以及工作可能导致的侵权纠纷,这些法律后果都不能为人工智能技术所承担,也不能为机器所承担,仍然只能为机器使用者或所有人享有权利或承担义务。
尽管人工智能已展现出了非常优秀的工作能力,但根据当前人工智能领域的技术发展水平来看,人工智能仍然不能与人类划等号,如强大的人工智能即使拥有发达的大脑,也不可能像人那样思维而不具备情感能力。他写的文艺作品尽管文采性很强,但是无法表达出像人类那样对同一事物表达出的感情,人工智能也不存在悲欢离合之类的感情,做出的行为亦没有反映出某种独立的意识和符合民法意思表示的要求,没有认识能力去理解自己行为的结果,仅是冰冷的机器。意思能力和决策机制标准是评判民事主体适格与否的实质性标准。
另外,民事主体做出某种民事行为会从心理上产生某种动机予以推动,人工智能所做出的行为则不是。人进行某种行为会产生心理价值评价,多数会产生利我倾向。而且人工智能没有什么情感上的需求,也不需要谈论对某物的价值评估。人的行为常常带有某种随机因素,人们做某种行为也常以感情为基础,这种感情受到错综复杂的外在环境及丰富的内在心理变化的影响,也许,一个极细微因素的改变,便能使人类做出迥然不同的表现。而且这些条件对人工智能而言都是没有的,其行为仅受数据算法影响,不受心理波动、情感变化等因素影响。
人工智能的法律主体资格定会影响社会关系的稳定。其一,人工智能若能成为民事主体,将催生出等同于人类法律地位的新物种,社会生产生活、资源分配等模式也将由此发生剧烈变化,造成人类无法预知的后果。从而使得人类在面对这个新物种时难以事先进行风险防范,使得社会关系稳定和谐的状态将面临极大的未知风险。
其二,给予人工智能独立的主体资格必然导致其所有权人成为特权群体,导致该群体成为人上人。一般能够拥有较强人工智能的群体都处于财富水平极高的精英阶层,赋予人工智能主体资格会进一步加剧社会中人与人之间的隔阂、传统社会秩序受到冲击,致使拥有强人工智能的群体与其他群体发生剧烈利益冲突。
其三是人工智能作为独立责任主体获得法人资格极易引发道德风险。人工智能不具有理性认识事物的可能性,实际控制人会在人工智能的帮助下侵害他人合法权利,其独立责任主体会成为实际控制人避免侵权责任承担的避风港。
赋予人工智能主体资格可能会带来很多好处。这将确保人工智能受到法律保护。这意味着,如果人工智能被恶意利用或受到伤害,相关的法律机构可以干预并保护其权益。然而,赋予人工智能主体资格也可能会带来一些问题。首先,这可能会导致一些道德和伦理问题。例如,如果一个人工智能被赋予了主体资格,那么它是否有权利拥有自己的意识和自由意志?其次,赋予人工智能主体资格也可能会导致法律上的困难。例如,如果一个人工智能造成了伤害或损失,那么责任应该由谁承担?
因此,赋予人工智能主体资格是一个需要慎重考虑的问题。我们需要权衡其带来的好处和问题,并制定出相应的法律和伦理标准来指导其发展和应用。只有这样,我们才能确保人工智能的发展符合人类的利益并得到良好的应用。