刘丽
人工智能已成为近几年的热门词汇,发展势头迅猛,这也同时引发了人们对人工智能可能造成的法律风险的热烈讨论,其中一个非常重要的理论问题就是人工智能是否应被视为法律主体。法律主体是能够缔结法律关系的“人”,因各个国家法律制度的差异,大致包括自然人、法人、非法人团体,甚至是一些非生命物体,如河流、公园、生态环境等。法律主体的确定对解决任何争议都至关重要,因为只有先确定法律主体,才能接下来讨论法律责任的分配问题。对人工智能应否被承认为法律主体的讨论也因此而起。
然而,并非所有人工智能都具备成为法律主体的特征。按照目前普遍接受的分类方式,人工智能分为弱人工智能和强人工智能。弱人工智能系统只能执行为其设计好的任务,如语言翻译、导航等,除了其既定程序之外做不了别的事情,因此其能力范围很窄。目前应用的所有人工智能,包括最复杂的通过机器学习以及深度学习来自主提升的人工智能,都属于弱人工智能的范畴。强人工智能可以完全像人类一样学习、认知、理解并行动,能够完成多个目标,甚至可以在不确定或者模糊的情况下独立设定新目标。事实上,强人工智能就是我們在电影、文学作品中所熟悉的机器人和人工智能的形象。但是,目前强人工智能还不存在,也有人对强人工智能究竟是否可能出现持怀疑态度。
因为目前应用的各类人工智能都属于弱人工智能,也就是专注于且只能解决特定领域问题的人工智能,例如我们所熟知的AlphaGo。这些人工智能因能力所限,还属于工具的范畴,是法律上的客体,人们对此定位并无争议,也不在我们这里的讨论范围之内。人们争议的焦点是强人工智能,即能胜任人类所有工作的人工智能。虽然目前技术上还无法实现强人工智能,但是很多科学家都很乐观,认为这一天很快会到来,因此针对此类人工智能的法律主体地位问题开展前瞻性的讨论非常有必要。我们后面所提到的人工智能都是指强人工智能。
目前,国内外不少人认为应考虑赋予人工智能或者与法人主体类似或者具有一定限制的法律主体地位,主要基于以下几点理由:一是人工智能可以自主决策,具备和人类一样的“理性”和“自由意志”。持此观点的人认为,法律上主客体的根本区别在于是否具有“自由意志”,人工智能可以自主决策,表现出与人类似的行为,能力与人类已经无异,符合法律主体的“自由意志”的要件,应赋予其主体地位。况且,人工智能表现得与人如此类似,人类很容易与之共情,再将其视为工具或者为人类服务的电子奴隶,伦理上和感情上都难以接受,赋予其法律主体地位才更为恰当。
二是人工智能可以享受权利。人工智能成为法律主体可以解决目前人工智能创造物的知识产权权利分配的难题。事实上,人工智能创作出来的歌曲、诗歌等已经达到了让普通人类受众难以将之与其他人类作品区分开来的水平,不少人认为应将这样的作品视为知识产权意义上的“作品”。但是这种做法却难以在由谁来拥有这个作品的问题上达成共识。目前认为由算法设计者或者人工智能所有者拥有作品,或者甚至使此类作品进入公共流通领域的解决方案都难以自圆其说,若承认人工智能为法律主体,则此类问题立即迎刃而解。
三是人工智能可以承担法律责任,从而解决人工智能致害的责任分配问题。在人工智能可以享受权利的情况下,其既可以拥有知识产权权利,也可以拥有其他财产权利以及获得报酬等。因此,在对其他法律主体造成损害的情况下,人工智能可以用其所拥有的财产提供金钱上的救济。从这个意义上来讲,人工智能与法人非常类似:独立决策、拥有财产并承担法律责任。而且因为人工智能自主决策,其导致的损害如果让设计者、生产者或者拥有者其中任何一方或者共同来承担责任都有失公平,让人工智能独立承担责任更为恰当。
尽管人工智能成为法律主体可以解决上述诸多问题,但是此种做法带来的不利后果却应更加重视。首先,人工智能的自主决策能力是算法运行的结果,是对人类行为的模拟,而非其自发产生的能力。实际上,人工智能是人造出来的产物,其生命产生机理以硅基为基础,与人类这样的碳基生物完全不同。因此,尽管人工智能可以学习、思考、决策,却不会与人类一样感受痛苦,也不必面临死亡。如果人工智能成为法律主体,因为其能力已经与人类无异,将来甚至有可能迅速过渡到超人工智能时代。届时整个社会将不再以“人类为中心”。人工智能也许可以与人类和平共处,但其更有可能成为人类的强大竞争对手,而且因其不会死亡,无法感知痛苦,允许人工智能成为和人类一样的法律主体,人类很可能失去主体地位,沦为客体,甚至灭亡。
其次,权利对人工智能可能具有与人类不同的意义。人工智能作为法律主体,可以享有大部分其他法律主体享有的权利,如包括知识产权在内的财产权利,缔约权利,甚至言论自由权利等。但是人工智能作为人造物,其价值追求与人类并不一定相同,这些权利对其而言可能并不具备与对人类相同的价值。比如人工智能无需积累财富,提升生活水平,追求幸福等。人工智能也可能不像人类那样有各种各样的消费需求。因此,人工智能在对其财产作出处分决定的时候可能并不会遵循人类社会的经济规律。如果为了规避这一问题而给人工智能配备监护人,则人工智能的“自主决策”能力就失去了意义,也为人类主体侵犯人工智能的财产权利留下了空间。
最后,人工智能承担的法律责任有限。人工智能致人损害时,仅能通过金钱赔偿的方式提供救济,在此种救济方式不充分的情况下,通常适用于人类的惩罚方式如缓刑、监禁、死刑等都不适用于人工智能,因为人工智能既不会感知痛苦,也不会死亡,有些甚至没有固定的实体,这些刑罚方式对人工智能没有震慑作用。虽然人工智能可以比较充分地承担民事责任,但是其作为与人类一样拥有“自由意志”的法律主体,自主决策,并非像其他非人类主体一样由人类代表其意志,却可以不受惩罚地侵害其他法律主体的利益,或者更确切地说,惩罚方式对人工智能失去了效用,就会形成一块法律责任的“真空地带”。这就造成了一个局面,即能力上人工智能与人类相同,行为后果上,人工智能比人类承担的责任要少。在这种情况下,承认人工智能的法律主体地位,人类相当于主动把自己置于一个劣势的不平等位置,可能导致人类受到人工智能的欺压,甚至直接面临生存危机。
从上面的讨论中,我们可以看出:人工智能不应被承认为法律主体,因为人类将为此承担不必要的风险,甚至有可能威胁全体人类的生存。但是人工智能技术的发展不容忽视,未来必将更多地融入并影响人类的生活。应对人工智能引发的法律问题,一方面需要深入研究如何规范人工智能算法的伦理,使设计者、生产者和使用者都成为利益相关者,尽量增强算法的透明度和可解释性,确保人工智能技术的发展与人类的价值和愿望相符合。另一方面,可能需要我们打破传统的主客体二元范式,不再局限于传统的人类以及非人类法人实体的讨论,创造出新的可以适用于人工智能的规则。
【注:本文系北京市社科基金青年项目“首都人工智能发展中的民事责任研究”(项目编号:18FXC019)的研究成果】
【参考文献】
①吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》(西北政法大学学报),2017年第5期。
②潘文轩:《人工智能技术发展对就业的多重影响及应对措施》,《湖湘论坛》,2018年第4期。
责编/于洪清 美编/王梦雅