■/
“机器能思考吗?”1950年,由Alan Turing1提出了吸引越来越多的科学家和实践者关注的问题,并由此为人工智能(AI)的话语设定了方向。人工智能是一门相当新的学科,目前还没有单一的定义。人工智能的概念在1956年首次被提及。该系统通常被定义为与高效现代化技术相关的由人工开发的智能系统,这使得计算机能够更加自主地运行,人类智能系统(下文简称SAI)由于其独特性而与其他常规计算机算法(程序)不同,因为它们能够独立学习,收集经验并基于各种分析,在独立于开发人员(程序员)意志的情况下提出不同的解决方案,即SAI能够自动运行而不是自动运行。
今天,基于SAI工作原理的信息技术种类繁多,例如Google自动驾驶、控制飞机的自动驾驶仪、Siri,Cortana和Google Now等数字助理、机器人护士、智能控制的Google智能眼镜等等。这些技术和其他技术在世界范围内广为人知,它们的容量和使用量也在迅速增长。随着基于人工智能技术的使用变得越来越普及,相关案件的数量也在不断增加。例如:在总里程170万英里谷歌自动驾驶车辆行驶中共发生了11起事故,造成损失;语音识别软件可能成为车祸的促成因素;提醒患者服药的机器人护士不能确保实际服用药物,这可能导致患者死亡等。这些具体的例子表明,SAI不仅仅存在于科幻小说中。基于SAI和上述例子的创新技术证明SAI不是单纯的客体,其操作一般不受他人的影响。但无论此类系统的特殊操作原理如何,迄今为止,没有一个法律系统承认SAI法律主体地位。然而,SAI当前的法律地位只是一种临时的属性,是否应该及时做出改变?是否有可能授予人工智能系统的法律人格?这个问题随着技术的进步和时间的推移吸引了学术界越来越多的关注。
(1)解决人工智能系统的法律责任问题。限制一个人的自由意志与限制该人的权利有关,只有在法律规定的情况下才允许(这通常与禁止干涉他人权利有关)这种情况发生。随着SAI迅速的介入人们的生活并能够自主决策,在AI基于自由意志做出决策并实施适当行动的情况下,个人(生物)的生活方式无疑会发生变化。针对当前的现象可以提出一个问题,即如何控制人工智能系统,以便在社会中运作时不会干扰他人的权利,即让人工智能受到善意驱动;更重要的是我们如何确保这些系统造成的损害得到补偿。鉴于这一点,如果人工智能视为法律客体,其将无法进行损害赔偿,因此必须决定其他人(法律主体)对损害负责。毕竟,根据损害赔偿原则之一,侵权者本人或由负责侵权行为的人赔偿受害者。有些人认为可以通过将责任转嫁给控制AI系统的开发者,运营商或生产者来解决也有观点认为重新编程或关闭系统就足够了。但这种观点无法解决人工智能的高度自主性所带来的矛盾。
(2)扩充法律主体资格内容的需求。如果社会把人工智能系统当作自治主体,这必须在法律框架中得到反映。例如,在代理关系中代理人与委托人之间对于投资活动具有相对明确的任务,即为了最大化利润,他们可以在作出重要投资决定之前使用人工智能系统接收专家意见。该系统不会只能进行更好的分析并提供比人类更可靠的结论,它也可以作为防止代理人滥用代理权限的主要工具。社会接受代理人作为法律主体,这是公认的法律事实,那么为什么SAI不能获得相同的地位?这些系统具有被赋予法律人格特征的要素:SAI是聪明的,能够做出自主决策,从他们自己的经验中学习、记忆、计划、决策并执行的能力。承认人工智能主体系统的另一个原因是它们与其他法律主体的直接互动,对其权利和利益的最佳保护需要以明确界定人工智能系统的法律地位为前提。根据目前国内和国际的法律规定,只存在人工智能系统被视为法律客体的情形,因此AI系统的行为造成的损害赔偿责任分配问题仍然不能得到彻底解决。
由于SAI(基于算法的操作)的具体性质,如果将其认定为法律主体,它们的权利和义务的范围不一定与其他法律主体的权利和义务的范围相同。与法人主体相似,这些系统仅仅是其他人的活动的结果。因此,SAI只能拥有立法者严格定义的权利和义务,并且这种权利和义务的定义将有助于明确基于SAI的活动所产生的其它法律关系和其他法律主题。如果从法律类比的角度来看,向SAI授予法律人格可以表达为在明确规定的范围内为这些系统赋予某些权利和义务。只要在SAI的权利义务范围内,将其认定为法律主体是完全可行的,这既有利于法律责任的判定,也有利于进一步促进人工智能产业的发展。