施韵婷 刘怡君 丁嘉欣 王 露 付梦鸽
河南科技大学,河南 洛阳 471000
随着人工智能对人类生活的不断渗透,人工智能已经成为我们生活中重要的组成部分。人工智能机器人已经初步具有自我意识,拥有自我表达能力,甚至可以与人类进行简单的情感交流。可想而知,未来人工智能时代的机器人一定会更加智能化、拟人化。那么,我们将来是否有必要在法律上承认人工智能作为法律主体呢?如果承认了法律主体资格,侵权后的追责责任又该由谁承担呢?这都是需要我们去商讨的。
1.人工智能机器人能否具有法律主体地位?这个问题的提出不得不回到法律设立法律主体理论的初衷。首先需要明确的是法律主体的概念。法律主体是指活跃在法律之中,享有权利、负有义务和承担责任的人。法律中的“人”是指自然人、法人和其他组织。这个“人”并不包含人工智能。我国目前并没有承认人工智能的主体地位,而是把它作为一个产品对待,但我们必须要考虑到人工智能时代机器人的发展。机器人虽无法归类为传统法律主体,但我们可以为其创设新的主体类型。例如,欧盟委员会曾提交过议题,要求将最先进自动化机器人用一个新的身份定位为“电子人”,将其作为类似自然人的主体,这在法律中成为法律拟制,它将会被设定有“特定的权利和义务”,并且还需要像“人”一样办理身份证,进行户口登记,甚至老化后还可以领维修基金。这一提议为我们设想人工智能时代的法律问题提供了思路。但机器人权利能力从何起始、终结的确定这一问题,目前各界说法还不一致。至于是从出厂的日期,还是主要程序被创作出来的日期,又或者是行政登记后开始;是被格式化的日期,还是程序解体崩溃、机械客体被销毁的时候结束?这一问题还有待探讨。
2.人工智能机器人的行为能力如何划分?作为一个合格的法律主体,必须能够承担相应法律权利和法律义务,即主体合格原则,又称有行为能力原则。把人工智能机器人考虑作为独立的法律主体,就必须划分它的权利能力和行为能力。自然人可以用年龄来对行为能力进行划分,那么人工智能机器人如何划分呢?对此,目前有学者提出根据人工智能的智能等级进行分类。但随之又有新的问题产生,智能机器人毕竟是程序化的产物,它们是不断更新升级的,而这种分类标准可能无法适应新生的程序,因此笔者认为这种分类方法还有待商榷。
1.公民个人信息的泄露。“脸书数据门”能够直观地体现这一问题,为大家提供便捷联系的社交工具Facebook,2018年却出现剑桥分析公司“窃取”5000万脸书用户信息事件。互联网大数据背景下,通过大数据分析用户个人的喜好,AI技术人员通过自己所掌握的技术窃取用户的个人信息,并将其在较广范围内流传,且已泄露的个人信息无法挽回。
2.隐私侵权的追责问题。人们在使用各种智能电子产品时需要不断确认自己的个人信息,这使得用户信息泄露的途径进一步扩大。权利人要想查找自己的信息是如何泄露的,查找难度较大,查找成本过高。且人工智能时代下的隐私侵权主体难以认定,隐私权主体想要追责,其追责对象应该是谁?是盗取用户信息的人?还是设计销售该技术的开发人员?又或者是购买他人信息的人……这些问题皆有待深究。
1.对伦理道德的挑战
伦理,是指在处理人与人、人与社会之间的关系时应遵循的道理和准则。从古至今人们都重视道德,认为道德一直规范着人们的行为,而法律是最低限度的道德,任何法律都内含一定的伦理道德观念,而人工智能的出现,则可能对人类一直公认的伦理道德产生冲击,进而影响法律构建基础。人工智能会对婚姻家庭伦理道德形成挑战,而夫妻关系的和谐稳定,是一个国家社会稳定的基础,维护夫妻间的和谐稳定也是我们法律研究中重要的内容。而随着智能“女友”“男友”的出现,通过大数据分析用户的个人爱好,满足用户生理上的需求和感情上的寄托,这种情况下,会导致大量适婚男女不想结婚生子,也会加剧已婚男女的矛盾。
2.算法歧视会对人类传统价值观产生冲击
人工智能的背后是强大程序支撑的智能算法,有学者认为,算法本质上是一种数学表达运算与大数据分析,是很客观运算出来的结果,不像人类那样受各种因素的影响,具有各种情绪和偏见,因而绝对不会产生歧视。然而,这种观点笔者觉得并不可取。正如凯文· 凯利在其作品《失控》中所说的,“人们在把自然逻辑输入机器的同时,也将技术逻辑带到了生命之中,机器人、计算机程序等人工制造物也越来越具有生命属性”。而作为大数据处理的计算程序和人类思维的一种物化形式与人脑外延的智能算法,也正“失控性”地呈现出其劣根性——歧视。算法歧视会对人类传统价值观等伦理道德理念产生冲击。算法歧视原因可能是算法设计者的道德价值取向不良,也可能是受到数据的来源及准确性的影响,甚至可能是机器自我学习的结果。如何确保算法设计中的伦理的考量将成为一个重要问题,也要思考限制人工智能大数据的分析及产生法律问题后的责任问题。
目前人工智能虽然在很多领域都得到了广泛应用,但仍存在上述问题有待解决。综上所述,在人工智能大数据背景下,我们要提前做好相应的具体措施。
首先就是要进行监管,进一步建立健全人工智能监管体系。这一重点应在人工智能的法律设计和应用监督并重的双重监管结构上,设计好人工智能管理体系,才能实现对人工智能算法设计、产品开发和后续监督管理一系列的运作。这就需要切实建立人工智能一体化的管理体系,加大对人工智能领域数据滥用等各种违法行为的惩戒力度。
一定程度上进行机器人专门立法,将之视作人工智能作为法律主体的基本规范。《民法典》中人格权篇着重规定互联网技术下隐私权保护的相关法律规定,其中包括对隐私权的侵害行为和个人信息的定义、主体权利及处理人的免责事由、安全保障义务等多方面的明文规定。这些规定为我们灵活应对未来人工智能带来的冲击和风险提供了法律依据。
法律控制是风险治理机制的重要手段。立法者必须要重视控制人工智能机器的风险功能的法治化,同时也要注重权利客体的适用的限制,以及防止权利滥用、限制权利行使等制度规则的适用,限制和排除人工智能的潜在危害。
人工智能目前仍处于发展中水平,很多严重关键的问题并没有得到实际有效的解决,因此在人工智能对人类社会造成影响甚至产生对抗之前,我们应该提前制定好明确的规则,加强对人工智能技术的完善,并引导人们正确使用,最终达到人与人工智能和谐共处。