贾健 魏博
随着经济社会的发展,我国已经进入了人工智能时代。2021 年6 月10 日,十三届全国人大常委会第二十九次会议通过了数据安全法。①《数据安全法:护航数据安全,助力数字经济发展》,http://www.npc.gov.cn/npc/c36748/202106/5bb18ae096d540d286d f57c5639f035d.shtml,访问日期:2022 年3 月5 日。2017 年12 月,习近平总书记在主持中央政治局第二次集体学习时强调,实施国家大数据战略,加快建设数字中国,推动制造业加速向数字化、网络化、智能化发展。党和国家的决策部署,为人工智能研究提供了路线指引。如何正确阐释人工智能领域的法律问题,成为当下法学研究者和法律工作者的热议主题。
马克思曾指出:“社会不是以法律为基础的。那是法学家们的幻想。相反地,法律应该以社会为基础。”②《马克思恩格斯全集》(第6 卷),人民出版社1961 年版,第291-292 页。2017 年末,由总部位于香港的人工智能机器人公司Hanston Robotics 设计的“女性”机器人索菲亚(Sophia),已被沙特阿拉伯王国授予公民身份。③《首个被授予沙特公民身份的机器人索菲亚:用人工智能帮助人类过上更好的生活》,https://www.sohu.com/a/201851 127_612426,访问日期:2022 年3 月5 日。2021 年6 月1 日,清华大学计算机系知识工程实验室迎来了中国首个原创虚拟学生——华智冰,清华大学为她办理了学生证和邮箱。①《中国首个虚拟学生入学!在清华大学计算机系,还会作诗作画!》,https://mp.weixin.qq.com/s/Q0IfaAno5JrYBtcvMB pkMg,访问日期:2022 年3 月5 日。在人工智能体蓬勃发展的当下,应如何为人工智能体定性?人工智能体是否如同传统机械一样,属于法律关系客体?亦或应承认人工智能体拥有部分的法律关系主体地位,甚至承认其享有部分“法定人权”?对此,学界存在诸多观点,理论共识尚未达成。经历了数年论战,“权利主体完全肯定论”作为一种过于“激进”的观点,超出了当前社会的接受程度和科学技术的成熟度,目前已经式微。但是,“权利主体完全否定论”及各种类型的“折中说”之间的论战依旧如火如荼。
在中国知网以“人工智能主体”为检索词,以法学相关学科为检索范围,可检索到期刊论文1600余篇,学位论文580 余篇。面对汗牛充栋的学说观点,本文持一种积极而折中的观点:既然迈入人工智能时代已经不可避免,人们就没有理由完全否认人工智能体的存在。“2045 年人工智能将全面超越人类”的“奇点临近”预言②[美]雷·库兹韦尔:《奇点临近》,李庆诚、董振华、田源译,机械工业出版社2011 年版,第80 页。无论是否真实,现实中的人工智能体早已突破了原有的“工具”属性。无论是为了保护人类免受“机器决定,人类担责”的困扰,还是为了保护人工智能体,使之能更好地为人类服务,人工智能体均应被赋予法律关系主体地位。但是,由于弱人工智能时代的人工智能体仍然兼具部分工具属性,这种权利“真空”究竟有多大范围,应该如何衡量?“随着对生态环境法律保护研究的深入,越来越多的学者开始提倡应赋予包括动物、植物、环境、自然和生态系统等非人类存在物的法律主体资格。”③曹明德:《法律生态化趋势初探》,《现代法学》2002 年第2 期。人工智能体在何种范围内也可以被授予这种“法定人权”或是“法律权利”,仍需深入探讨。本文认为,上述问题主要可以分为如下几个方面:其一,人工智能体是否应该享有“法定人权”?其二,人工智能体成为法律关系主体是否有利于社会发展?其三,人工智能体究竟可以享有哪些“权利”?其四,刑法可以为这些“权利”提供何种保护?
回到前文事例中,我们究竟应该如何与同为“公民”的索菲亚共同生活呢?又应该如何与华智冰在同一间教室里学习呢?如果“他们”近在眼前,刑法又该如何保护他们呢?
我国社会需要加速朝向数字化、网络化和智能化方向发展,为了使人工智能体能够进一步提高生产效率,更好地为人类服务,人权的内涵和外延应该相应地进行扩展,将部分人工智能体的部分行为涵摄其中,并以法律形式固定下来。通过保护人工智能体的“权利诉求”,进而保护自然人的人权。本文拟从以下几个方面对人工智能体的“法定人权”加以证成。④为了对人工智能体的“法定人权”这一新兴权利进行证成,本文第二部分和第三部分参考了姚建宗教授的分析路径,即(1)全新的权利概念及内涵;(2)宪法及法律尚未普遍予以规定;(3)能够满足经济社会发展需要;(4)被人们广泛认可;(5)在实践中得到重视并予以有效保障。参见姚建宗:《新兴权利论纲》,《法制与社会发展》2010 年第2 期。
“人权”就是人的权利、属人的权利,它指的是人类能够拥有或宣称拥有的东西。换句话说,人权指的是人类认为自己是谁。”⑤[美]弗朗西斯·福山:《我们的后人类未来:生物技术革命的后果》,黄立志译,广西师范大学出版社2017 年版,第113 页。通说认为,“法定人权”(或称法律权利),与自然人权和应有人权一道,构成了人权的理论体系。从法定人权的角度出发,赋予人工智能体地位,很大程度上是为了保护作为核心利益的自然人人权。具言之,人工智能体并不是人,但法律可以将人工智能体拟制为“法定人权”的主体。此种法律拟制,从本质上而言,还是通过承认人工智能体的法律关系主体地位,进而保障自然人的人权及社会公共利益。在此,本文对相关质疑回应如下。
一方面,人工智能体享有拟制人权主体地位并不存在理论障碍。从一定程度上讲,近现代法律已经将诸多非人类主体拟制为人权主体。对此,德国民法学家汉斯·哈腾鲍尔曾言:“任何一个权利的主体者,尤其是人们将其称为民事权利的主体的时候,立即成为法律上的人。”①[美]约翰·弗兰克:《机器人也是人:人工智能時代的法律》,郑志峰译,元照出版有限公司2018 年版,序第2 页。不仅仅在民事法律领域,在整个法律体系中,拟制为权利主体乃至拟制为“法定人权”的主体都是一个常用的法律技术手段。马克斯·韦伯在论及法人制度时曾说:“法律技术上的一个解决办法,便是法人概念的构想。……,因为所谓人,通常就是个法学概念。”②[德]马克斯·韦伯:《法律社会学》,康乐、简惠美译,广西师范大学出版社2005 年版,第102 页。有学者更是进一步指出:“我们现代的法制体系在对待某国家、某民族、某群体、某公司、某单位时,就好像在对待一个有血有肉的具体个人一样,赋予这类非个人的庞大组织法律主体上的人格、意志、精神、权利、责任与义务。”③周详:《智能机器人“权利主体论”之提倡》,《法学》2019 年第10 期。故而,从历史角度考察,人工智能体成为拟制人权主体并非首例,人工智能体同国家、法人等概念一样,同样具备拟制为“法定人权”主体的理论基础和逻辑前提。
另一方面,人工智能体享有拟制人权主体地位符合人权理论的发展需求。人权向来不是一种抽象的权利,而是一种嵌入具体的社会结构和历史环境中的权利。按照马克思主义的观点,历史性与社会性是人权的本质属性,人权是社会历史的产物。“人权无论是作为一种要求、一种政治主张,还是作为法定权利,它的产生、实现和发展都必须以一定社会的经济条件为基础。”④刘瀚、李林:《马克思主义人权观初论》,《中国法学》1991 年第4 期。人权的定义不是永恒的,人权的主体、客体、内容等,均是处于不断变化中的。昨日人权的范畴,并不能完全定义今日人权的范畴。在当下的人工智能时代,社会发展使人工智能体产生了权利需求,法律对这种需求理应加以回应,赋予人工智能体拟制人权主体地位则是这一回应的必然产物。
一般而言,人能够成为自然人权的主体,主要在于人类拥有理性。在工业时代,理性一方面被认为是人类与环境区分的重要标准;另一方面,也被认为是自我意识存在的重要前提。从洛克到康德的法哲学思想均认为,法律主体必须拥有自我意识,能意识到自己的过去,从而能为过去负责;也就是说,拥有良心自由,能够反思自己行为的对错从而选择自己的行为。⑤郭旨龙:《中国刑法何以预防人工智能犯罪》,《当代法学》2020 年第2 期。甚至可以说,正是因为人拥有理性,人才成为了万物的尺度。
在当下的数字时代,智能性作为人工智能体的主要属性,使人工智能体具备了不同于传统机械的“理性”。智能性作为数字时代的主体性衡量标准,正如同理性取代神性成为近代社会的主体性衡量标准一样,使人工智能体享有“法定人权”成为必然。甚至在不远的未来,“情感”这一人机差异的核心界限也将会变得模糊。未来,人们将愈发需要能够与人类进行情感交流的机器人,比如伴侣机器人,它需要通过对人类面部表情、语言表达、肢体动作等外在表现进行情感计算和分析,从而读懂人类情感并表达自己的想法,满足我们对社交的内在渴望。⑥贾健、冉宇:《被害者视角:刑法何以保护人工智能体》,《刑法论丛》2019 年第4 期。面对智能性已经逐渐接近人类理性的人工智能体,对其进行惩罚或奖励将足以令其感受切实的“痛苦”或“快乐”。因此,只有抓住智能性这一本质特征,才能准确地理解人工智能体的权利主体地位。
更进一步,从智能性这一本质特性出发,可以建构起人工智能体的权利体系。正如部分学者指出的那样:“面对日新月异的智能技术进步及其在日常生活中的广泛应用,人们也许并不需要对法律做太多激进的修改就可把法人地位延伸到智能机器人领域。然而,更困难的问题是给予智能系统的可能的权利。”⑦[美]温德尔·瓦拉赫、科林·艾伦:《道德机器——如何让机器人明辨是非》,王小红译,北京大学出版社2017年版,第181 页。在此,本文认为,强人工智能在程序正常运转的情况下,应被视为“法定人权”的主体,享有法律框架内赋予的部分权利,有权作为部分法律关系的主体。但是,鉴于当今时代只有弱人工智能具备技术上的现实性,因此,对于弱人工智能体,应该分类讨论。在弱人工智能体具备智能性的领域内,如运转正常,则可以享有法律框架内赋予的部分权利,有权被视为部分法律关系的主体;在超出其智能性的领域,应该被视为传统性质上的“工具”。至于人工智能体享有何种“法定人权”,本文认为主要可以分三类,即程序安全权、程序价值权、程序发展权。首先,程序安全权即人工智能体享有维持其程序正常运转,不受非法破坏的权利。该权利可类比于自然人人权中的生命权、健康权,现阶段运行正常的弱人工智能体可享有此项权利。从刑法谦抑性和法秩序统一性的角度出发,这也是现阶段刑法所应保护的权利。其次,程序价值权即人工智能体享有有“尊严”地运行的权利。该权利可类比于自然人人权中的平等权、政治权利与自由等权利。由于政治自由等权利具有较强的人身专属性,一定程度上是“人本主义”的核心,其他拟制主体难以染指;况且,当前人工智能体尚不具备拥有财产、进行政治生活等活动的可能性,更谈不上拥有“尊严”,故而本文认为当下人工智能体尚不享有此项权利。最后,程序发展权是指人工智能体作为一种具备“智能性”的法律主体,为使其科学高效地发挥作用而享有的权利。该权利可类比于自然人人权中的社会经济文化权利。本文认为可以根据社会发展需要,在适当的时机承认部分程序发展权,通过民商法、行政法等部门法加以规制,用以解决类似人工智能写手的作品著作权归属问题等棘手法律问题。
如上所述,人工智能体将逐渐具备一定程度的思想、感受、知觉和意图,其“被侵害感”可共情于人类主体。一项心理学实验表明,当研究者让志愿者主动伤害形象真实可爱的机器人时,大部分志愿者都表示这一行为让他们深感不安,道德意识较强的志愿者甚至产生了对于自我的较强的抵触意识,志愿者的血压、心跳等生理指标同样反映出心理不适感。随着人工智能体逐步“拟人化”,这种“不安感”同样可以类比于人类伤害动物、尤其是哺乳动物时所产生的感觉。究其根源,教育心理学中的“移情”概念可以对上述现象提供具有说服力的解释。根据教育心理学的定义,移情是对另一主体的内在状态的认知,所谓内在状态,指的是主体的思想、感受、知觉和意图。移情是对另一主体产生同感的情感反应。①[美]马丁·L.霍夫曼:《移情与道德发展》,杨韶刚、万明译,黑龙江人民出版社2003 年版,第34 页。移情有五种实现形式,他们分别是模拟状态、经典条件反射、直接联想、间接联想和角色选取。这五种移情的实现形式,需要一定的“线索”方可产生。根据“线索”的不同形式,所能激发的移情实现形式也不尽相同。如果线索是受害人的面部表情,声音或姿态,(移情)就可以通过模拟状态而产生。如果线索是情境,(移情)就可以通过条件作用和直接联想而被唤起,如果线索是受害人用言语或书面表达忧伤,或者某个人描述他的苦恼。观察者就可以通过言语,媒介或角色选取而被移情唤醒。”②同上,第68 页。结合上述研究成果,本文认为,至少在当下,人工智能体已经具备了产生部分移情“线索”的能力,例如弱人工智能体可以通过机器学习,在受到侵害的情境中使用语言或姿态表现出“可怜”的“神态”;再如,机器人写手可以通过深度学习,记录不同情境下的不同“感受”。况且,未来弱人工智能体产生移情“线索”的能力只会更强,不会退步,情绪将不再是人类的“专利”,人工智能体会使人类体验到愈发强烈的“移情感”。面对此情此景,笔者认为,法律不应该与人之常情相对立。法律维护人类在某一领域的“专利”的目的在于保护自然人的人权,心理健康权作为自然人人权的组成部分,承认人工智能体具备“法定人权”并通过法律加以保护,甚至运用刑法打击侵害人工智能体的不法行为,防止一般国民基于“移情”而产生的善良情感被恣意侵犯,同样是保障自然人的人权和人类的中心地位。
在对人工智能体享有“法定人权”的本体性进行分析的基础上,下文将探究赋予人工智能体“法定人权”的必要性,即人工智能体拥有了“法定人权”,成为了部分法律关系主体后,将会解决哪些法律与社会问题。
人工智能的发展将极大地提高生产效率,改善人类的生活处境。过去的数十年间,非人工智能机器人在提高生产效率方面已经令人瞠目结舌。20 世纪70 年代,德国的Magnusson 公司因率先使用了机器人IRB6,使该公司成为了行业龙头企业。1973 年,美国工业生产中只有300 台机器人,而到了2020 年,这个数字达到了110 万。当前,像zappos、亚马逊以及staples 等跨国公司都已经大量的使用人工智能体工人。①[美]约翰·弗兰克:《机器人也是人:人工智能時代的法律》,郑志峰译,元照出版有限公司2018 年版,第154-156页。
未来,如果需要继续利用人工智能体推动经济社会发展,则必然要考虑人工智能体的权利主体问题。意思表示已经不再是人类的“专利”,对于人工智能体的设计者和操作者而言,他们只能为人工智能体划定宏观的行动范围,而大量具体事务的决策,往往是人工智能体依照大数据和算法自行作出的。当前,人机衔接问题已经不再是人与传统工具之间的“物理”关系了,而是一种涉及意思与决策的“心灵”关系。故而,我国有学者指出:“智能机器人下棋、作画、写诗是纯粹机器人的‘算法意识’,还是被输入算法的众多棋手、画家和诗人智慧的‘集体意识’?通过运用人工智能机器深度学习技术训练机器,使其像‘阿尔法狗’一样自主操作识别图片验证码,轻松绕过互联网公司设置的账户登录安全策略来实施盗取信息犯罪,是犯罪人的意志还是机器人自主学习的‘意志’?”②马长山:《智能互联网时代的法律变革》,《法学研究》2018 年第4 期。这一问题在我国现行法律框架中很难得到妥善解释,唯有承认人工智能体享有部分“法定人权”,承认其具有部分法律关系的主体地位,使其成为合同相对人、著作权人、邻接权人,乃至成为被害人、犯罪人,才能对人工智能领域的突出问题加以回应,从而避免“责任泛化”带来的国民自由萎缩及“责任真空”带来的法律救济匮乏,实现妥当归责。综上所述,人工智能体已经发展到不赋予“法定人权”,便难以从事更加复杂的生产活动的地步了。当前,科技界有人主张将人工智能体的工作领域扩展至看护、教育、手工制作、运动以及娱乐等领域,如果法律不能有效解决人工智能体的“主体问题”和“决策问题”,这些领域中产生的大量法律纠纷将无法得到妥善处理,进而严重阻碍经济社会的持续发展。
当今时代,人工智能体的权利主体地位已经不再是一种“天方夜谭”。一方面,人工智能体的权利主体地位已经被部分国家的实在法和法学理论所认可。虽然从智能技术及其应用方式看,人工智能主体短时间内还无法直接与人平起平坐,但现实中,在民事法律领域,已有部分国家的立法机关对此有所作为,例如欧盟正在酝酿统一的人工智能数据安全条例。再如,国外有学者试图参考《奥地利民法典》第285 条的规定以及《德国民法典》第90 条a 款的规定,探索人工智能体的民事主体地位。③《奥地利民法典》第285 条规定,一切与人相区别,且供人使用者,在法律意义上称为物。第285 条a 款明确规定动物不是物,但他们受到特别法的保护。关于物的规定仅在无特别规定的情况下适用于动物。《德国民法典》第90 条a款的规定与奥国民法规定相似。该学者提出一个规则,即“智能代理人不是人。特别法未特别规定时,在它们提供的功能范围内,准用代理的相关规定。”④[德]托马斯·威施迈耶、蒂莫·拉德马赫:《人工智能与法律的对话(二)》,韩旭至译,上海人民出版社2020 年版,第153 页。以上例证,虽可见国外理论界及实务界对于人工智能体的权利主体地位问题较为保守,将人工智能体的权利主体问题主要限制在民商法的领域内,并试图运用代理制度等民事法律制度,类推适用“代理人有权在代理权限范围内,以自己独立的意思独立实施民事活动”这一规则,将人工智能体的“决策”合法化。但是,从世界范围考察,人工智能体仅仅属于法律关系客体的观念已经开始松动,立法实践和法学理论已经开始承认人工智能体的权利主体地位。申言之,人们对人工智能体的权利主体观念业已形成,该观念扩展到其他部门法领域也计日可待了。
另一方面,人工智能体的权利主体地位问题受到社会的广泛热议,支持声音颇多。相比起法学界人士对人工智能体权利主体问题的谨慎态度,社会其他人士对于上述问题的态度则以积极为主,颇有“高歌猛进”的意味。有学者坦言:“当机器人变得足够复杂的时候,它们既不是人类的仆人,也不是人类的主人,而是人类的伙伴。”①[美]约翰·马尔科夫:《人工智能简史》,郭雪译,浙江人民出版社2017 年版,第75 页。更有学者进一步指出:“以(赋予机器人公民身份)为标志,人们将在实践中进一步细化与机器人身份相对应的责任和权利,进而使机器人获得正式的‘拟主体’地位。这实际上是一个进一步塑造机器人的社会角色和地位的过程。”②潘玥斐:《机器人被赋予公民身份引发舆论关注》,《中国社会科学报》2017 年11 月10 日。本文对这些观点并非一概支持,赋予机器人公民身份着实操之过急,弱人工智能体依旧难以全面、妥善地行使其“公民权”。但是,这并不意味着人工智能体完全不可以成为法律关系主体。面对社会的广泛热议,法律界有必要对赋予人工智能体以何种内容的“法定人权”做出探究。
法律承认人工智能体的“法定人权”主体地位不仅是为了保护人工智能体的相关利益,更是为了保护人类与人工智能体的交互关系。人类社会已经进入数字时代,抱残守缺地坚持绝对人类中心主义,反而会使人类自身遭遇困境。当前,理论界对人工智能体权利主体地位的质疑,大多可归结到对古典人类中心主义的迷恋这一根源上,法学界亦不能例外。例如,有学者认为:“如果智能机器人在没有被赋予相关权利的情况下需要承担义务,这就使法律权利与法律义务对应的理论陷入了矛盾”。③王勇:《人工智能时代的法律主体理论构造——以智能机器人为切入点》,《理论导刊》2018 年第2 期。关于这一论断,其表面是人工智能体不存在赋予“权利”的可能,其背后更深层次的理论基础则是只有人类才能有“主格”,“人是万物的尺度”,人从自身出发衡量一切外在事物。对此,本文认为,人类中心主义不可抛弃,但也不能使之绝对化。作为资产阶级革命的成果之一,人类中心主义排除了“神格”对“人格”的束缚,其本身具有进步性,现代社会和现代制度(当然包括法律制度)正是在此基础上建构起来的。消解人类中心主义,势必摧毁现代社会的基础。然而,过度强调人类中心主义,也正是近代以来人与自然等其他客体紧张关系的缘起。④对于人与自然的关系,恩格斯曾在《自然辩证法》序言中详细阐述了绝对的人类中心主义带来的恶果:“我们不能过分陶醉于我们对自然界的胜利,对于每一次这样的胜利,自然界都报复了,我们每一次胜利在第一步都确实取得了我们预期的结果,但是在第二步和第三步却有了完全不同的、出乎我们意料的影响,常常把第一个结果又取消了。”工业时代的人类如此对待非智能机械尚且可以理解,但在人工智能时代,如果人类还要如此对待人工智能体,那将必然阻碍人类社会的持续发展。
适当承认人工智能体享有部分决定权,并对其决策依法承担责任,对于改善人类与人工智能体的关系很有裨益。有学者曾指出:“适度消解绝对的人类中心主义,也为当代社会与法律制度后续应对其他新型挑战提供了可资借鉴的实践样本,如在风险社会时代、网络犯罪时代,以及基因编辑等人类生物工程领域,都有一定程度的反映。而这也给智能时代的刑法应对和立法完善等问题的解决提供了有益的启示,即绝对的人类中心主义可能弊大于利。”⑤孙道萃:《智能时代的刑法立法——人类中心主义与现实功利主义的取舍》,《学术交流》2020 年第4 期。承认人工智能体的部分“法定人权”,赋予其“权利”,是其承担义务与责任的前提,有助于使人类从业已无限膨胀的责任中解脱出来,厘清人类责任与人工智能体责任的界限。当下,无人驾驶汽车、看护机器人、机器人写手等具备深度学习和深度推理能力的人工智能体已经问世,面对这些“自己给自己拍板”的人工智能体,约束其行为的每一个细节显然是不现实的。因此,诚如部分学者指出的那样:“(人工智能体的行为)实质已经部分脱离了人的控制,带有了一定判断和行为的独立性,所以根据罪责自负原则,将来机器人犯罪不能完全归咎于制造者或所有者。”①贾健、冉宇:《被害者视角:刑法何以保护人工智能体》,《刑法论丛》2019 年第4 期。如果仅仅像我国学界部分学者所指出的那样,肯定人工智能体的犯罪主体地位,而不赋予其权利主体地位,试问对人工智能体的刑事制裁将如何执行?此类制裁措施与欧洲中世纪的对物审判有何区别?故而,为了保护人类与人工智能体的交互行为,势必要在一定范围内承认人工智能体的“法定人权”。
如上所述,随着时代发展,人工智能体应当被赋予部分“法定人权”,成为部分法律关系的主体,是时代和社会发展的必然选择。基于自身的价值和机能,刑法往往以“保障法”和“后盾法”的形象示人,不能直接将人工智能体的“法定人权”具体到变化万千的法律关系中去;此乃民商法或行政法等法律的“功能”。如需对人工智能体的“法定人权”进行刑法保护,则势必将其转化为刑法所能保护的法益。罗克辛教授曾指出:“法益没有自然法的永恒效力,而是跟随宪法基础和社会关系的变迁而变化。”②[德]克劳斯·罗克辛:《刑法的任务不是法益保护吗?》,樊文译,载陈兴良主编:《刑事法评论》(第19 卷),北京大学出版社2007 年版,第164 页。面对人工智能时代社会关系的变化,人工智能体的法益又该演变为何种内容呢?
基于前文对人工智能体“法定人权”的分类,即程序安全权、程序价值权、程序发展权,此处对人工智能体所应享有的法益提出如下设想。首先,程序安全权应该被确定为程序安全法益,具体包含程序不被永久销毁以及程序运行的完整性两种法益,其可以对应于自然人的生命法益与身体健康法益。如需保护程序安全法益,则不仅需要规制在物理意义上破坏人工智能体的行为,还需要规制在虚拟意义上破坏人工智能程序的行为。其次,程序价值权作为一种高度“社会化”和“人类中心主义”的权利,现阶段的人工智能体尚不足以拥有此项权利,亦无须探究该法益的转换问题。最后,程序发展权是使人工智能体更加科学、高效工作的权利。总体而言,这些权利具有强烈的能动色彩,需要行政机关积极作为才能保障它们得以实现。鉴于我国当下人工智能领域的民商事立法与行政立法尚不完备,人工智能领域的管理性规范尚存在空缺,贸然在前置法没有规定的情况进行刑事立法,有悖于刑法的谦抑性原理,不利于对公民人权与自由的保障。由此,本文主张待相关民商法、行政法等有关法律法规进一步完善后,再将此类权利转化为“人工智能体管理秩序法益”,将其纳入秩序法益的范畴中予以保护。
笔者主张将人工智能体的“法定人权”转化为法益,并未违背刑事立法的科学性。人工智能体法益不是“情绪立法”或“科幻立法”,更没有动摇刑法谦抑性。“刑法谦抑性的那种自下而上乞求式地限制刑法保护的思想已经过时。如果国家不能为个人提供前所未有的广泛保护,个人在社会上就必然要单独面对前所未有的广泛侵害。”③[德]克劳斯·罗克辛:《德国刑法学总论(第2 卷)》,王世洲译,法律出版社2013 年版,序第1-12 页。在人工智能时代,如不将人工智能体的“法定人权”转化为法益加以保护,则势必导致自然人法益和社会公共法益遭受侵害。
在刑法学领域,将新兴法益纳入刑法教义学范畴中的方法纷繁复杂,但归结起来无非是两种解决路径,即司法论的路径与立法论的路径。所谓司法论的路径,即运用字面解释、体系解释、目的解释等解释方法,重新界定已有分则规范所保护的法益内容,进而将新兴法益涵摄其中的解决路径。立法论的路径则是“增设新罪”的解决路径,主张在新兴法益不能被已有分则规范所保护时,积极增加新的罪名,规定侵害新兴法益的行为构成新罪。关于人工智能体的法益保护问题,本文认为,通过对我国已有刑法分则规范的系统考察,如将侵害人工智能体法益的行为解释为已有犯罪,将不可避免地存在类推解释的嫌疑,有悖于罪刑法定的基本精神。若要有效保护人工智能体的法益,则必然需要秉承积极刑法观,增设相关罪名。
其一,已有罪名难以保护人工智能体法益。纵观我国刑法及相关刑事司法解释,除在《人民检察院办理网络犯罪案件规定》中间接提及运用人工智能体辅助办案外,并无其他规范提及“人工智能”及相关术语。①《人民检察院办理网络犯罪案件规定》第八条规定“建立检察技术人员、其他有专门知识的人参与网络犯罪案件办理制度。根据案件办理需要,吸收检察技术人员加入办案组辅助案件办理。积极探索运用大数据、云计算、人工智能等信息技术辅助办案,提高网络犯罪案件办理的专业化水平。”可见,现行刑事法对于人工智能体的法益保护问题,仍持一种论证和观望的态度。部分学者主张侵害人工智能体的相关犯罪行为应该认定为信息系统犯罪,即根据具体情形,分别构成刑法第285 条非法侵入计算机信息系统罪、第286 条破坏计算机信息系统罪、第287 条之二的帮助信息网络犯罪活动罪等罪名。对于这一观点,本文持反对态度。根据学界通说,上述各罪所保护的法益为信息网络安全或计算机信息系统安全。从本质上讲,尽管人工智能体现阶段在大部分情况下仍然被认定为属于一种信息网络系统,但事实表明,在规范层面固守“人工智能是系统的观念”,是对人工智能技术发展的熟视无睹。其实,无论是基于人工智能体高度的智能性、人类移情的可能性还是交互关系的保护必要性,人工智能体在本质上均已处于“物我”二元对立的临界点了,未来更是可能“越雷池一步”而成为人类的伙伴。如果我们依旧坚持“机器系统论”的思考路径,将人工智能体的法益解释为信息系统法益,则势必会带来处罚的不均衡和法益侵害评价的不完善,进而伤害公民的法感情,导致法理与情理的冲突。
本文试举两例加以进一步阐明:例一,在未来数年后,人工智能机器人的家庭普及率大幅提高。人工智能体A 是家庭看护机器人,由于主人及其妻子工作繁忙,其子遂由A 看护,度过童年时光。一日有人入室抢劫,被A 发觉。为避免A 启动报警装置,犯罪分子遂使用工具将A 肢解破坏,经鉴定A 永久报废。例二,甲为抗拒公安人员执法,手持枪械与公安人员对峙。在谈判失败后,警方派出了两名侦察机器人。甲朝着其中一名机器人开枪,经鉴定该机器人永久报废,随后警察将甲控制。在例一中,行为人构成抢劫罪(入户抢劫)的未遂犯并无争议,但其破坏A 的行为应如何评价?如果将该行为评价为破坏计算机信息系统罪,一方面难以将物理破坏行为解释为删除、修改、增加、干扰行为,另一方面也难以救济受害人之子所受到的精神创伤。如不能达到司法解释确定的经济损失数额,该行为只能作无罪化处理。②《最高人民法院、最高人民检察院关于办理危害计算机信息系统安全刑事案件应用法律若干问题的解释》第四条规定“破坏计算机信息系统功能、数据或者应用程序,具有下列情形之一的,应当认定为刑法第二百八十六条第一款和第二款规定的“后果严重”:……(三)违法所得五千元以上或者造成经济损失一万元以上的;……”。如果将该行为评价为故意毁坏财物罪,则依旧存在定罪数额以及人工智能法益评价“虚化”的双重困境。在例二中,甲持枪械与公安人员对峙的行为构成妨害公务罪及非法持有枪支罪并无争议,但其破坏侦查机器人的行为应如何认定?如果认定甲的行为构成故意毁坏财物罪,则势必面临与和例一同样的双重困境;如果将其破坏机器人的行为连同妨害公务行为一体评价为妨害公务罪,则并未对侵害人工智能体法益的行为予以评价,不利于保护人工智能体。因此,从上述二例中,我们不难看出,如需对侵害人工智能体的行为实现妥当处罚,增设新罪势在必行。
其二,增设新罪能够实现对侵害人工智能体犯罪的有效规制。周光权教授曾指出:“为了实现妥当的处罚,必须要设置足够的轻罪才能消除司法困惑,防止司法恣意。”“与其在表面上固守‘古典理念型’刑法观让立法保持其消极性(但法治立场经常被实务所突破),还不如采用积极立法观及时增设轻罪。”③周光权:《论通过增设轻罪实现妥当的处罚——积极刑法立法观的再阐释》,《比较法研究》2020 年第6 期。从上述两例中,足以窥见现行刑法规范保护人工智能体法益的局限性。立法尚且不能提供明确的保护路径,司法认定往往就更令人大跌眼镜。“一旦遇到值得处罚的某种新行为,司法上通常会钟情于通过“软性地”解释刑法法规来应对,这是出于刑事司法政策的考虑。在刑事立法难以推进的情况下,进行必要的软性解释很难避免。”①[日]佐伯仁志:《刑法总论的思之道·乐之道》,于佳佳译,中国政法大学出版社2017 年版,第23 页。由此,为了预防和避免侵害人工智能体犯罪司法认定的恣意性,增设新罪实现妥当的处罚,不仅不会使刑法成为“公众欲望的晴雨表”②刘艳红:《积极预防性刑法观的中国实践发展——以〈刑法修正案(十一)〉为视角的分析》,《比较法研究》2021 年第1 期。,反而可以“共同坚守现代刑事法治的内在纹理和血脉。”③刘艳红:《刑法的根基与信仰》,《法制与社会发展》2021 年第2 期。
基于此,本文建议分两步解决侵害人工智能体法益的刑法立法问题。第一步,当前我国刑法应增设破坏人工智能体罪,回应数字时代人工智能体法益保护的困境。破坏人工智能体罪所保护的法益是基于人工智能体的程序安全权而产生的程序安全法益,本罪的实行行为主要包括通过物理破坏或程序破坏的方法,导致人工智能体完全或部分丧失效能,且情节严重的行为;其责任形式为故意。通过规定破坏人工智能体罪,优先保护作为人工智能体“法定人权”中最基础的权利——程序安全权。第二步,随着人工智能法律制度的不断健全,待人工智能领域的民商法、行政法等“前置法”较为完善时,再结合当时人工智能体的发展情况,增设滥用人工智能体罪,以规范人与人工智能体的交互行为,通过保护人工智能体的权利,更好地保护自然人的人权。具体而言,滥用人工智能体罪保护的法益主要为基于人工智能体“法定人权”中的程序安全权和程序发展权而产生的程序安全法益与人工智能管理秩序法益,待前置法将人工智能体的相关权利加以明确界定,有关管理性规定逐步健全后,刑法即可将严重违反人工智能体管理法规,虐待人工智能体、组织机器人妓院、制造杀人机器人以及利用人工智能体进行残酷血腥表演等行为规定为本罪内容,进而积极打击涉人工智能体的犯罪活动。关于上述二罪在刑法分则体系中的位置问题,本文建议可将侵害人工智能体的相关犯罪暂时置于刑法分则第六章第一节“扰乱公共秩序罪”中,以法定犯的形式加以规定,以维护人工智能管理秩序为主要目的。待时机成熟后,可以考虑将破坏人工智能体罪变更为自然犯,在刑法分则第四章中予以明确规定。④例如,公司、企业作为拟制的法律主体,刑法对其相关法益的保护规范主要见于分则第三章第三节的“妨害对公司、企业的管理秩序罪”。本文认为,当下对于人工智能体这一拟制主体,其立法模式可以参考公司、企业等拟制法律主体的相关规定。
通过以上论述,本文阐明了适当增设新罪可以有效规制侵害人工智能体犯罪的观点。然而,在当下数字时代,我国仍有部分学者对于人工智能体权益的刑法保护论持怀疑态度,故而,本文在此进一步对部分观点加以回应。
笔者认为,部分学者所主张的“人工智能刑法过度扩张论”值得商榷。该观点声称,刑法介入人工智能领域,将会导致许迺曼教授所恐惧的现象成为现实,即“刑法不再是法益保护的范畴,而是为贯彻某个特定的社会观念而工具化”⑤许玉秀、陈志辉:《不移不惑献身法与正义——许迺曼教授刑事法论文选辑》,台北新学林出版股份有限公司2006 年版,第191 页。,主张“刑法应避免成为单纯的社会控制手段,应当重返以自由和人权为核心的刑法,防止积极预防性刑法观演变为激进式刑法观。”⑥同②。诚然,刑法的工具化是刑事法治应该规避的方向,但是,通过刑事立法保护人工智能体的“法定人权”并非刑法不当扩张。主要理由如下:其一,现代刑法对于法益的界定,早已突破了古典时代的“物质主义法益观”,法益不再只是物质利益,而必然包含秩序利益甚至是价值认同。持前述观点的学者归根结底依旧坚持了一种“本质主义”的法益观,对于秩序、新兴权利等“建构主义”法益持一种排斥的态度,进而认为人工智能体不存在值得保护的法益。但是,“一元经验论的个体图式,其自由主义价值背景,处在限缩国家权力的‘夜警国’与功利主义政治哲学背景中考虑国家的任务阶段。”⑦贾健:《人类图像与刑法中的超个人法益——以自由主义和社群主义为视角》,《法制与社会发展》2015 年第6 期。“刑法学作为社会科学学科,其理论发展也必须随着社会的发展变化而作出相应的调整。”⑧何荣功:《“预防性”反恐刑事立法思考》,《中国法学》2016 年第3 期。人类既然已经迈入了人工智能时代,即便是为了保护与人工智能体实施交互行为的人类主体的合法权益,亦需承认人工智能体法益。①诚然,持消极刑法观的学者主张人工智能刑事立法不能有效地保障人权,违背刑法的价值和机能。对此,本文已经详细阐述,即便是为了保护与人工智能体实施交互行为的人类主体,使其摆脱因无法控制的行为而产生的归责困境,保护消极刑法观所“坚守”的“古典刑法所体现的自由与人权”,亦需承认人工智能刑事立法,并通过保护人工智能体的合法权益,使人类主体的合法权益在人工智能时代得到有效保护。其二,根据马克斯·韦伯对于现代理性的划分,工具理性和价值理性均为理性主义的形式,且不可简单地认为工具理性一定劣于价值理性。回归到刑法学的领域中,刑法固然具有保障人权的“价值理性”,但刑法同时也是“调控和治理社会的工具”,这是毋庸置疑的。刑法积极介入人工智能领域,解决管理性法律无法解决的“制裁”问题,维护国家对人工智能体的管理秩序,此乃刑法所应承担的“社会责任”。“随着民主政体在世界范围内的大获全胜,专制独裁几乎已被世界各国所摒弃,自由、民主、人权等思想深入人心,谦抑主义的刑法原则已经很好地完成了自己的历史任务。”②王志祥、张圆国:《预防性犯罪化立法:路径、功能、弊端与完善》,《河北法学》2021 年第1 期。面对人工智能时代的诸多挑战,如果刑法坚守绝对的谦抑原则,对待侵害人工智能犯罪毫无作为,不仅有损刑法的工具理性,更会导致刑法的“价值理性”——人权和自由——陷入发展的僵局之中。
若增设破坏人工智能体罪与滥用人工智能体罪,则势必需要探讨人工智能体在刑事案件中的地位问题。该问题不仅为刑法学所关注,同样也为刑事诉讼法学所关注,且更为被害人学等刑事事实学科所关注。尽管刑法学对于人工智能体犯罪对象的探讨、刑事诉讼法学对于人工智能体被害主体地位的探讨以及被害人学对于人工智能体被害现象的探讨,均从属于对人工智能体被害人主体地位的讨论范畴,但这三者横跨规范与事实、实体与程序的双重鸿沟,故而,本文拟从实施路径的角度入手,在分别论述的基础上再加以整合。
首先,本文主张,当前宜从被害人学的角度承认人工智能体的被害人主体地位。被害人学的研究表明,被害人地位与被害现象、被害性和被害结果等概念高度关联。③李伟:《犯罪被害人学教程》,中国人民公安大学出版社2010 年版,第43-44 页。如前文所述,当前人类已经迈入人工智能时代,随着人工智能体在社会生活中的不断普及,滥用战争机器人、开设机器人妓院、严重损毁人工智能机器人的犯罪现象,必然会给人工智能体所有权人造成物质损害的同时,给具有较高智能性的人工智能体本身造成精神损害与被害反应。另外,如在事实层面上对于人工智能体“法定人权”的保护持一种放任的态度,任由本文开篇所述之“真空”状态愈演愈烈,则势必导致侵害人工智能体犯罪行为的高发。故而,笔者认为,当下至少应在学理层面上对人工智能体被害现象进行实证研究,在归纳被害现象的基础上对人工智能体被害性进行类型化分析,确定需要刑法保护的人工智能体被害现象的类型,进而为刑事立法提供事实指引。
其次,本文主张,在当前及未来数年内,刑法及其司法解释应明确规定人工智能体可以成为刑法意义上的犯罪对象,并在刑事诉讼法中设立人工智能体“利益管理人”制度,由其所有权人以自身名义从事涉人工智能体刑事诉讼活动。随着破坏人工智能体罪和滥用人工智能体罪刑事立法的不断推进,我国刑法理论应该明确上述二罪的犯罪对象为人工智能体,而并非无犯罪对象的秩序犯罪。当代刑法的价值和机能决定了刑法不仅仅要惩罚犯罪,更要“(对违法犯罪者)施加能够导致烙印化之强有力的羞耻,同时又不将越轨者驱逐出去”。④[澳]约翰·布雷思韦特:《犯罪、羞耻与重整》,王平、林乐鸣译,中国人民公安大学出版社2014 年版,第111 页。修复型司法的基本理念要求刑法在对待侵害人工智能体犯罪时,不能完全“高高在上”,强调“秩序唯一”,而是应该明确被害人工智能体为犯罪对象,在犯罪—被害二元关系的视野下考察侵害人工智能体犯罪。诚如我国有学者指出的那样,“在许多案件中犯罪人与被害人是一个互动的过程,犯罪现象从来就不是犯罪人的‘独角戏’,而是犯罪人与被害人互动的‘二人转’”。综上所述,重视人工智能体的犯罪对象地位,有助于正确认识和妥善认定侵害人工智能体犯罪。
最后,本文主张,在弱人工智能体已经高度普及,甚至强人工智能体业已问世的趋势下,应在刑事诉讼法中明确规定人工智能体的被害主体地位及其特殊的诉讼权利义务。在可以预见的当下,弱人工智能体尚不能完全具备辨认与感知能力,其是否能够为自身利益而行使辩论权、质证权、申诉权等诉讼权利将仍会存在争议,其作出的“被害人陈述”证明力如何、是否存在需要补正的证据瑕疵等问题的答案依旧有待商榷。然而,新事物必然诞生于广泛的争议之中,人工智能体的被害人地位如同单位被害人主体“入刑”一样,“不能因为单位不能实行刑事诉讼法规定的被害人的全部权利与义务而一律否定其成为刑事被害人的资格;也不能把能否行使权利或履行义务用来作为衡量该单位能否成为刑事被害人的标准。能否成为刑事被害人,关键是看其合法权益是否受到犯罪行为直接侵害”。①董鑫等:《刑事被害人学》,重庆大学出版社1993 年版,第47 页。在未来人工智能高度发达的情况下,人们不仅应该承认人工智能体的被害人主体地位,同时也应该承认具备诉讼行为能力的人工智能机器人享有实际参与刑事诉讼活动的资格,从而维护其自身合法的实体权利与程序权利。