(吉林大学 法学院,吉林 长春 130012)
人工智能这个概念早在20世纪50年代就已经出现,但其发展并非一路顺利,而是历经了三起两落,随着深度学习在计算机视觉、语音识别及自然语言处理等领域取得突破性进展,人工智能技术在社会生活领域的应用日趋成熟[1],这一技术不再仅停留在学术界的讨论阶段,而成为各国政府和企业家的追捧对象。我国也非常重视人工智能的发展,先后发布了《机器人产业发展规划(2016—2020年)》《新一代人工智能发展规划》《人工智能标准化白皮书(2018版)》等一系列相关文件鼓励、促进人工智能的发展,而且在政府的支持下我国的人工智能技术已经在各个领域迅速发展,“智慧法院”“百度医疗大脑”和“富士康机器人”等都是人工智能应用于社会生活的现实例子。然而人工智能发展也不可避免地存在一定的风险和隐患,国家在大力倡导发展人工智能技术产业的同时也要求构建配套的风险防范机制,以防范潜在风险。习近平在主持中共中央政治局集体学习时就明确指出:“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”[2]因此,关于人工智能体法律规制包括刑事法律规制相关问题的研究对我国当前法治社会的发展而言具有跨时代意义。
人工智能的发展不仅是一场科技的革命,也将会对传统社会伦理、法律提出挑战。我国法学理论界从法理学、民法和著作权法等不同视角探究人工智能时代法律制度受到的冲击和可能发生的变革,自2017年起人工智能相关法律问题争论的“战火”烧到了刑法学界,是否要改变传统的刑事责任主体范围,赋予人工智能体独立的犯罪主体资格,成为这场刑法学论辩的核心问题。
人工智能体依据发展程度不同而有强弱之分,弱人工智能体仅是人类编程控制下改造社会的工具,可能成为犯罪对象或犯罪工具却因明显不具有自主意志而不可能成为刑事责任的主体,对于这一点刑法学界基本上能够达成共识。然而,对于脱离人类编程控制的强人工智能体或者说智能机器人是否会成为刑事责任的主体,目前理论界存在两种观点。一是否定说。持否定说的学者认为:“未来已来,但是不是说来就来,主张人工智能体具有主体,尚不具有现实意义”[3];“人工智能系统对其活动的法律规范意义不可能具有自主性认识,不可能具有刑法意义上的辨认、控制能力,刑法不应将其作为刑事责任主体”[4]。二是肯定说。持肯定说的学者认为,“强人工智能体能在人类的设计编程之外实施行为具有独立意志,且与人类相比具有更强的控制能力与可培养的辨认能力,可以成为刑事责任的主体”[5]。“现实生活中人工智能体在部分国家和地区已经具有了法律人格,而且既然法人能够独立承担刑事责任,人工智能体与法人之间的刑事责任理念没有实质性的法律差异,其也可以具有刑罚适应能力,所以人工智能体成为刑事责任主体不存在障碍。”[6]肯定说和否定说就以下三个方面存在正面的冲突:(1)人工智能体刑事责任讨论的前提范畴问题;(2)人工智能体是否具有辨认、控制能力和可罚性的问题;(3)人工智能体是否具有法律人格等问题。
事实上,人工智能体是否具有刑事主体地位的问题应当从两个层面进行考察:一是实然层面,即人工智能体在自身能力上是否能够具备辨认、控制能力和承担刑事责任的能力;二是应然层面,即人工智能体应不应该发展至具有刑事责任主体地位的阶段,当然前提是从目前来看人类对人工智能的发展能否达到这种程度是具有一定控制力的,至于是否要积极实现则需要进行风险的评估和利益的衡量。
有关人工智能发展的争论中影响最大的莫过于对人工智能威胁论的争辩,一方以伊隆·马斯克为代表,对强人工智能和超级人工智能时代的到来充满担忧,认为人工智能发展的终点可能是人被机器所控制;另一方以马克·扎克伯格为代表,认为人工智能是改善人类生活的重要发明,而且人工智能不可能超越人类,威胁论者是在危言耸听。双方的争论看起来针锋相对,但事实上并不是在同一个话语体系下对话。威胁论者所担忧的“人工智能”指的是强人工智能甚至是超级人工智能,而威胁论的反对者所指的“人工智能”则是弱人工智能,在不同的语境之下抽象地对人工智能是否会给社会带来威胁进行讨论其实不过是各说各话而已,并没有真正形成观点上的交锋与碰撞。同理,若抽象地讨论人工智能的刑事责任主体资格问题,有的学者是在弱人工智能的语境之下论述,有的学者是以强人工智能时代为讨论背景,且学者们对“人工智能”的概念也有不同的理解,在前提概念没有厘清的情况下一味地概念附会只会制造学术泡沫,并无助于认清人工智能时代刑事责任主体的范围[7]。
有的学者在没有清晰认识人工智能体差异的前提下,将强人工智能也简单理解为一种算法,始终认为人类具有唯一的主体性,提出无论是在弱人工智能时代还是在强人工智能时代都应坚持“人力可控时定罪,人力不可控时不定罪”的定罪原则[8]。事实上,人工智能按照其发展程度分为弱人工智能(专用人工智能)、强人工智能(通用人工智能)和超级人工智能。强人工智能与弱人工智能之间的差异在于机器是真的智能,还是表现得“好像”很智能一样[9]。若机器依附于人类设置的编程和软件活动则表明尚处于弱人工智能时代;若机器能够在人类设计和编程的范围之外独立思考、作出决策,并且可以按照自己的意志实施行为,则意味着强人工智能时代的来临;而超级人工智能是指人工智能将超过人类智力的极限点,达到这个状态的时间点就是“奇点”[10]。按照理论推理和概念描述的内容,强人工智能体已经脱离了人类的控制,具有主体性,因此,将强人工智能体理解为绝对的客体是对人工智能体内涵的理解存在偏差,对前提性概念存在误解的基础上讨论人工智能体的主体地位问题,所得出的结论将很难令人信服。
虽然有部分人工智能专家对人工智能的未来发展充满信心,认为“奇点”一定会出现,但大部分科学家就现实情况作出冷静的分析后认为,“目前还没有已知的强人工智能算法或明晰的工程路线可以实现这些构想”[11]。强人工智能时代很可能只是人们的一种美好的梦想并且无法实现,理由是:
其一,从弱人工智能过渡到强人工智能技术上存在难以逾越的鸿沟。有学者认为科技的发展是爆发式的,人工智能技术已经在逐渐改变我们的生活和工作方式,而且弱人工智能体已经在某些方面具有超越人类的能力,所以强人工智能时代的到来也是可以预期的[12]。人们之所以对强人工智能时代的来临持有过于乐观的态度,部分原因是对人工智能当前发展速度的认知与实际的发展进度之间存在一定的偏差。人工智能系统在社会生活中应用的范围不断扩张,人们误以为是人工智能技术本身在高速发展,但实际上近十年来人工智能技术本身一直停留在深度学习的发展阶段,并没有什么突破性的进展,而人工智能体也不会突然自己“觉醒”自我升级为智能机器人,从弱人工智能到强人工智能的交替需要计算机技术、神经网络技术等相关领域合作完成。目前实现由弱到强的最现实策略是让机器模拟人的大脑运作过程来达到智能,即通过打造人工网络神经元模拟人类大脑的神经网络运作程序,但这种理论很难付诸实践,谷歌投入大量资金发展了近十年仅组成16000个处理器,这与人类大脑中的数十亿个神经元相比不值一提[13]。虽然弱人工智能在某些领域表现出超人的能力,但是这仅仅意味着AI技术在许多垂直领域内的局部进展状况良好,从AI的整体发展来看,跨领域的发展进程很缓慢,存在技术上难以突破的瓶颈[14]。从目前发展趋势和强弱人工智能时代交替所需要的技术支持来看,很难确定强人工智能时代一定会实现。
其二,强人工智能体存在的观点缺乏哲学基础。人的心智是非常复杂而难以解释的,目前哲学家对人类所具有的意识、智能等概念尚不能明确作出界定,何谈对人工智能体是否具有人类的意识和智能进行判断?而且目前人工智能的发展更强调理性的智力而忽视情感方面的能力,所以很难令人相信会有与人类在理解力、智能等方面相匹敌的人工智能体出现。
其三,从人工智能的发展史来看,人工智能的发展随时可能再次面临低谷。人工智能的发展并非一帆风顺的,曾因技术发展瓶颈而停步不前,也曾因社会政治、经济条件不允许而遭受冷落,虽然目前人工智能的发展很繁荣,但也不能保证它在短期之内就会有巨大的进步,下一个阶段是人工智能的发展停滞期也不是毫无可能。
总的来说,虽然人工智能正在我国的金融发展、城市基础设施建设以及医疗等领域发挥一定的作用,但也仅是在特定的领域发挥决策、预测和分析的功能,尚处于发展的初期,也就是弱人工智能时代[15]。从目前的发展状况而言,探讨强人工智能体或说是智能机器的人的刑事法律主体地位问题实在是为时尚早。
依据我国刑法规定,刑事责任主体指的是能够承担刑事责任的自然人和单位,而刑事责任的承担以具备刑事责任能力为前提,因此讨论人工智能体是否具有刑事责任主体资格就是在讨论其是否具有刑事责任能力。根据刑法通说的观点,刑事责任能力是犯罪能力和刑罚适应能力的统一,这里的犯罪能力指的是辨认、控制能力,而刑罚适应能力指的是承担刑事责任的能力[16],若人工智能体具备刑事责任能力,则既要求其具有辨认、控制能力,也要求其具有接受刑罚处罚的可能性以保证能够达到刑罚处罚的目的[17]。但从目前的发展情况来看,人工智能体不可能具有刑事责任能力。
智能机器人具备刑事责任能力的论证思路是:承认其具备独立的意志→具有辨认、控制能力→具有刑事责任能力,这一论证过程看似很有道理,实则只是一种脱离实际的纸上谈兵,缺乏可操作性。理由是:
其一,如何判断人工智能体是否具备独立意识?人工智能体具备独立的意识是其具备辨认、控制能力的基础和前提,而判断人工智能体是否具有独立意识的参照对象是人的独立意识,哲学角度人的“独立意识”的内涵尚含混不清,没有一个统一的界定,在判断标准尚不明晰的情况下科学确定人工智能体是否具有独立意识似乎不太现实,若人工智能体的独立意识都不能确定就讨论其是否具备辨认、控制能力就如同空中楼阁,没有理论根基。
其二,智能机器人如何获得价值判断的能力?刑事责任能力核心的判断标准是辨认、控制能力,其中辨认能力指的是行为人对行为及结果在法律上的性质和意义有认识的能力,控制能力是指行为人有决定是否要实施某特定行为的能力,辨认能力是控制能力存在的前提。行为人具备辨认能力不仅要求其对自身行为、结果、因果关系等客观事实有认知的能力,还要求其对行为在法律上的意义、性质和后果具有判断的能力,因此,辨认能力不仅仅是事实认知的能力,还包含价值评判的能力。若人工智能体具备辨认能力,则意味着其既要有事实认知的能力,还应该有价值评判的能力。事实认知能力容易实现,“电子眼”和“电子耳”对客观事实的认识能力要比人类还要强很多。但是,人工智能体如何获得价值判断的能力?途径一是“人工智能体通过人类设计的程序中所蕴含的道德、伦理、法律规范作出价值判断”[18]。这种表述本身存在逻辑上的漏洞,若人类能够通过相关程序控制人工智能体的价值判断能力,那说明人工智能体还在人类的控制之下,其不具有独立的意识,也就不具有辨认、控制能力。而且若人类能够通过“道德嵌入”的方式赋予人工智能体价值判断的能力,就能根据提前预估的道德风险设计出能够规避道德和法律风险的人工智能体,那么,人工智能体将永远不会实施违反道德和法律的行为,就根本不会成为刑事责任主体[19]。途径二是人工智能体依靠其自身的强化学习拥有人类的价值判断能力,这完全是自我升级的结果。目前尚未有任何依据表明人工智能体将会具备这种自我升级的能力,即使人工智能体拥有这种自我升级的能力,其对自身行为价值判断的标准也存在不确定性,人工智能体完全可能会产生一种独立的、新的行为规范作为判断自身行为意义的标准,这种行为准则是否会与目前社会的道德准则、法律规范一致很难说。在这种情况下人工智能体确实既有事实判断的能力也有价值判断的能力,但其对自身行为性质的认识并不是参照现行刑法规范作出的,那么其对自身行为在现行刑法中的意义还是没有认知。
综合分析来看,人工智能体具备与人类一样的价值判断能力基本是一种不可能实现的猜想。既然人工智能体不可能对自身行为的法律性质有明确的认识,那么,其也就不可能具备辨认能力,更不可能具备控制能力。因此,人工智能体不可能具备辨认、控制能力。
根据美国学者杰夫里的公式①美国学者根据费尔巴哈的心理强制说提出一个判断犯罪是否发生的公式:CB(犯罪行为)=BP(增加犯罪的可能性)—PP(感受到刑罚痛苦的可能性)。,当行为人感受到刑罚处罚痛苦的可能性大于实施犯罪的可能性,其犯罪行为就会减少或不发生[20]。我国传统的刑罚体系包括生命刑、自由刑、财产刑和资格刑。一方面,人工智能体区别于血肉之躯的人类,传统刑罚对其适用的空间有限;另一方面,人工智能体是否应具有独立法律主体地位,在多大的范围之内拥有何种权利都很难界定,因此,通过传统刑罚体系惩罚人工智能体来预防犯罪存在一定障碍。于是有学者建议重构刑罚处罚结构以适应人工智能时代的发展,认为可以对人工智能体处以删除程序、修改程序和永久销毁的刑罚处罚措施[21]。持这种观点的学者认为“智能机器人已经具有独立的意识,其具有感知痛苦的能力,也能在刑罚处罚的痛苦与犯罪获得的快感之间衡量后调整自己的行为,对其进行刑罚处罚能够达到特殊预防的效果”。同时,若智能机器人已经具备了独立学习的能力,当有人工智能体遭受到刑罚处罚的痛苦,对其他人工智能体将会起到一种威慑作用,因此对人工智能体的处罚能够实现一般预防和特殊预防的功能[22]。
然而,一方面,既然承认人工智能体有独立的意识,那么即使删除数据、修改程序对其也起不到刑罚处罚的效果,因为人工智能体自身有独立的意识表示其已经不受人类数据和程序的控制,即使删除了相关数据还是可以通过自我升级恢复;另一方面,人工智能体的本质是一套系统,机器人仅是这套程序的载体或者说容器,即使永久地销毁了人工智能体,其也还是有“复活”的可能性,不能像自然人一样对死亡有恐惧感和痛苦感,既然刑罚无法真正地对人工智能体发挥作用,那么一般预防和特殊预防的目的也都无法实现。因此,从目前的研究成果来看,设计适应人工智能体的刑罚框架不过是坐而论道,不具现实操作性和实际意义。
综上所述,就目前的技术发展情况而言,人工智能体具备辨认、控制能力和刑罚适应能力缺乏实际操作的可能性,所以人工智能体很难具有刑事责任能力。
虽然从目前的技术发展情况来看,人工智能体具有刑事责任能力还只是空想,但科技创造了诸多奇迹,人工智能是否要朝着这个方向发展以及发展到何种程度还是一个值得思考的问题。强人工智能和超级人工智能时代来临代表世界上将会出现一种和人类一样具有思考能力,甚至超出人类智力程度很多倍的“永生”机器出现,那么人类是否还能幸存就是个值得担忧的问题[23]。强人工智能时代到来的时刻一定是颠覆世界的时刻,既对社会制度产生巨大冲击也会直接威胁到人类个人权利的保障,因此要在人工智能的发展过程中清醒地认识到其可能带来的风险,就如禁止克隆技术和人类基因编辑一样,人工智能的发展速度也需要法律的控制。所以,人工智能体刑事责任主体问题的讨论不仅要思考“能不能”的问题,更要关注要不要赋予其刑事责任主体地位的问题[24]。
目前一些刑法理论界的学者已经开始对强人工智能体实施犯罪行为的情况充满担忧:若机器超出人类控制之外成为具有自我意识的智能机器人,在自我意识支配之下与人类产生矛盾和冲突,损害人类利益、造成严重的社会危害应当要承担刑事责任[25]。事实上,强人工智能时代能否出现还是一个科学上的未解之谜,来自专业人工智能研究领域的专家和学者们对此并不看好,但退一步来说,倘若在未来的某个时间强人工智能时代真的到来,存在于智能机器人与人类之间的矛盾和冲突也并非刑法所能解决的问题。
首先,刑法在和平状态下才能发挥作用。霍布斯认为人类的天性中存在冲突的基因,在没有一个令所有人敬畏的权力出现之前,人类处于每个人对每个人的战争状态下,人们的生活充满了不安和恐惧,为了摆脱这种战争的威胁,能够享有和平的生活状态,人们愿意放弃自己的部分权利授权给一个集体或个人从而形成国家,国家是共同权力的代表,其存在的价值是内求安定、外谋和平[26]。国家利用权力的威慑力设立法律规范限制人们的行为来实现国家内部的安定。反过来说,若社会处于战争状态人们的权利很难汇合授予给能够代表公众意识的集体或个人,也很难形成一个令人畏惧的共同权力,而没有共同的权力也就没有法律规范存在的根基和基础。因此,只有在相对和平状态下的国家才有法律适用的可能性,刑法又是法律规范的一个分支,所以刑法也仅能在处于相对和平状态下的国家中发挥作用。
然而,强人工智能时代的社会风险超出刑法的调整范围。若真的存在与人的智力、能力相当的人工智能体,很难确定其是否愿意接受人类的控制为人所服务,人们最担忧的情况是强人工智能体想要摆脱人类的控制依照自己的意志实施违反人类社会共同价值规范的行为,甚至想要伤害、征服人类。虽然刑法是一种有效的社会纠纷解决机制,但当社会的主要矛盾是人工智能体与人类之间的权利和权力之争时,从历史发展的客观规律来看,这种争端最终的解决机制往往是战争而不是法律。倘若这种可怕的想象成真,与人类作对的反叛者对原有的共同权力的象征——国家就不再有敬畏之心,依托于国家权威而存在的法律规范对这些反叛者自然也就没有威慑力。相反,他们会想要打破原有的共同权力体建立一个新的权力体,形成新的法律规范和制度。因此,若强人工智能时代真的来临,刑事法律规范也将失去其功能性,强人工智能体是刑事责任主体就是个伪命题。
讨论人工智能体是否具有刑事主体资格无法回避的一个前置性问题就是:人工智能体是否具有法律人格?若其不具备法律人格就更不用考虑承担刑事责任的问题。对于人工智能体法律人格的探讨最开始是由法理学者和民商法学者发起的,随后也有刑法学者在此基础上开始思考这一问题,已经有一些刑法学者开始支持赋予人工智能体限制的法律人格或完全的法律人格,主要从两个层面进行论证:其一是从哲学基础的层面,认为人的道德意志的来源是大脑,人工智能体也可以具备与人类思考能力相同的大脑,所以其也就有道德理性,人工智能体具有法律人格的哲学基础;其二是从实现可能性的层面,将人工智能体与单位犯罪相类比,从单位获得法律人格的历史发展轨迹推论人工智能体拥有法律人格也是社会发展的必然[27],而且已经有一些国家和国际组织开始提出法案甚至实验赋予人工智能体法律人格。事实上这两个论证理由都值得推敲,对于第一个理由,道德是指人与其知识、技能有别的一种内在素质,包括道德情感和道德观念[28]。人的道德理性总是与人性和情绪这种抽象的概念联系起来,其产生的机理是个复杂的过程,是否完全来源于人的大脑也是难以明确的,所以以人脑与人工智能体能力相当作为其具有道德理性的论据难以令人信服。对于第二个理由,从单位被确定具有法律人格的发展过程来看,将人的意志集合起来的单位与自然人相比有集资的优势、长生的优势、分担风险的优势等诸多优势[29],因此法律赋予其独立的人格为的是促进经济发展和人类进步,是适应社会发展的应然之举。然而,在人工智能飞速发展的今天,法律赋予人工智能体独立人格的必要性和优势尚未体现出来,而且若法律赋予人工智能体独立的人格反而会带来很多的弊端,一旦人工智能体具有独立的人格,将与自然人享有平等的权利,他们将会与人类共同分享自然资源,而且社会经济制度、政治制度和法律制度都要作出相应调整,这些付出的成本远远高于创造人工智能所要节约的成本,因此赋予人工智能体独立的人格不符合经济合理性原则,未必会成为社会发展的必然趋势。而且国际相关组织提出赋予人工智能体法律地位的报告也只是停留在提出建议的阶段,对于如何具体落实人工智能体的法律人格并没有设计具体的规则[30]。
法律人格提倡论者期待着赋予人工智能体权利和义务,将其作为法律规制的对象能够缓解人类对人工智能犯罪的恐慌,保障科技的发展不受阻碍。这种观念表现出一种为了发展科学技术不顾社会伦理道德规范的架势,这种思想是很危险的。“机器人之父”阿西莫夫提出的“机器人三定律”明确了人和机器人之间的地位关系,机器人应该是依附于人类的附属品,机器人的过度发展带来的可能是灾难而不是便利,虽然人工智能威胁论的观点听起来似乎更像荒诞不经的电影剧本,但是这关乎人类的命运,即使有微乎其微的可能性也没有必要冒风险。而法律应是将人工智能对人类造成的损害控制在提前预测范围内最有效的方法,而不是为人工智能的无节制发展背书[31]。
综上所述,人工智能体的过度发展有威胁人类安全、危害社会制度的风险,不应赋予其独立的法律人格,所以人工智能体不应成为刑事责任主体。
德国学者乌尔希里·贝克曾经预言在风险社会之下可能会出现一种有组织的不负责任的现象,即“我们企图在破坏性影响与个人因素间建立联系,而后者很少能够从工业生产模式的复杂体系中被分离出来”[32]。贝克认为随着社会分工的不断进化,责任在多方利益角逐的过程中成为“烫手的山芋”,个人将会通过多种形式企图推卸责任。依据贝克的观点,人工智能时代将刑事法律责任转嫁给人工智能体似乎也是个人逃避责任的一种表现,但当个人可以不再承担任何责任时其行为就会缺少约束,社会破坏性的影响就难以修复和预防,而且我国尚处在弱人工智能时代,个人是人工智能体背后的实际控制者,所以追究个人责任才是人工智能时代防范风险的有效手段。
一方面,国家对人工智能体法律规制对象提出了指导性意见。2018年1月18日国家人工智能标准化总体组、专家咨询组成立大会在北京召开,同期召开了2018人工智能标准化论坛,中国电子技术标准化研究院在此次论坛上发布了《人工智能标准化白皮书(2018版)》,为近期我国人工智能的研究提供了方向。白皮书中指出,“未来法律和政策应当作出明确的规定以保证权责的统一,应在技术开发和应用两方面都建立明确的责任体系,以便在技术层面可以对人工智能技术开发人员或部门问责,在应用层面可以建立合理的责任和赔偿体系”[33]。根据白皮书表述的内容,国家对人工智能相关法律的规制对象主要是人工智能的技术研发者和使用者。
另一方面,社会公众对人工智能时代法律责任的承担主体的意见也很一致。腾讯研究院于2017年5月至6月展开了一次人工智能相关问题的网络问卷调查,其中一个问题就是人工智能的法律责任归属问题,调查结果显示,认为企业(产品生产者)应当承担法律责任的受访者占到77.9%,产品生产者以绝对性的优势成为公众认为最应该承担法律责任的主体;排在第二位的法律责任承担主体是人工智能的使用者[34]。因此,无论是官方的态度还是社会民众的意愿,都是认为目前人工智能的法律责任主体应该是人工智能的提供者和使用者而不是人工智能体本身,法律应当通过明确研发者、生产者和使用者的法律责任来维护人工智能时代的社会秩序和安全。
刑法在法律体系中处于保障法的地位,刑事法律责任与其他法律责任相比具有一定的特殊性,结合我国刑事法律规范的特征和人工智能时代可能存在的犯罪行为,依照主观罪过的不同具体可以分为两种情况:
其一,人工智能的研发者、生产者和使用者可能承担故意犯罪的刑事责任。首先,人工智能之父艾伦·图灵曾说,“即使我们可以使机器服从于人类,比如在可以在关键时刻关掉电源,然而作为一个物种我们也应该感到极大的敬畏”[35]。从成本效益分析的角度来看,人类研发风险性极高的人工智能体带来的弊端要大于预期的收益,而且人工智能的发展轨迹可能直接威胁到整个人类社会的存亡,仅仅依靠科技道德对其进行规范远远不够。从风险的严重程度上刑法应适当对人工智能的研究领域进行一定的限制,对人工智能的研发内容进行必要的约束。若研发者违反刑法禁止性规定,研发具有危险性的人工智能体应当承担故意犯罪的刑事责任。其次,人工智能也可能被不法分子所利用而成为一种升级的犯罪工具。例如,一些应用人工智能技术的无人飞行器的使用,从积极的方面在资源勘探、海洋监测以及军事领域都发挥了重要的作用;从消极的方面若人工智能的使用者利用这种可以搭载炸药等危险物品的无人飞机实施杀人、伤害行为或者恐怖主义活动,其要承担故意杀人、伤害以及恐怖主义相关犯罪的刑事责任。最后,我国处于弱人工智能时代,从人工智能研发出来到广泛地应用于日常生活之间有个过渡的环节,即生产者对人工智能产品的批量生产过程。目前人工智能体不是以独立个体的身份存在,尚未动摇人类中心主义的现实,只是辅助人类更好生活的工具[36],本质上人工智能体是一种产品。我国现行刑法第一百四十条至一百五十条规定了生产、销售伪劣产品罪相关的刑事责任,人工智能的生产者与普通产品的生产者并没有本质上的差异,其也可以适用这一节的相关罪名,人工智能的生产者也是刑事责任的主体[37]。
其二,人工智能的研发者和使用者可能是过失犯罪的犯罪主体。刑法理论界的通说认为“过失犯罪的本质是具有注意能力的人对注意义务的违反,因而合理的判断行为人是否具有注意能力和负有注意义务就成为正确认定犯罪过失的关键”[38]。人工智能研发者的工作就是通过设计软件和编程创造出人工智能产品,作为专业技术人员经过多年人工智能相关知识的培训和研究,在人工智能的研发过程中经过多重的理论分析和实践探索,其对人工智能产品本身是否存在安全隐患,将这类产品投入使用是否会引发危害后果应该能够作出科学的判断,因此可以合理地认为研发者对人工智能产品可能引发的严重危害社会的后果具有认识、预见的能力。同时,人工智能的研发行为是一种具有高度风险性的行为,因此研发者应当承担一定的注意义务,且注意义务来源于法律、法规或业务规定。目前全国标准化信息委员会(SAC/TC 28)已经与国际标准化组织机构合作,逐步对人工智能研发涉及的各个相关领域开展标准化工作,这意味着我国权威机构已经为人工智能研发者设置一定的注意义务。因此,人工智能的研发者具备注意能力和注意义务,是过失犯罪的刑事责任主体。另外,人工智能的使用者在产品的使用过程中也应当承担一定的注意义务,若其违反法律规定的注意义务,造成危害结果的出现,也会成为过失犯罪的刑事责任主体,需要承担过失犯罪的刑事责任 。
“不要因为走得太远,而忘记了当初为什么要出发”,人类发展人工智能的目的是获得更好的生活,人工智能体始终应该在人类可控范围内,一旦失去这种控制,人类将会面临未知的危险。因失去对人工智能体的控制引发的不良后果可能要比研发高级人工智能所获得的价值还要大,出于趋利避害的本能也应该思考是否要走到那一步。若人类始终是人工智能背后的真正控制者,那么人工智能体不过是人类实现自我意志的傀儡,当法益侵害结果出现,应苛责具有非难可能性的人类而不是人工智能体本身。