夏军营
(安徽大学法学院,安徽合肥 230000)
近几年,大数据与人工智能成为了社会各个领域关注的热点话题。人工智能应用广泛,前景广阔,不仅从物理维度扩大了人类的视野,更从物质角度便利了人类的生活。更为重要的是,人工智能虽然是在人类智慧基础上的拓展延伸,取之于人类,但却在某些方面远远高于人类,展现了惊人的潜力。2016年谷歌人工智能“阿尔法狗”就相继轻松战胜了全球围棋排位前两名的围棋选手柯洁与李世石[1]。一时间人工智能广受推崇。而人工智能与现实生活密切结合的另一典型产物便是人工智能汽车。2014年美国就已经开始了自动驾驶汽车的公共道路测试。2018年3月18日,谷歌旗下的Waymo和Uber不断敦促美国国会尽快通过立法,将无人驾驶汽车真正带到市场,并且打算于今年推出无人驾驶出租车服务。人工智能汽车在美国瞬间成为了发展的重头。与之相对应的是,近两年,我国在人工智能汽车方面也开始了广泛的尝试。2018年3月1日,上海市交通委员会、公安局、经济和信息化委员会联合出台了《上海市智能网联汽车道路测试管理办法》。在此之前,我国汽车企业均需要到美国进行人工智能无人驾驶汽车测试,该办法为人工智能无人驾驶汽车打开中国市场开辟了路径。有人估计,到2035年我国无人人工智能汽车市场将达到8 000亿美元,将成为世界上最大的无人汽车市场①。
但是,当人工智能无人汽车在被广泛推广投产之前,更应该审慎地探讨其在法律上的风险。2018年3月20日,美国当地时间周日晚22点,在亚利桑那州坦佩市郊区,一辆Uber自动驾驶测试车在由南向北行进过程中,撞上推着自行车在人行道之外横穿马路的49岁女子伊莱·赫兹柏格,该女子送医后抢救无效宣告死亡,这是全球首例无人驾驶汽车致死事故。肇事车辆为装有Uber自动驾驶系统的沃尔沃XC90 SUV,事发时,该车辆处于自动驾驶状态。对于此案例,学术界讨论的更多的是民事责任的赔偿,对于其涉及到的刑法风险却很少被提及。人工智能无人汽车肇事的行为,不仅会造成被害人的人身伤亡和财产损失,更给整个道路安全埋下了巨大的隐患。因此,对于人工智能无人驾驶汽车肇事行为,并不能仅仅科以民事赔偿责任来惩罚,更应该受到刑法的法律规制。
从我国刑法第2条可以看出,刑法的目的是保护法益。法益保护原则表达的精神在于,一个行为是否值得给与刑法上的惩罚,并不是因为行为主体自身的主观恶性,而是在于犯罪行为实质上是侵犯了刑法所要保护的合法权益。那么人工智能会给刑法带来什么样的挑战与冲击呢?换句话来说,人工智能汽车的推广普及是否值得引起刑法学的关注?答案是肯定的。人工智能汽车是人工智能在交通领域所映射的成果,在不断受到社会推崇之后它将使得未来交通工具发生质的革变。试想一下,将来所有手动汽车都将被替换成半自动与全自动的人工智能汽车,那么与之相对应的交通法律规则体系的整体变革,例如刑法第133条交通肇事罪的规定,根据传统刑法的四要件说,交通肇事罪的客观方面要求在交通活动之中违反交通运输法规的行为,那么在人工智能汽车来临的时代如何去认定违反“交通运输法规”?手动汽车的驾驶主体是自然意义上的人,在成为汽车驾驶人之前必须具备驾驶证件与行驶证。那么,在人工智能汽车肇事行为之下如何去评价双证的效力?换句话来说,驾驶证与行驶证是人工智能操作系统必备的上路资格吗?进一步来说,人工智能汽车真正可以进入交通运营的准入性资格条件是什么?一旦发生交通事故,如何认定人工智能汽车是否违反了交通运输法规?当然,这是刑法的目的论在刑事立法方面的第一层波及,也是人工智能汽车肇事行为确定可以入刑之后才需要考虑的问题。那么,往前推导一步来说,人工智能汽车入刑的理论基础在于何处呢?当然是法益侵害性。刑法的目的是法益保护,刑法的机能之一也是法益保护。人工智能汽车肇事行为显然不亚于人力手动汽车肇事行为的危害,都会带来巨大的人身伤亡与财产损失,显然也完全可以归类于危害公共安全的行为之中。更为重要的是,面对一个即将开辟的庞大市场,人工智能汽车将普及到各个交通道路之中,存在着巨大的安全隐患。可见,人工智能汽车不仅具有具体维度的法益侵害性,同时还具有抽象层面的法益侵胁性,应该受到刑法的评价,这是刑法的机能在出入罪方面的第二层波及。
民事法律规范所规定的的民事主体除了自然人之外还有法人。众所周知,法人是法律拟制的主体,是在鼓励交易的精神之上,创设的独立性责任主体,具有独立人格。当然,在罪刑法定主义的限制之下,刑事的立法不能够类比于民事的立法。但是,法律拟制并不为罪行法定原则所禁止。人工智能汽车特别是全自动汽车,可以依靠自己的人工智能思维对整个驾驶过程全面把控。人工智能汽车拥有自己的独立决策系统,分为若干的模块,其中决策模块是驾驶系统的核心,可以感知根据环境感知系统获得的环境信息、车辆当前状态以及任务规划层规划的任务目标,采取恰当行为,保证车辆顺利地完成任务[2]。从某种角度来说,人工智能汽车正在实现拟制人格与自然人格的法律意义上的分离。准确来说,人工智能汽车已然拥有自己的独立决策系统与意思表示能力,在将来完全可以评价刑法意义上的人。刑法第3条后段才是关于罪刑法定原则的规定[3]48。该原则设立的初衷是限制立法机关的制刑权,同时也是限制司法机关的入罪权与施刑权。在人工智能时代,独立人格的显性化显然会从私权领域扩张到刑事法律规范的公法领域,刑法意义上的社会契约当事人是否应该考虑扩张的可行性呢?刑法是社会的历史的产物,有什么样的社会必然有什么样的刑法[4]。人工智能时代的到来,刑法必然因为固有的滞后性与稳定性,存在机械化的缺陷。另外,罪刑法定主义是刑法解释论的产物,无论是形式解释还是实质解释都是在既有刑法规定基础之上的。因此,科技在发展,时代在变革,突破刑法原有主体创设独立拟制人格并不是对罪刑法定主义的违背,反而是在校正刑法的机械性缺陷。尽管就目前人工智能的发展水平来看,人工智能汽车不能够实现刑法拟制的独立人格,但是可以遇见,在不久的未来,人工智能不断成熟,将其单独作为独立刑法主体并非不可能。
刑法的谦抑性是指依据一定的规则来控制刑法的处罚范围与处罚程度[5]。刑法的谦虚与抑制主要表现在两个维度:罪与非罪、罪轻与罪重。人工智能汽车肇事行为的入刑问题显然属于第一个维度的内容。刑法应当具有宽容性与包容性,只有在习惯、道德与其他法律规范无法发挥规制作用之时,刑法才会适时地介入。但是,刑法的谦抑性必然存在着反向定律,这种定律是度的定律,这个度是一般社会人的容忍限度。刑法之所以将交通肇事行为规定为可罚的行为,是因为即便是在行为人过失的主观态度下该行为依然有惩罚的必要性。过失犯罪的成立都以存在实害结果为前提,无论是人为肇事还是人工智能汽车肇事,其物理上的破坏力不会有实质性的差异,都会对人身和财产带来很大的威胁性,都存在着不能为社会一般人所容忍的非难性。如果仅仅是因为实体的脱离就无法得到刑法同等价值的评价,必然有失公平正义。倘若认为人工智能汽车肇事行为是由于人工智能本身无法成为责任主体而不成立犯罪,那么难免会为高科技犯罪提供理论空间。随着人工智能技术的不断发展与成熟,智能汽车系统的人格独立性越来越强,那么其道德伦理风险性(参照克隆技术)必然也会越来越高。尽管刑法教义学基础之上的风险刑法不为通说可取,犯罪的成立也需要不法与责任的相一致,但是伦理风险依然是调整刑法处罚范围的必要参考因素。有学者认为AI不能够成为刑事责任主体是因为不具备成熟的伦理道德观[6]。笔者认为,这种观点诚然是严格恪守了责任主义原则,但是这是在个案具体认定犯罪的过程应该考虑的主客观统一的问题,非入刑实质化所关注的问题。而对于人工智能汽车而言,从宏观角度来看,其已经具有概括的伦理道德风险,抽象的判断已经足够先行于具体判断得出的结论[7]46。因此,对于人工智能汽车肇事行为,刑法不应该无动于衷甚至束手无策[8]。
区别于刑法分则规定的交通肇事罪,人工智能汽车肇事行为责任主体的认定更为复杂,原因在于人工智能本身就是一个复杂的工程,涉及到的相关主体具有多元性。如果将人工智能汽车肇事行为纳入刑法的规制,那么如何完成刑事责任在相关主体之间的划分呢?换句话来说,谁是更为适格的刑事责任主体呢?正如笔者前面所述,人工智能的诞生与发展使得刑法拟制独立人格渐渐地从自然主体身上分离出来,越来越具有进行独立刑法评价的条件,那么是否就是说人工智能汽车本身就可以承担完全的刑事责任?答案是否定的。就现阶段来看,人工智能汽车并不具备独立承担肇事行为全部刑事责任的资格。就目前人工智能的发展水平而言,如果让人工智能汽车本身承担全部的刑事责任不仅是有失公允的,同时也超出了国民期待的可能性。笔者认为,应当从两个向度来看待刑事责任的归属。以人工智能汽车的关联性分为内外两个向度,第一向度是人工智能汽车与系统设计者(汽车制造者)之间的内在层面。人工智能汽车具有一定的特殊性,其行为模式存在两种类型:如果是在原有编程的范围内发生了意外,这是执行的人的意志;如果是其超出了原有程序实施的自己的指令导致了肇事行为,这是其自我意志的实现。因此,从责任主体的分离来看,如果是前一种状况导致的错误,人工智能系统显然是犯罪的工具而非犯罪的主体,其刑事责任显然应当归属于汽车的制造商与系统设计者;如果是后一种,那么自然是人工智能汽车自身的原因,在人工智能不能直接成为刑法主体的前提下,应定性为意外事件。第二向度是人工智能汽车与汽车驾驶人的外在层面,如果是全自动人工智能汽车,那么就不需要驾驶人员的任何操作,驾驶人完全不需要承担刑事责任,如果是半自动人工智能汽车,倘若是由于驾驶人没有完成关键的操作导致的交通肇事,驾驶人应当承担刑事责任。
按照传统刑法四要件的理论,普通交通肇事罪与人工智能汽车肇事行为在客体与客观方面没有多大的差异,但是在主体与主观方面就有了实质性的差别。犯罪是客观不法与主观有责的统一,责任主义是进行定罪量刑必须遵循的原则。广义的责任主义包括主观责任和个人责任两个原则,其中的主观责任指的就是对行为人非难的可能性,责任的判断是个别的判断,是人格的非难可能性[9]121。那么,人工智能汽车肇事行为是否具有刑法的非难可能性呢?讨论非难的可能性这个问题必然要承接上述所提及的谁是人工智能汽车肇事行为适格的刑事责任主体的问题。尽管人工智能的发展为学界讨论刑法拟制人格提供了可能,但是就目前的科技水平来看,将人工智能汽车自身作为独立的刑事责任主体来考量仍不成熟。换句话来说,在现有刑法体系与其他交通法规不变的前提下,让人工智能汽车亦或人工智能系统本身作为独立刑事责任主体不具有现实性。原因在于,在刑法总则故意与过失的判断当中,存在着理论的困难性。笔者认为,可以将人工智能作为独立责任主体的情况放在后续的深度研究之中,以目前的实际状况来看,完全可以通过拟制人格否定,将故意与过失的判断归于人工智能背后的人,而非人工智能本身。因此,将人工智能肇事行为的故意过失判断应分两种情况。第一,在半自动人工智能汽车肇事的情况下,在事故责任认定的过程之中,如果是由于驾驶人违反交通法规而导致了危害的结果,那么驾驶人主观过失的定性显然没有异议。第二,如果是全自动人工智能汽车肇事,那么要看人工智能系统执行的是何种操作。如前所述,如果是执行的原因设定程序,仍然可以分为两种情况考虑。如果是故意设置程序进行犯罪,那么应当认定为故意;如果在程序设计的时候应当预见而没有预见程序存在的瑕疵,显然属于过失的范畴。如果是完全超出了原有程序,那么既不属于故意也不能定性为过失,而应归类为意外事件。
我国刑法已经对汽车肇事行为规定了交通肇事罪的规定。但是就交通肇事罪而言只适用于自然人违反交通运输法规,发生交通肇事的行为。正如笔者前面所述,人工智能汽车肇事设计的主体不仅具有多元性,故意与过失的划分也因情况而定。在半自动汽车肇事的情况下,驾驶人因为没有遵守交通运输法规而导致了严重的交通事故,当然可以适用刑法133条的规定。对于故意编造错误程序企图杀人的行为,可以依法认定为刑法232条的故意杀人罪。但是对于系统设计者(汽车制造商)过失导致人工智能汽车肇事的情况,又该如何进行评价呢?是否也可以依照刑罚133条交通肇事罪来处理呢?笔者认为,讨论这个问题要将视野从人工智能汽车肇事一个特例上升到人工智能犯罪的整体概念来看,除了人工智能汽车还有人工智能机器人等一系列人工智能的延伸产品,都可能导致犯罪。同样,在科技发展的大潮流下,也应该站到一个更高的高度去看刑法立法体系以及刑事立法的未来。因此,可以在刑法分则之中设置关于人工智能犯罪的整体罪名,如果针对人工智能汽车肇事行为制定单独的罪名,可以预计在不久的未来将会涌现出一大批人工智能犯罪行为,必然也会使得刑事立法成本大幅度提高。笔者认为可以根据故意与过失来设定人工智能犯罪的分则罪名,表现在故意方面的为滥用人工智能罪,表现在过失方面的为过失导致人工智能罪。通过这两种类型的犯罪,不仅可以将人工智能汽车的肇事情形完全评价在内,也可以将其他人工智能犯罪评价在内,概括性立法的模式更符合刑事立法的发展。
随着人工智能技术的不断发展与成熟,其在刑事法律方面的风险与挑战应该成为学术研究的重点领域。人工智能是一把双刃剑,在给人类带来便利的同时,更需要法律予以规制以防范其风险。目前来看,人工智能汽车肇事已经成为了现实生活中可能频繁发生的社会现象,但也仅仅是人工智能风险的缩影。因此,在人工智能时代,如何更好地发挥刑法的机能是必须重点研究的预见性问题。只有提前构筑刑法在人工智能方面的规范体系,才能更好地引导其发展和完善。