曹更莹
摘 要:弱人工智能遵循人类设计和编制的程序,其不具有独立意识,本质上是便捷人类生活的工具;强人工智能随着科技发展或许可具有一定“独立意识”,但这种意识仍然是人类先验知识的延伸,其不能够达到人类“自由意识”的高度。所以,基于刑法体系稳定性及社会伦理的考量,不宜将人工智能体纳入刑事责任主体范围内。承认肯定说观点将意味着刑法体系的“回炉重造”,对于整个刑法理论体系将产生“质变”影响。时下,对人工智能体的风险防范应主要致力于如何确保其未来发展的“可控性”。
关键词:人工智能;刑事责任主体;独立意识;刑法体系
中图分类号:D914 文献标志码:A 文章编号:1673-291X(2023)02-0158-03
一、问题的提出
科学技术的进步推动人工智能技术走向成熟,在给人类生活带来极大便捷的同时,也带来了不确定性和安全风险。库兹韦尔在其奇点理论中提到人工智能在未来的某个时刻极大可能出现发展的不可控性,并预测2045年人工智能将超越人的智能[1]。而在此之前也有人做过此类猜想。2004年上映的由艾历士普罗亚斯执导的电影《机械公敌》将人工智能发展的潜在危险直接展现在银幕上。该影片从人与智能机器人的关系的角度为未来人工智能的发展敲响了警钟。当人工智能体具备独立意识时,极可能对人类产生“反控”风险。为了预防这种风险,有学者从刑法角度探讨如何规制此类风险。以影片中智能机器人桑尼为例,如果真的涉嫌故意杀人,能否利用刑法对其处罚?或者智能机器人可否成为刑事主体?对此,学界存在三种不同观点。肯定说认为,智能机器人通过深人学习产生自主意识和意志,在设计和编制的程序范围外实施符合犯罪构成的具有严重社会危害性的行为时就应当承担刑事责任[2]。否定说认为,在认知思维、自由意志以及情感动机等方面,人工智能与人类存在很大差异,刑法规制的对象只能是人,人工智能无法具备刑事责任主体资格[3]。折中说则认为,对于人工智能刑事责任主体问题应当区分讨论,弱人工智能本质上仍然是研发者意志的扩展,无法独立承担刑事责任;但具备独立意识的强人工智能可以独立实施刑法意义上的危害行为,亦可以成为刑事责任主体[4]。肯定说与折中说存在的弊端在于,将未来人工智能发展的假设或者推定的命题,以过度前瞻性预防思想进行防范,极大降低了人类对未来世界的主导作用,从而导致该命题被部分学者批判为一个“伪命题”。本文认为,对于人工智能可否成为刑事责任主体,应当保持谨慎、理性态度,对于人工智能的研究应当遵循社会发展现实。在讨论该问题时,首先应当明确以下几个问题。第一,人工智能可否拥有与人类相当的独立意识?第二,人工智能拥有了独立意识,是否就可以成为刑事责任主体呢?第三,人工智能纳入刑事责任主体的必要性有多大?假如该命题成立会对刑法体系造成什么影响?
二、人工智能刑事主体资格之反思
(一)人工智能独立意识之反思
根据人工智能发展的不同层次,人工智能分为弱人工智能和强人工智能。弱人工智能遵循设计者编制和设计的程序,其实施各种活动需要在人类设置的指令范围内进行,因此其无法形成自主意识,仍然属于人类控制范围内的一种工具。在当前科技水平发展阶段,常见的智能机器人大部分属于弱人工智能产品,其本身所作的各种决策仅仅是程序开发者意志的体现,或者说他们是人类创造的一种智能工具。因此,对于弱人工智能产品所带来的刑事风险,寻找规制研发者的刑法策略为最佳预防途径。而强人工智能是指能够超出设计和编制的程序范围活动的智能机器人,具备独立意识并可实施相应行为,实现自身的意志[5]。这类人工智能体具备独立意识,能够独立实施活动,因而也对人类安全构成潜在威胁。正是由此,学界部分学者希望将该类人工智能体纳入刑法规制对象,以防范未来可能出现的风险。但刑罚的对象是人。我们需要关注的是,强人工智能体所具备的独立意识是否与人类意识相同?
从哲学的角度来看,人脑是人类意识存在的物质基础,离开人脑,人则无法感知世界,也就无法形成意识。同时,意识的本质特征还在于“意识到必须和周边的人们来往”,如果不与周围之人来往,那么他就脱离了社会关系,即使他具备一定的人脑的生理机能,也不会有人的意識[6]。而事实上科学技术发展的有限性及人脑结构的高度复杂性,决定了强人工智能体无法克隆人类完全一样的大脑,也无法同人类一样形成稳固的社会关系。很多学者将强人工智能称为“类人型机器人”,实际也认可了人工智能的发展只能无限接近于人类,而无法实现完全复制。那么,强人工智能拥有的独立意识在一定意义上仍然是人类意识的体现。
从人的经验与情感方面来看,人类的经验具有独特性和差异性。每个人在生活中的经历各不相同,因此,他们对同一件事结合个人的经验、常识、直觉等很可能产生不同的看法或者不同的处理方式。而这一点恰恰是强人工智能无法模拟的。同时,强人工智能具有的情感与人类有较大差距。强人工智能所能体会的“喜怒哀乐”仍然是对数据的分析和处理,即使将来真正出现“情感型机器人”,这种“情感”仍会以人类情感为模板,并非属于自身的、独特的、真实形成的一种意识活动。如明斯基所言:“情感是先于理智存在的,人工智能只有智力,没有情感,不是真正的智能[7]。人类的经验和情感的不可复制性也决定了强人工智能不能具备人类那样的意识。综上,弱人工智能不存在具备人类意识的条件,即便未来强人工智能有一定独立意识,但与人类自由的意识并不相同。那么,当人工智能拥有一定独立意识时是否就具备了刑事责任主体资格呢?
(二)人工智能刑事责任能力之反思
强人工智能体即使形成一定独立意识,但这种意识也非绝对自由的意识。恩格斯曾经指出:“如果不谈所谓自由意志、人的责任、必然和自由的关系等问题,就不能很好地讨论道德和法的问题[8]”。主体未达到形成自由意志的阶段,便意味着对自身行为无法真正具备控制能力。而我国刑法在讨论刑事责任能力时,主要考察年龄与精神状态。这主要因为年龄与精神状态影响行为人的辨认与控制能力。只有当行为人同时具备辨认能力与控制能力时,刑法对其才具有非难可能性,才能对其处刑罚。而强人工智能自由意志的欠缺决定了它们并不能完全独立地实施一系列行为,无法真正形成人类一样的控制能力。同时,刑法上的危害行为必须要求在行为人意志的支配下实施,而强人工智能客观表现的各种行为举动并非受特定意志支配,因此,其不具备实施刑法上危害行为的主观条件,同时,由于不具备对行为的真正控制能力,也就不符合刑事责任主体资格。正如有学者指出的,“人类思维和AI 永远是模拟与被模拟、操控与被操控之间的关系,人类大脑是AI 可以无限接近但不可逾越的地平线。”[9]人工智能体终究是人类智慧的创造物,因而在任何时候都无法真正脱离人类的控制,其所实施的行为或多或少都会掺杂着人类的意志。
综上,强人工智能不具备刑事责任能力,也无法满足刑事责任主体条件。刑法亦是处罚人的法律,人工智能体不能拥有与人类相同的自由意识,不能对自身行为作出是非善恶之分,因而也就不是一个适格的刑事责任主体。
三、人工智能纳入刑事主体对刑法体系的影响
肯定说论者以前瞻性观点对未来人工智能可能实施的危害行为提出完善立法的建议。不可否认,这种追求对法益侵害事先预防的观点,正符合当下理论界所倡导的积极主义刑事立法观。但对于一种极为遥远的可能性问题甚至无法到来的时代,立法的必要性有多大着实有待于商榷。对人工智能领域的风险预防,肯定论提出将人工智能纳入刑法规制范围的设想。但这种设想并非一种积极主义的刑事立法观,而属于一种非理性、激进式的立法观。刑事立法应当考量刑法的体系设置与实施的现实可能性,并非是随意增设新罪。正如有学者所言,积极主义不是随心所欲的滥用,也不意味着在社会治理中的首当其冲,相反强调的是与刑法在法体系中的地位和功能相协调下的适度的、理性的犯罪化。如果强行将人工智能体纳入刑事责任主体范围内,那就势必会对整个刑法体系造成前所未有的冲击;刑事责任主体的扩张将会导致刑事立法及相关刑法理论的重新构建,其任务量之大必定是立法者及理论界当下及未来很长一段时间内所无法完成的。
刑事立法的修改将直接影响刑法中的具体理论。人工智能纳入刑事责任主体范围,首先要通过刑事立法来具体实现。而这一立法变动对刑法理论有着“牵一发而动全身”的影响。如果持肯定说论者的建议真正实施于立法之中,那么诸多刑法理论也将随之重新定义,甚至丧失意义。以法益保护原则为例,刑法是通过损害一部分法益(适用刑罚)来保护另一部分法益的[10]。在人工智能可否具备刑事责任主体资格的争议中,无论持肯定说学者或否定说学者,所关注的焦点都在于对具有自主意识的人工智能对人类造成危害时如何规制,而没有从相反的角度考虑,亦即假如人工智能可以作为刑事责任主体,那当人类或是人工智能针对人工智能实施的犯罪行为是否需要保护呢?人工智能是否有值得保护的法益?既然肯定说学者认为人工智能应当为其自主意识支配下实施的犯罪行为承担责任,那其权利同样也应当得到刑法的保护。权利与义务是一对相互的概念,任何一部法律都不可能仅规定权利或者仅规定义务。同一法律主体对于两者也属于兼而有之的状态。而事实上,部分肯定说论者的讨论局限于人工智能犯罪时如何利用刑法规制其犯罪行为。换言之,如何为人工智能制定一套全新的刑法意义上的义务?但是,这种讨论基本未对如何保障人工智能的法益有所涉及。根据权利与义务的依存关系,设置刑法上人工智能主体义务的同时,也应当考虑为其制定一套全新的法益保护标准,使得其合法权益得到保障。而事实上这一标准是难以实现的。人工智能所实施的犯罪与自然人的法益,或者自然人所实施的犯罪与人工智能的法益之间的比例性问题本身就是一大难题。例如,当人工智能实施故意杀人,情节特别严重时,按照罪责刑相适应原则,应当剥夺其生命权;而实际上,人工智能并不具备这项权利,因为其本身就是非生命体。有学者提出对人工智能开发一套新的刑罚体系,即删除数据、修改程序、永久销毁[11]。但是,这种新型刑罚体系真正能够做到罪责刑相适应吗?永久销毁能否等同于剥夺人工智能的生命权,能否起到安抚被害人家属的作用?删除数据或者修改程序又与自然人哪种法益具有相当性?这些问题表明了肯定说理论仍然处于不成熟阶段,有待进一步探析。而本文认为,即使将来肯定说理论有了新的突破,在不承认自然人与人工智能法律意义上平等的前提下,此类问题仍会如“雨后春笋”般产生。
四、结论
综上所述,无论弱人工智能或是强人工智能都不宜成为刑事责任主体。因为人工智能不具备人的思维属性,无法同人类一样进行感知,而刑罚需是能为人所感知的,它是一种让人感受到恐惧的强制力,只有如此才能长久地约束和震慑那些犯罪的欲望。人工智能体会不到刑罚带来的痛苦,也就会降低对刑法的敬畏,从而致使刑罚功能落空。人工智能也无法同人类一样在社会网络中与他人交往。刑法所规制的犯罪行为是基于人与人之间的某种关系而产生的。人工智能无论是对知识的获取、对行为的认知还是对情境的反映等,都是在特定的現实空间或虚拟空间里进行的,并非是参与社会活动的结果,因而不具有社会性,而只具有自然性、反射性[3]。进而言之,人工智能不能摆脱人类的控制,其本质意义上始终是为人类服务的工具。如果说将来人工智能真正实现独立思考、能够自主支配行为、对人类能够实施“反控”时,那么造就这类人工智能体的意义是什么?既然这类人工智能体本身就存在风险,不如趁早将其扼杀在摇篮里。对人工智能“居安思危”固然是没错的,但并非一定要利用刑法防御风险。当下,最应当致力于如何保障人工智能在人类可控范围内发展,这要比增设一个新的刑事责任主体更为简便。“防患于未然”才是时下最好的一个选择。
参考文献:
[1] 雷·库兹韦尔.奇点临近[M].李庆诚,等,译.北京:机械工业出版社,2011:80.
[2] 刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[J].法学,2018,(1):40-47.
[3] 叶良芳.人工智能是适格的刑事责任主体吗?[J].环球法律评论,2019,(4):67-82.
[4] 王肃之.人工智能犯罪的理论与立法问题初探[J].大连理工大学学报:社会科学版,2018,(4):53-63.
[5] 刘宪权,房慧颖.如何划分智能机器人的刑事责任?[J].公民与法:综合版,2018,(6):30-31.
[6] 张鹤鸣.意识是人脑的机能吗[J].学术研究,1986,(3):51-56.
[7] 马文·明斯基.情感机器:人工智能与人类思维的未来[M].王文革,等,译.杭州:浙江人民出版社,2016.
[8] 马克思恩格斯选集:第3卷[M].北京:人民出版社,2012:490-491.
[9] 张劲松.人是机器的尺度——论人工智能与人类主体性[J].自然辩证法研究,2017,(1):49-54.
[10] 张明楷.法益保护与比例原则[J].中国社会科学,2017,(7):88-108,205-206.
[11] 刘宪权.人工智能时代刑事责任与刑罚体系的重构[J].政治与法律,2018,(3):89-99.
[责任编辑 兴 华]