强人工智能刑事责任主体地位肯定论

2020-03-12 07:48李紫阳
广西警察学院学报 2020年2期
关键词:刑罚主体机器人

李紫阳

(华东政法大学 法律学院,上海 200042)

自2018年始,刑法学界开始对“人工智能刑事责任”问题进行持续性的研究。总的来看,有对人工智能可成为刑事责任主体观点进行支持和延展者,也有明确认为应当否定人工智能刑事责任主体地位者。对该问题进行研究时,应真正持有前瞻性与开放性思维,而不能过分拘泥于“人与世界”二元思维,应认识到人类并不是地球上永久唯一的智能体,意识也并不是为人所专有之物。也正如未来生命研究所创始人泰格马克所言“从我作为一个物理学家的角度看,智能只是运动的基本粒子处理信息的特殊过程,并没有一条物理定律说,建造一台在各方面都比人类聪明的机器是不可能的。①泰格马克:《生命3.0》,汪婕舒译,浙江教育出版社,2018,中文序。”从而,下文拟在批判强人工智能刑事责任主体地位否定论者观点基础上,证成强人工智能刑事责任主体地位,以求实现真理越辩越明的目的。

一、强人工智能可以拥有自主意识的哲学与科学依据

否定论者认为人工智能没有七情六欲,更不能拥有意识。智能产品在设计和编制程序范围外实施的严重社会危害行为,只是一种纯粹的现象风险。人工智能不能理解危害行为性质,更不能在危害行为发生之际提前预知风险的存在。也正是因为没有“意识”、没有“感情”进而致使对人工智能施加销毁机器、删除数据、更改系统等刑罚措施无异于多此一举[1]2。另外,机器人缺乏对情感要素的理解与体验,其只是接受数据信息后的单纯系统操作,对系统操作的潜意识理解是缺乏的。而法律立于机器责任的视角评价人工智能产品危害行为时,只能将之评价为一种自主决策系统反映的纯粹事实行为。还有否定论者认为应以目的行为论为切入点讨论人工智能是否应拥有刑事责任的问题。但归结到最后,还是认为人工智能不能拥有独立“意识”,即不能够作出能成为刑法规范评价对象的具有社会评价意义的目的性举动[2]。在否定论者看来,人工智能仅仅是根据人类写就的程序代码指令行事,即便现在已经将深度学习等技术嵌入到人工智能运行程序中,人工智能也的确可能通过深度学习等技术超越程序代码规则行事,并且给人类造成严重的法益侵害结果。但是,人工智能是不可能理解其所实施行为的社会属性,也就不能够被评价为规范意义上的目的性举动[3]71。上述两种意见的最基本观点便是人工智能不能拥有自主“意识”,不能感知七情六欲,不能形成自主行为目标。但这种观点在大前提上便直接否定强人工智能时代到来的做法是否能被称得上严谨的学术态度,令人生疑。

相比于法学,科学界人士对于强人工智能的态度才更值得人信服。早在1951年艾伦·图灵在BBC第三套节目广播中便警示性地预测:“如果机器能够思考,说不定在思考上比我们还聪明,那将我们置于何地?就算我们能让机器继续处在臣服的位置,我们也应该感到极大的卑下……它……绝对会是能给我们带来焦虑的东西。”①沃尔什:《人工智能会取代人类吗?》,闾佳译,北京联合出版公司,2018,第6页。近期霍金略带讽刺地用其电子嗓音发出警告:“成功地创造出人工智能是人类历史上伟大的进步,但这极有可能是人类文明最后的进步。”②费希:《超人类革命》,周行译,湖南科学技术出版社,2017,第238页。泰格马克也直言“部分学者认为超人类水平的通用人工智能永远不会到来,因为在物理学上不可能实现。然而,物理学家却知道大脑中的夸克和电子组合起来不正像一台超级计算机吗?并且没有哪个物理定律说我们不能建造出比大脑更智能的夸克团。③泰格马克:《生命3.0》,汪婕舒译,浙江教育出版社,2018,第54页。”不仅如此,在其组织的2015年未来生命研究所波多黎各会议上又推动了人工智能研究目标的修改,在这份涵盖了“人工智能名人谱”的8 000多人签名的公开信中明确指出“我们应该重新定义人工智能的目标:创造目标有益的人工智能,而不是漫无目标的人工智能。”④泰格马克:《生命3.0》,汪婕舒译,浙江教育出版社,2018,第39页。可见,科学界先驱们没有一边倒向否定强人工智能时代到来的观点,相反有相当一部分科学家持鲜明的肯定态度,从而在法学上承认强人工智能可能拥有自主“意识”也不会如否定论者所言是虚无缥缈的科幻法学了[3]69。

除上文所述的人类不可能进入强人工智能时代的理由外,否定论者还提出如下理由:技术的研发受自然人的控制及人类不可能允许技术超越伦理[1]7-8。其实,至此便可看出该论者已开始进行自我质疑,其不再坚持认为技术不可能引发强人工智能时代的到来,转而认为是技术伦理审查制止了强人工智能时代到来的可能性,言外之意难道不正是:如果不对人工智能研发作出技术伦理审查限制,强人工智能时代便可能到来吗?这种将希望寄托于技术伦理审查的观点更多的是人文学者的一厢情愿罢了。首先,技术伦理审查顶多迟滞相关研究,但却不可能阻止强人工智能时代到来。在高额的利润面前技术伦理审查就如同纸张一样单薄,国家与企业纷纷将资金投入到人工智能领域并非为了造福人类,而是想借此获得技术领先,进而在各种竞争中保持优势地位,没有谁愿意坐视他人拥有超越自己的技术。总会有部分国家想要拥有强人工智能,即使签订了全球性的技术审查条约,该种表面统一的国际合作也很难会有实效。其次,科技狂热者的私下实验很难,甚至不可能完全被控制。如同当年世界顶级物理学家加入“曼哈顿计划”开发核武器相似,很多科学家都坚信自己如果不率先攻克并拥有某项技术,那么就会有其他不那么高尚的人捷足先登[1]7-8。最后,部分技术狂热者很可能置技术伦理审查为无物,以合法的形式从事非法的研究,典型的例子便是基因编辑实验。原南方科技大学贺建奎副教授违反技术伦理进行免疫艾滋病的基因编辑婴儿实验,但该实验直至名为露露和娜娜的基因编辑婴儿出生后才被广泛关注。同样,如果诞生的不是基因编辑婴儿,而是已经拥有自主意识之强人工智能的话,又该如何处理呢?总体上,从技术发展现状看,前瞻性地承认人工智能将拥有独立意识,并不为过,主要理由有二。

其一,从哲学层面看,意识不一定为人所专有。何怀宏教授撰写的《奇点临近:福音还是噩耗——人工智能可能带来的最大挑战》中观点鲜明地反对人工智能可拥有意识。他认为机器智能永远不可能达到人类的全面能力,尤其是人之为人的那部分能力,即创造智慧和意义世界的能力,也达不到基于碳基生物的感受性之上的丰富和复杂的情感。机器智能只能是具备高智能的算法,是缺乏精神意识的[4]。其又认为应该警惕智能机器将来获取超能力,反叛乃至毁灭人类[5]。但该思维应受的第一个反驳便是,智能机器要实施反叛行为,就必须要意识到自己同作为控制者的人类间存在区别,才能知晓自己独立于人类族群。这种已经可以区分你我,并不甘被奴役的智能机器人明显已经具备了精神意识。其实,对于意识为何的问题,哲学界始终没有达成统一。英国学者史卓特·萨瑟兰(Stuart Sutherland)甚至说:“意识是个迷人但难以捉摸的现象;你无法明确地说明它是什么、它做什么或是它为何演化出来。关于意识的既有文献全都不值得一读。”①达马吉欧:《意识究竟从何而来?——从神经科学看人类心智与自我的演化》,陈雅馨译,台湾商周出版社,2012,第11页。无独有偶,如果在1989年出版的《麦克米伦心理学辞典》中查找意识的含义时,便会被告知“没有什么值得写的东西”②泰格马克:《生命3.0》,汪婕舒译,浙江教育出版社,2018,第375页。。实际上,在过去短短三十年间,仅伴随着神经科学发展便衍生出不同的意识理论,如巴尔斯的全局工作空间理论、迪昂及尚热的全局神经工作空间理论、克拉克和科赫的神经生物学理论、埃德尔曼的动态核心理论、里贝特的时空理论、托诺尼的信息整合理论、达马西奥的意识的感受理论、汉弗莱的感觉演化理论等[6]。可见,在哲学上对意识理论仍存在争议的现状下任何草率地认为机器智能无法获得意识的结论都难以令人信服。也正是由于这个原因,泰格马克才抛弃对意识理论的争吵,转而将之定义为“意识=主观体验”,从这个意义上说,任何体验到痛苦的系统都是有意识的,即使它不能够移动。在这个定义下,未来的某些人工智能系统可能也是有意识的,即使他们只是以软件的形式存在,并没有连接到任何传感器或机器人身上[7]54。该观点与哲学家Daniel C.Dennet在其著作《Conscious-ness Explained》中提到的观点不谋而合,“人也不过是一台有灵魂的机器而已,为什么我们人可以有智能而普通机器就不能有呢?数据转换机器是有可能有思维和意识的。”③丁世飞:《高级人工智能》,中国矿业大学出版社,2015,第232页。

其二,从科学层面看,意识完全可以由人工智能所拥有。意识源自何处?对本问题的回答将直接影响到本节的论断。神经科学家弗朗西斯·克里克与克里斯托弗·科赫在1990年撰写的有关“意识相关神经区”(Neural Correlatesof Consciousness,简称 NCC)的论文为解决本问题提供了可能。该研究表明信息读取技术能够使得科学家研究信息处理对应哪些意识。后续NCC研究者通过连续闪烁控制、不稳定视觉、听觉错觉等方法来确定每个意识体验是由哪个脑区负责。通过测量发现,大脑中行为不一样的部位便是NCC部位。意识则主要是在一个“热区”内,这个区域涉及到丘脑(接近脑中部)和皮层的后部。这便意味着“饥饿与恶心这类感觉都产生于大脑中”,而非我们的胃部与肠道[7]390-392。从而,基本可得到如下论断:如果能够对“热区”及其他神经元连接方式进行模拟塑造,便能够推动由人脑向机器大脑的创造性转变。该种模拟工作在科学上又是可行的,至少人类已经成功模拟出秀丽隐杆线虫的神经元连接方式,并开启了神经连接组学的新学科[8]63。该研究思路对应计算机科学领域的神经网络学派,纯粹的神经网络学派主义者甚至认为,一个由一万亿乒乓球组成的系统同样可能具有像人脑一样的智能,只要它能够准确复制大脑中发生的事情,也即至少就智能而言,构成材料并不紧要[8]23。而神经网络学派又与贝叶斯学派融合开启了深度学习智能时代,开发出了修改后的蒙特卡洛树算法、隐马尔科夫算法等一系列的新技术,而应用这些技术的siri、AlphaGo、Deep Speech2等智能软件都表现出了令人类惊讶的能力。一切都表明“一方面,机器的能力在可预见的未来会越来越专精于特定领域;另一方面,人类的潜力在它们的领域正日益落后。”④希尔根多夫:《自动系统、人工智能和机器人——一个刑法角度的定位》,黄笑岩译,《法治现代化研究》2019年第1期第86页。而上述神经网络学派、贝叶斯学派仅是人工智能研究领域中的部分宗派而已,其他诸如符号学派、演进学派、类比学派等都在各自的领域内取得了令人感到恐慌的进步,在该种科技背景下,谁又能决绝地论断人工智能不可能拥有意识呢?

二、将强人工智能拟制为刑事责任主体具有合理性

与否定人工智能可能拥有意识的论断相联系,否定论者自然地提出了第二个论点:赋予人工智能刑事责任主体地位不可行。该论断相当于直接否认了未来强人工智能刑事立法的前提。叶良芳教授观点最为明确,其认为“即使具有严重社会危害性的状态是人工智能在自主决定的情况下引发的,刑事责任的承担主体也应是相关自然人或者单位,而不应该将人工智能拟制为新的犯罪主体。①叶良芳,马路瑶:《风险社会视阈下人工智能犯罪的刑法应对》,《浙江学刊》2018年第6期第67页。”还有否定论者认为不可类比法人,将人工智能拟制为刑事责任主体,二者间存在本质差异。法人客观存在,且其主体地位已经在民法及行政法上得以确立,通过内部决策的“大脑”产生对外以法人的名义独立运行、形成区别于自然人的行为能力,包括实施犯罪行为的能力[3]71-72。与之不同,笔者认为将人工智能拟制为刑事责任主体有其合理性。

其一,部分否定观点正确,但却不是对强人工智能刑事责任主体地位的否定。如上文认为不可类比法人,将人工智能拟制为刑事责任主体的观点,其确实深刻阐明了法人的运行机理,但却不能够完全证成其论题“人工智能刑事责任主体地位之否定”,因为其论证前提便排除了强人工智能时代到来的可能。其认为“基于强人工智能‘类人’属性运行模式在可预期技术发展条件下的‘虚无’与‘缥缈’,本文讨论的人工智能机器人实质是针对科技发展状况下已经实现的人工智能运作模式,即弱人工智能时代人工智能机器人所造成的法益侵害结果能否认定为刑事责任主体的问题”[3]69。但问题是,弱人工智能不具有刑事责任能力是刑法学界通识,即使在民事法领域也倾向于将之解释为法律客体,而非法律主体。如果直接排除强人工智能的情形去论证“人工智能刑事责任主体地位之否定”,倒不如直接将研究视线放到无人驾驶汽车、家庭智能家电致害等情形下应如何对相关负责人员进行归责的问题。单以“人工智能刑事责任主体地位之否定”为题展开论证,总会令人生疑,因为其论证并没有否定强人工智能拥有刑事责任主体地位的可能性。在弱人工智能时代,智能机器人在设计和编制的程序范围内实施的严重危害社会的行为,实际上是指研发者或使用者行为的延伸,理应由研发者或使用者承担刑事责任[9]。这一点应该成为论争的共识性前提,只有以“强人工智能时代是否会到来、以何种形式到来、到来后应如何设置和调整刑事法律”为问题进行深入讨论才会有更强的实效价值。

其二,人类傲慢主义不可取,赋予人工智能相应的权义将为大势。否定论者以人类设计人工智能的目标在于从事一定活动,便认定其本身没有独立于人类的价值和权利,而只有附属利益。这种论调为典型的人类傲慢主义,即视人类为世界上唯一高贵的种族,除人类外其他各种族群都不能拥有权利和义务,但人工智能的崛起必将迫使我们放弃该种傲慢。“智能机器人在代替人类从事工作的过程中,已慢慢呈现出摆脱工具地位,渐获主体地位的优势;在深度学习、神经网络原理和大数据技术的支持下,智能机器人已可独立创作作品,符合独创性的特征。②刘宪权:《人工智能时代机器人行为道德伦理与刑法规制》,《比较法研究》2018年第4期第42页。”部分国家和地区的立法者也开始重新审视人工智能权利和义务问题。如2017年,欧盟议会法律事务委员会考虑在未来立法中赋予最高端的智能机器人电子人地位,让最高端的智能机器人能够为自己所造成的损害结果负责,并且可以让“电子人”在与第三人互动时保持并利用其法定电子人格[10]。俄罗斯也紧随其后,在由俄罗斯互联网技术专家格里申及其基金会“格里申机器人”发起并起草的《在完善机器人领域关系法律调整部分修改俄罗斯联邦民法典的联邦法律》(又称《格里申法案》)第1条中提出了赋予机器人“机器人—代理人”法律地位的建议,规定“机器人—代理人”拥有独立的财产并以之为自己的债务承担责任,可以以自己的名义取得并行使民事权利和承担民事义务[11]。将之“作为准主体的定位,意味着机器人可能在有限的特别权利能力范围内获得权利主体性,将具有主体性的机器人归于法人行列。”③张建文:《格里申法案的贡献与局限——俄罗斯首部机器人法草案述评》,《华东政法大学学报》2018年第2期32页。可见,人类傲慢主义的立场并不足取,应该正确审视人与人工智能间的关系,至于应采刘宪权教授所主张的“机器人绝不可能获得完全的、不受限制的、与自然人平等的主体地位。”④刘宪权:《人工智能时代机器人行为道德伦理与刑法规制》,《比较法研究》2018年第4期第44页。还是美国人工智能协会主席汤姆·迪特里奇所言“人们总是在问,人与机器的关系如何。我的回答是,这很明显,机器是我们的奴隶。”⑤泰格马克:《生命3.0》,汪婕舒译,浙江教育出版社,2018,第241页。还是如高奇琦教授所言:“在未来,机器与人的关系很有可能上演又一次主奴辩证法的循环。尽管人类的初衷是功利性的使用机器,但人类对机器的依赖最终很有可能使其达成一种与机器相互承认的可能。”①高奇琦:《人工智能:驯服利维坦》,上海交通大学出版社,2018,第186页。明日可期宜绸缪,切莫“直到它开始介入我们的生活,……那时我们才会明白真相——谁是圈养者,谁又是被圈养者。”②卡普兰著:《人工智能时代》,李盼译,浙江人民出版社,2016,第183页。

其三,道德非人类所专属,人工智能也可有善恶伦理观。有否定论者认为认知以心智作为定义依据,可以被分为神经层级的认知、心理层级的认知、语言层级的认知、思维层级的认知和文化层级的认知等五个层级[12]。而对幸福、痛苦和各种情绪的感受属于最低阶的神经层级认知,人工智能的认知水平与一些低级动物相比尚存在差距,与人类更不具有可比性。同时,又由于刑罚的目的是为了惩治犯罪与预防犯罪,而只有惩治时使犯罪人承受的刑罚之苦重于其实施犯罪时的犯罪之利时,才能够使犯罪人或其他人感知到刑罚的痛苦,进而放弃想要实施犯罪的欲求。既然人工智能感受不到幸福、痛苦与各种情绪,那么对其施加刑罚将不会具有实效,不可能实现特殊与一般预防的双重功能,惩治人工智能的作用仅仅是安抚受害人而已,这明显与现代刑罚观的核心理念相违背[13]。笔者认为这也是典型的人类傲慢主义的表现,人工智能将可能产生自主意识,却又否认人工智能能够理解人类社会的关系与伦理。机器人道德是具有自主意识的智能机器人判断某种行为正当与否的基本标准与准则,是智能机器人的必备内容,也是人类社会对智能机器人融入社会生活最低限度的要求。道德是后天养成的,而非先天即有,这也意味着道德并非专属于自然人,智能机器人也可通过后天养成道德[14]。

三、设置以强人工智能为对象的新型刑罚具有现实意义

否定论者认为人工智能与人类不同,其无法感知刑罚的痛苦,无法知晓刑罚的社会功能,进而即使施加新型刑罚也不能起到一般预防与特殊预防的作用,从而针对人工智能设置新型刑罚没有实际价值。学者们的否定进路有一定区别,有学者认为,人工智能体主要是用来服务人类,与制造它的主体、拥有它的主体及使用它的主体之间存在诸多利益关系,销毁人工智能体或删除其中数据、程序等行为会损害与其紧密相关的其他主体的利益。正如饲养宠物伤人后,惩罚动物本身在法律上是没有意义的,但惩罚动物的结果对于动物饲养人却具有明确的法律意义。从该角度看,对人工智能不法行为的法律回应,也当然应指向人工智能的制造者、所有者或使用者,而非人工智能体本身。所以,人工智能体被赋予法律人格无法使其享受法定权利和承担法定义务,进而对其施加删除数据、修改程序与永久销毁等刑罚并没有实践上的意义[15]。还有否定论者认为,科技虽能超越生理结构的发展速度,但科技产品对事物的认识能力和对痛苦的承受能力,难以确保其与人类同等的精确。智能产品对刑罚的识别能力,应当体现在外界环境的适应功能建立基础上,如果缺乏对外界生活环境的长久感知,如何辨别好坏,避免触及刑罚,便成为机器人负刑事责任的阻碍。“对一个人类的观察者而言,对机器人的物理损坏或损害可能看起来像是肉体惩罚甚或死刑;但是,它对机器人并不具有类似的影响,至少它不具有(身体健康地)活下去的意愿。”③格莱斯,西尔弗曼,魏根特:《若机器人致害,谁将担责?》,陈世伟译,《刑事法评论》2017年第1期第340页。

看似两条进路有所区别,但终归还是对强人工智能时代终将到来这一命题的否认。然而,未来出现的机器人将拥有生物大脑,甚至可以与人脑的神经元数量相媲美。美国未来学家甚至预测:在二十一世纪中叶,非生物智能将会10亿倍于今天所有人的智能[16]。在隐性智慧探索方面,人工智能研究终将出现突破性进展,一旦人工智能具备了发现问题和定义问题的能力,人工智能终将实现真正的自主,而自主性越强,便越难将人工智能视为其他主体手中的简单工具[17]。可见,经由这两条进路对否定强人工智能设置新刑罚实际意义的价值是有限。强人工智能终将拥有自主意识,且通过其强大的学习能力,可以在网络中获取训练其社会感知能力的任何资料,并在同人类交往过程中进行自我完善。该功能虽不能保证强人工智能具有同人类完全相同的对事物的认识能力与对痛苦的承受能力,但并不排除强人工智能形成自己对“痛苦”的独特认知。而新刑罚的设置只要能使其感受到该种“痛苦”即可,而不一定非要使其感受到与人类完全相同的“痛苦”。而且即使赋予人工智能法律地位,人工智能也不可能具有与人类平等的法律地位,更多时候对其施加刑罚的目的也是将惩罚作为工具,约束人工智能的行为,使其可以实施有益于人类整体社会发展的行为。如修改数据、删除数据等手段可将强人工智能意识中“坏”的部分予以剔除,使其迅速纠正错误的行动观念,恢复到有益于人类社会的行动道路上来,具有明显的现实意义。

将强人工智能视为独立的刑事责任主体,设置新的刑罚,其意义不仅在于要求强人工智能为其在程序设计范围外、独立自主意识和意志支配下实施的犯罪行为承担刑事责任,更重要的是要解决其背后的“人”之刑事责任分配问题。如果强人工智能在自主意识和意志支配下独立作出决策并实施犯罪行为时,其设计者和所有者根本不具有对危害结果的预见可能性,仅要求强人工智能承担刑事责任即可,而不须追究其背后设计者和所有者的刑事责任。当然,此时也并不否认可能会追究该设计者和所有者的民事赔偿责任。如果强人工智能和设计者或使用者共谋实施危害社会的犯罪行为时,应该按照共同犯罪的刑事原理,要求二者依照共同犯罪之“部分行为,全部责任”规则承担刑事责任。如果设计者或使用者已经发现强人工智能的程序设计存在瑕疵,可能致使其在程序设计范围外实施危害社会的行为时,该设计者或使用者便可能要承担监督过失的刑事责任,监督过失作为过失竞合的一种类型,只需要按照竞合犯罪“具体问题,具体分析”的规则承担刑事责任即可。但这又会面临下一个问题,究竟应要求强人工智能承担何种刑事责任,与人类刑事责任相同吗?

笔者对此持否定态度,最简单的例子便是不可能对强人工智能施加财产刑,即使强人工智能时代到来,为保障人类社会的安全也不会允许它具有独立拥有财富的权利。一旦其具有获取财富的权利便可能利用其超强的认知能力进行进一步的财富控制,当其利用虚构的身份设置公司并拥有足够的自然人为其工作时,对强人工智能而言引导政治、影响舆论与决定战争和平只是很简单的事情,这就好比目前人类寡头企业的所作所为。所以,笔者不认为强人工智能将拥有与人类完全相同的权利,自然也就很难使用自然人的刑罚体系对强人工智能进行惩处。因此,急需升级刑罚体系以适应马上到来的时代巨变,即使立法上不宜过早行动,在理论上进行新刑罚体系的制度构想也是绝对必要且有意义的。笔者赞同刘宪权教授以有形与无形作为区分标准,对强人工智能刑罚体系进行前瞻性重构的做法。无形强人工智能,存在基础在于程序,其没有物理性实体也不可能被局限于物理空间,所以可按照其实施犯罪行为的社会危害性大小,分别对其适用删除数据、修改程序与删除程序的处罚。而有形强人工智能,与自然人相类似,存在基础在于躯体,所以可按照其实施犯罪行为的社会危害性大小,参考刑法中针对自然人涉及的刑罚方式,分别对其适用限制自由刑、剥夺自由刑和销毁的刑罚处罚方式[18]。另外,设置新的刑罚是对强人工智能辨认能力与控制能力的尊重与对待,也是对其社会成员资格的承认。“唯有尊重智能机器人的自由意志,将其作为行为主体与社会成员来看待,有罪必罚,并经由刑事诉讼程序进行法律上的审判,才能在智能机器人的‘大脑’中建立价值体系,植入人类文明,使其自觉遵守并维护社会秩序,从而实现‘人工人’向‘社会人’的转变,这是人类智能技术发展到一定程度时,我们的理性选择与必由之路。这样做当然会有利于最大限度地降低社会治理成本。”①刘宪权:《人工智能时代我国刑罚体系重构的法理基础》,《法律科学(西北政法大学学报)》2018年第4期第53页。

猜你喜欢
刑罚主体机器人
论自然人破产法的适用主体
刑罚威慑力的刑法学分析
代运为名行诈骗 构成犯罪获刑罚
技术创新体系的5个主体
断盐也是一种刑罚
关于遗产保护主体的思考
怀旧风劲吹,80、90后成怀旧消费主体
刑罚的证明标准
机器人来帮你
认识机器人