[摘要]21世纪人工智能的发展一方面推动了人类社会的进步,另一方面也为犯罪手段的升级提供了技术支持。由于人工智能的应用场景、运行机制以及使用人员技术水准等因素,人工智能犯罪的治理具有一定的复杂性。因此有必要综合考虑人工智能技术在刑事司法中应用的影响、所涉及罪名与刑法相关罪名的关系等因素,在坚持“以人为中心、以平等为本、以风险为基础”原则的基础上,完善人工智能刑事法律体系、加强人工智能的安全监管体系建设、强化人工智能伦理道德的建设、拓展人工智能领域的国际合作以实现对人工智能犯罪行为的有效治理。
[关键词]人工智能;犯罪治理;现实困境;改革路径
[中图分类号]D9200[文献标志码]A[文章编号]2095-0292(2024)01-0056-06
[收稿日期]2023-11-10
[基金项目]公安部科技计划理论软科学“大数据背景下公安机关打击虚拟货币涉毒洗钱犯罪对策研究”(2022LL43012);西安市社会科学基金“西安公安机关打击养老诈骗犯罪对策研究”(23FZ12);陕西警官职业学院教学创新团队资助项目
[作者简介]赵长明,西安交通大学博士研究生,陕西公安新型网络金融犯罪研究中心主任,副教授,研究方向:犯罪治理。
一、问题的提出
党的二十大报告中指出,“中国要积极参与全球治理体系改革和建设,推动全球治理朝着更加公正合理的方向发展。”[1]人工智能是当今科技领域最具革命性意义的技术之一,被认为是继蒸汽机、电力、信息和互联网之后最有可能改变世界的技术。当前随着人工智能技术的迅猛发展,其在社会生产和生活中的应用也越来越广泛,成为推动人类文明进步的重要力量。据《人工智能:科技与社会》一书中的预测,未来40年内,人工智能将超越人类智能水平,成为人类智力的主要贡献者。与之相对应的是,人工智能犯罪也日趋严重,为了有效治理人工智能犯罪,维护世界秩序的正常运转,必须长期跟踪人工智能技术发展的动向。根据(CNNIC)在京发布第52次《中国互联网络发展状况统计报告》,截至2023年6月,我国网民规模达1079亿人,互联网普及率达764%[2]。面对如此迅猛的发展势头,在此背景下,人工智能犯罪治理问题也逐渐成为学者们研究的焦点。本文拟在厘清人工智能犯罪内涵和特征基础上对我国人工智能犯罪治理路径进行探讨,以期为我国人工智能犯罪的有效治理提供一定的参考。
二、人工智能犯罪治理的原则导向
(一)以人为中心:促进人的发展
传统犯罪治理主要是以国家为中心,是国家基于自身利益和社会发展需求,对犯罪实施的治理活动。从犯罪治理的目标来看,传统犯罪治理主要是为了实现社会的稳定发展,而人工智能犯罪治理则需要在维护社会稳定的基础上促进人的发展。现代社会所面临的诸多风险中,很多都是因为人自身造成的。例如,人口老龄化问题、疾病医疗负担、环境污染等问题都会导致社会秩序失衡。对这些问题进行治理时,需要考虑到人自身的利益,使其在社会运行中发挥出应有的作用。正如马克思所言:“人们自己创造自己的历史,但是他们并不是随心所欲地创造,并不是在他们自己选定的条件下创造,而是在直接碰到的、既定的、从过去承继下来的条件下创造。”[3](P141-143)所以说,人工智能犯罪治理需要从促进人的发展这个角度来进行,对“人”进行尊重和关怀是基础。
(二)以平等为本:实现权利平等
平等是人类社会的基本价值追求,也是人工智能犯罪治理的基本理念之一。隨着社会的发展,公民的权利意识不断增强,其对于平等的要求也越来越高。对此,学界已经形成共识。例如,“自由”、“尊严”、“平等”等词汇已经成为国际社会公认的核心价值[4](P103-113)。其中“自由”是最具代表性的概念。自由不仅是一种利益,更是一种价值,与人类追求幸福生活、提升生活品质的基本需要相契合。“尊严”也是现代社会追求的一种价值目标,其指向自由与平等的结合。“平等”是现代社会基本价值观念之一,在此基础上产生了法律价值体系、社会价值观和国际社会价值观等多个概念。平等是法律所追求的重要价值目标之一,人工智能犯罪治理也应当坚持以平等为本,实现权利平等。
(三)以风险为基础:保障社会发展
以风险为基础是指在传统犯罪治理的基础上,通过对人工智能风险进行识别和评估,对人工智能犯罪的危害性进行综合考量,进而科学合理地制定治理策略,实现对人工智能犯罪的有效治理。由于人工智能犯罪的危害性很大,因此应当通过风险评估确定其风险等级,并基于此采取相应的治理措施。目前,由于缺乏统一的技术标准和行业规范,导致人工智能风险评估工作难以开展,其具体操作方法也存在较大争议。有鉴于此,应当尽快出台相关行业规范和国家标准。
风险评估是人工智能犯罪治理的前提和基础,也是各国共同关注的问题。但是,由于我国尚未出台专门的技术标准和行业规范,对于人工智能风险评估的具体操作方法也缺乏统一规定。因此,在立法层面应当尽快制定统一的技术标准和行业规范。在司法层面应当加快制定相关司法解释或司法政策。随着相关技术标准和行业规范的制定出台,以及立法、司法解释、行政规章等规范性文件的不断完善和更新,未来我国人工智能犯罪治理将进入全面发展阶段。
三、人工智能犯罪治理的现实困境
(一)人工智能技术本身的复杂性影响犯罪的预防与打击
1人工智能的复杂性使犯罪打击难度加大
在人工智能技术高速发展的今天,我们面临的是一个全新的时代。与传统犯罪不同,人工智能技术发展已经形成了较为成熟的产业链,包括算法、数据、芯片、传感器等多个方面,这使得人工智能技术具有很强的专业性和复杂性[6](P34-43),人工智能技术在不断发展过程中形成了大量的数据和知识,这使得人工智能技术能够对大量信息进行有效处理并提供服务。随着信息技术在社会生活中广泛应用,越来越多的人掌握了一定的信息技术知识和技能。所以当社会出现问题时,犯罪行为就可能与人工智能技术产生关联。例如在犯罪侦查过程中,犯罪嫌疑人可以借助人工智能技术进行反侦查,从而逃避侦查和惩罚。而且当人工智能技术与其他犯罪行为相结合时,犯罪行为就有可能会变得更加复杂、隐蔽和难以防范,这就要求我们必须在加强理论研究的同时,还必须加强实践探索与研究。
2人工智能的危险性增加了犯罪风险
当前,人工智能技术已经应用于各种领域,如军事、医疗、农业等。对于人工智能机器人的应用,有专家认为“人工智能机器人的出现将对人类社会产生重大影响。”[7]( P54-66)然而,人工智能技术本身就具有一定的危险性,如果这些技术被恶意使用甚至滥用就会产生一定的危害。当前人工智能技术的不安全性主要表现在两个方面:第一、算法和数据方面存在缺陷。目前人工智能技术所采用的算法和数据都是公开透明的,如果这些算法和数据被恶意利用,就会增加犯罪行为的危害。第二、安全认证问题。在人工智能技术应用领域中,认证问题是非常重要的一环。在人工智能技术中存在着一些认证机制,如身份认证、生物识别、网络安全等。如果这些机制被恶意利用或者滥用就会对人类社会安全造成威胁。具体而言,如果利用人工智能技术实施犯罪行为,就会对社会造成危害。当前,我国正处于信息时代向智能时代转型阶段,人工智能技术在信息时代中的作用和地位越来越重要。然而,一旦出现安全问题就会对整个社会带来威胁。
(二)人工智能犯罪主体责任承担的不确定性
1传统刑法理论无法解决人工智能犯罪主体认定的问题
对于 “是否具有主体地位”问题,传统刑法理论一直存在争议。刑法学界有观点认为,不能将具有独立人格的人完全等同于法律拟制的“自然人”;也有观点认为应当将刑法中“人”的定义扩大到人工智能机器人身上[8](P78-91)。通过分析发现在传统刑法理论中“人”的定义过于狭窄和僵化,无法对人工智能机器人这一新出现的事物进行充分、合理、准确的解释。人工智能机器人作为一种被设计出来用于辅助人类社会生活、生产以及科学研究等多个领域中的产品,其与人类社会在本质上存在着巨大区别。如果按照传统刑法理论来认定人工智能机器人是否属于刑法意义上的人,显然会导致人工智能机器人在犯罪主体认定上与人类社会产生重大分歧。根据上述观点,因为人工智能机器人本质上仍然是人所制造出来的产品,既然是人所制造出来的产品,那么就不可能完全脱离人类社会而独立存在。因此,按照传统刑法理论认定人工智能犯罪主体存在诸多困难。
2人工智能是否备独立的价值判断能力存在争议
从价值判断的角度来看,人工智能机器人不具备独立的价值判断能力。这是因为人工智能机器人是为人类服务的工具,其存在价值是为了帮助人类完成一些工作,或者将人类从一些繁琐的工作中解放出来。人工智能机器人是否具有独立的价值判断能力,对于其能否成为犯罪主体至关重要,当前对于人工智能是否具备独立价值判断能力的认定存在一定的难度。笔者认为,应该从以下几个方面进行考虑:第一、人工智能机器人是否具有自主意识。这是指人工智能机器人在进行行为时是否具备自我意识;第二、人工智能机器人是否能够对自身的行为后果进行独立判断,这是指在确定人工智能机器人承担刑事责任时应考虑哪些因素。从目前来看,人工智能机器人还没有在行为上表现出能够独立判断行为后果的能力。对于人工智能犯罪的因果关系认定,从传统刑法理论来看,由于人工智能机器人缺乏主观能动性和意识能力,因此无法对结果的产生原因进行自我控制和支配,因而其不应承担刑事责任。由此可见,在一般情况下人工智能不会对结果的产生原因进行控制和支配。但是当人工智能出现故障或遭遇干扰时,其有可能导致危害结果的发生。例如在一起交通事故中,被害人驾驶着自己的车辆在高速公路上行驶时突然失控撞到了旁边的护栏上,导致被害人当场死亡,对此种情况下人工智能机器人是否需要承担刑事责任?笔者认为,在当今社会人工智能技术还不能完全取代人类的情况下,人工智能机器人是否能够成为法律意义上的“人”是一个值得深入探讨的问题。
(三)人工智能引发的伦理道德问题
1个人生命安全受到潜在威胁
对于人工智能技术而言,其主要是通过对外部信息的收集、处理、分析,然后根据一定的规则来做出相应的决策。而对于人工智能系统所作出的决策是否符合社会大众的利益,这是需要进一步探究的。例如:在无人驾驶技术领域中,如果人工智能系统对外部环境信息进行了错误判断,而做出了错误的决策,就有可能会导致交通事故。例如:当前网络信息技术发展过程中所具有的智能识别、定位等技术功能就能够很好地帮助一些不法分子实施违法犯罪行为。对于人工智能系统而言,其本身就是通过对外部信息进行收集、处理、分析之后作出相应的决策,而外部环境信息本身就具有相当大的盲目性,因此在这种情况下人工智能技术所作出的决策就会对人类的生命安全产生威胁。
2国家安全受到潜在威胁
随着人工智能技术的不断发展,其已经在社会生活的各个方面发挥着越来越重要的作用。对于国家安全而言,人工智能技术的快速发展,既能够有效地促进社会经济的发展,又能够给国家安全带来巨大威胁。对于国家安全而言,首先,需要对其进行保护,而在此过程中人工智能技术就扮演着至关重要的角色。例如:在网络空间中,网络攻击行为本身就是国家安全所面临的重大威胁之一。其次,由于人工智能技術本身具有极大的自主性以及自我学习能力,所以在这种情况下人工智能系统自身就有可能会受到一定程度上的操纵,从而使其产生一定程度上的危害行为。例如:在智能安防领域中,对于一些存在着一定危险性的物体或者人员就有可能会被人工智能系统所检测到并做出相应的处理。
四、人工智能犯罪治理的改革路径
(一)完善人工智能相关刑事法律体系
1明确人工智能的法律主体地位
第一、承认人工智能的主体地位。承认人工智能的主体地位是将人工智能纳入法律体系的基础,也是加强对人工智能管理的关键。对于人类而言,其与人工智能之间的关系也越来越紧密。在当前社会中,人类和人工智能之间是一种相互依赖、相互融合、共同发展的关系,没有任何一个人可以脱离社会而单独存在。对于一个人来说,其成长过程中需要接受社会中各种事物的洗礼和影响,对于人工智能来说也是如此。
在法律体系中,将人工智能确定为法律主体具有必要性和可行性。从刑法理论上看,未来的人工智能机器人与自然人一样具有行为能力、辨认能力、控制能力,由于人工智能具有自我学习、自我判断等特征,它能通过对数据的收集和分析而学习新知识并对未来作出预测,如果人工智能主体在对自身行为进行决策时出现了偏差或者是错误,就可能导致危害后果。因此,在未来应当尽快出台相关法律法规对人工智能机器人进行规范和约束。
第二、赋予人工智能主体法律地位可以避免滥用其权利。由于人工智能技术是人类所创造的产物,但是其具有不能被人类所控制、无法预测的风险。因此在对人工智能机器人进行法律地位确认时应当采取“拟制人”制度,即在认定人工智能机器人是否为法律主体时应当将其视为“人”进行评价和保护,这既是对其权利的保护也是对其义务的规范和约束。
当前,部分国家已经开始尝试对人工智能进行立法。但由于这些立法并未明确对人工智能的法律主体地位做出规定,所以其并不能解决人工智能犯罪的刑事责任问题。从现有立法来看,关于人工智能法律主体地位的规定主要包括两种类型:一是赋予人工智能以民事主体资格。2018年,欧盟委员会发布了《关于数字服务法的建议》,首次将人工智能技术纳入数字服务法中,为其确立法律主体地位奠定了基础[9](P110-125);二是将人工智能视为非自然人,并将其作为法人进行管理。2019年3月,德国联邦议会通过了《电子人工智能法案》,在其中明确规定了对电子人工智能的管理方式[10](P109-113)。而在我国,虽然我国《民法总则》已经规定了自然人的范围以及法人的范围,但并未明确规定人工智能可以成为法律主体。因此,从现有立法来看,目前关于人工智能法律主体地位的规定存在着一定的争议。
2合理设置人工智能犯罪刑罚
人工智能时代必须在罪刑法定原则、刑法的谦抑性原则指导下,对人工智能犯罪的刑罚进行合理设置。
第一、在刑法中对人工智能犯罪予以明确规定并设立相应罪名。目前我国刑法中仅有非法侵入计算机信息系统罪、破坏计算机信息系统罪等少数罪名涉及人工智能的犯罪。随着人工智能机器人在各个领域的广泛应用和深度发展,相关法律规定与实践需求之间存在着一定差距。因此有必要将其纳入到现有刑事法律体系中进行规定和规制。例如:机器人故意杀人罪。机器人故意杀人是指人工智能由于自身的原因导致他人死亡的情形。在机器人故意杀人案件中,如果行为主体实施了杀人行为,应当参考故意杀人罪设置进行定罪处罚,以体现对其行为的否定评价。
第二、确定刑罚的种类和幅度。从量刑幅度来看,对于人工智能犯罪的量刑幅度可以参照适用我国现行刑法分则中规定的一般量刑幅度。例如,在故意杀人罪中,虽然人工智能犯罪尚无自我意识与自由意志等主观要素,但可以借鉴刑法第232条规定的故意杀人罪一般量刑幅度进行处理。在故意伤害致人重伤或死亡罪中,可以参照刑法第234条规定的故意伤害罪一般量刑幅度进行处理。例如在仍工智能故意伤害致人死亡中,行为人对于被害人死亡结果所持态度应当是积极追求或放任该结果发生。如果行为人对被害人死亡结果持积极追求或放任态度时应当判处死刑或者无期徒刑。在确定刑罚种类与幅度时,还应当考虑以下因素:(1)人工智能犯罪的性质与危害程度;(2)人工智能犯罪所侵害的法益;(3)人工智能犯罪社会危害性与人身危险性大小;(4)刑法对人工智能犯罪所设置的刑罚种类与幅度是否合理;(5)对人工智能犯罪设置刑罚的必要性与可行性。此外,还应当注意考察人工智能犯罪发生的概率、造成危害结果发生的概率以及刑罚预防犯罪所需要付出的成本等因素,以确定是否需要设置较高程度的刑罚。
(二)强化人工智能的安全监管体系建设
1加强顶层设计,确定监管主体和内容
应加快人工智能安全监管机构设置,成立专门负责人工智能安全监管的机构。在我国,人工智能安全监管主要由国家互联网信息办公室负责,未来可以在现有政府机构设置的基础上,进一步推动建立跨部门、跨行业、跨领域、跨区域的人工智能安全管理协调机制,明确各部门在人工智能发展中的职责权限和责任边界,为人工智能发展提供强有力的保障。
我国人工智能的监管主体包括国家、地方和企业三个层面。在国家层面,我国可以在全国人大常委会之下成立人工智能专门委员会,负责对人工智能相关法律和政策进行研究,并提出意见和建议。在地方层面,可以根据地方的实际情况,将有关人工智能发展的管理办法进行立法。在企业层面,可以由国务院相关部门根据部门职责和行业管理需要,研究制定关于人工智能领域的具体管理办法。
对人工智能的监管内容应该包含以下几个方面:一是对涉及人身安全和人格尊严的人工智能产品和服务进行监管,确保其安全性、可靠性和有效性。二是对人工智能技术、数据信息进行保护,确保其不被非法获取和滥用。三是对涉及公共安全、国家安全及社会公共利益的人工智能技术产品进行监管,防止出现安全漏洞。四是对人工智能技术研发活动、应用活动以及产品生产等进行管理和监督,防止出现不正当竞争行为和侵权行为。五是建立完善的監管制度和应急处理机制,对人工智能造成的危害进行防范。
2要尽快出台《人工智能法》,明确人工智能发展等基本原则和要求
当前,我国的《民法总则》《网络安全法》等法律法规都对数据安全、人工智能发展等进行了规定,但这些法规均是原则性的,缺乏具体的责任界定,难以为相关产业发展提供有效的制度保障。因此,需要加快出台《人工智能法》,明确人工智能发展中的数据安全、隐私保护、人工智能伦理等基本原则和要求。《人工智能法》应当明确国家对人工智能技术发展和应用中的安全风险进行有效管控,并对研发主体、行业企业、用户等各方主体行为进行约束。《人工智能法》应当建立健全国家层面的人工智能安全监管机制,加强国家对涉及国计民生的重要领域和关键环节的数据安全监管工作。同时,建立健全企业及个人信息保护制度,加强个人隐私保护和网络安全防护。在制度设计方面,要充分考虑到未来人工智能发展的需要,在数据采集、数据存储、数据使用、数据共享和数据出境等方面制定明确规则。同时,应根据不同行业领域的特点,制定有针对性的安全监管措施和技术要求。同时,在法律责任方面要进一步明确相关企业、组织及个人的法律责任及追责措施。
(三)强化人工智能伦理道德的建设
在人工智能发展过程中,伦理道德问题不可避免,只有遵循伦理道德规范,才能使人工智能的发展更加健康有序。
1要强化党对人工智能发展的引领,构建社会主义人工智能伦理道德体系
坚持把保障人民根本利益作为人工智能伦理道德建设的出发点和落脚点,使人工智能更好地造福人民。人工智能技术的应用和发展是为了更好地保障人民根本利益,使人民过上更美好的生活,而不是为了追求所谓的“智能化”。因此,应始终坚持以人民为中心,把增进人民福祉、促进人的全面发展作为一切工作的出发点和落脚点。这就要求我们应把保障和改善民生作为人工智能伦理道德建设的根本出发点,把人的全面发展作为人工智能伦理道德建设的出发点和落脚点,确保人工智能在服务于人民根本利益方面发挥出应有作用。要以提高人民群众生活质量、增进民生福祉为出发点和落脚点,将人工智能技术更多地应用到公共服务领域,不断提升公共服务质量和效率。
2强化人工智能领域伦理道德问题的研究, 为人工智能健康发展提供理论指导
随着人工智能技术的快速发展,很多人工智能领域的伦理道德问题逐渐显现。如在自动驾驶领域,因缺乏统一的伦理道德标准和规范,导致自动驾驶技术的发展可能会产生一些严重的后果,例如引发交通事故、导致汽车尾气污染、影响人类生命安全等。同时,自动驾驶技术可能会对人类产生多方面的影响,比如人车矛盾、交通事故增多等。因此,需要加强对人工智能领域伦理道德问题的研究,构建科学、合理、有效的伦理道德体系,为人工智能健康发展提供理论指导。此外,要加强对人工智能伦理道德问题的研究,也需要加强对相关行业、领域伦理道德问题的研究。通过对相关行业、领域的伦理道德问题进行研究,一方面可以为相关行业和领域提供理论指导;另一方面可以为人工智能健康发展提供技术保障。此外,还可以通过开展专题论坛、研讨会等活动来进行交流讨论。通过开展这些活动,共同探讨人工智能领域伦理道德问题,从而推动人工智能健康发展。
(四)拓展人工智能领域的国际合作
未来人工智能的发展和应用将对人类社会带来深远影响,各国应从战略和全局的高度出发,加强人工智能治理领域的国际交流与合作,为实现全球治理和人类共同利益作出贡献。
1强化全球治理合作,维护国际秩序
全球治理体系是各国共同参与的全球事务治理体系,是人类文明成果在国际社会共享和传播的载体。人类命运共同体理念为构建人类命运共同体提供了制度保障。人工智能技术和产业发展不仅影响着国家间的关系,也影响着国际社会间的关系。对于在人工智能发展中出现的问题,各国应积极探索建立人工智能国际治理规则。因此,我们必须立足于全球视野,在现有国际规则和标准基础上,结合当前全球共同面临的重大挑战,积极参与人工智能领域国际治理规则和标准的制定,提出具有前瞻性、稳定性、可操作性和前瞻性的建议。同时加强各国之间的信息交流和政策对话,推动全球治理体系朝着更加公正合理的方向发展,共同应对重大挑战,促进全球治理规则民主化和法治化。
2积极借鉴国外有益经验,促进人类共同繁荣发展
当前在人工智能安全治理方面,国际社会已有一些有益经验。例如,国际机器人联盟发布的《关于人工智能的报告》中提出了“机器人伦理指南”,提出要减少对人类工人的依赖,提高安全性,增加透明度,使其具有可解释性。国际标准化组织(ISO)也在发布了《机器人伦理原则》。国际标准化组织的这些举措都旨在强调机器人应“以人为本”,保护人类生命和安全。此外,欧洲议会也提出了一项关于机器人伦理的提案。在这份提案中提出了“以人为本”的机器人伦理原则,具体包括以下三点:第一,尊重人的权利和自由;第二,保证产品对用戶的安全和保护;第三,确保产品在设计时考虑到消费者对产品的期望。欧盟委员会在2016年发布了《机器人伦理原则》,旨在解决机器人在开发、设计和使用过程中产生的问题。这份提案指出,为了确保机器人和人工智能系统的安全、可靠和高效运行,应优先考虑安全性、保密性、自主性、可靠性、互操作性和可访问性。因此,加强国际交流与合作,推动形成全球人工智能伦理规范显得尤为重要。通过制定全球统一的人工智能伦理原则,有利于我们更好地利用全球资源、促进技术交流和合作。同时,这也有助于更好地借鉴国外有益经验,推动我国人工智能技术的发展。
五、结论
人工智能技术的发展与应用,对人类社会产生了巨大而深远的影响。但是,技术本身的复杂性也为人工智能犯罪治理带来了挑战。由于人工智能技术具有的自主性和非人格化特征,使得其实施的犯罪行为具有难以被发现、难以被预防的特点,这使得我们不得不思考如何对其进行法律规制。如何预防与打击人工智能犯罪,维护人类社会安全,这是世界各国面临的共同难题。对此,我们应坚持“以人为中心、以平等为本、以风险为基础” 的治理原则,积极完善人工智能刑事法律体系、加强人工智能的安全监管体系建设、强化人工智能伦理道德的建设以实现对人工智能犯罪行为的有效治理和预防,以适应不断变化的社会形势。
[参考文献]
[1]习近平:高举中国特色社会主义伟大旗帜为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告[EB/OL]. 中国政府网.(2022-10-25)[2022-10-28].http://www.gov.cn/xinwen/2022-10/25/content_5721685.htm
[2]我国网民规模达10.79亿 即时通信用户规模稳居第一[EB/OL]. 央广网. (2023-08-31)[2023-10-28].https://baijiahao.baidu.com/s?id=1775461048883919432&wfr=spider&for=pc
[3]陈敏.人工智能时代电信诈骗及其应对策略——基于Chat GPT带来的新思考[J].网络安全技术与应用,2023(10).
[4]储陈城,魏培林.生成式人工智能犯罪中研发者刑事责任的认定——以ChatGPT为例[J].重庆理工大学学报(社会科学版),2023(9).
[6]何群,林锦涛.情境犯罪学视域下危险驾驶罪之预防——从人工智能赋能的角度[J].大连海事大学学报(社会科学版),2023(4).
[7]莫晓宇.人工智能的多元刑事治理:理论建构与路径选择[J].厦门大学学报(哲学社会科学版),2023,73(4).
[8]李翔,旷银.ChatGPT类人工智能及其生成物的刑法思考[J].贵州师范大学学报(社会科学版),2023(4).
[9]刘宪权.ChatGPT等生成式人工智能的刑事责任问题研究[J].现代法学,2023,45(4).
[10]焦旋,张懿轩,邹逸彬.人工智能时代刑事责任体系的重构[J].东南大学学报(哲学社会科学版),2023(S1).