凡锐丽
(郑州升达经贸管理学院,郑州 451191)
人工智能技术下的刑法学问题是近年来司法管理制度中新出现的一种现象,主要表现为内部风险、外部风险等刑法风险问题。应结合风险问题的发生特点与规律,提出最佳的风险应对措施,全面提高人工智能技术下的刑法应用效果,为人工智能技术在刑法学中的应用提供技术保障。
近年来,在大数据、信息技术、智能算法等技术快速发展的过程中,人工智能技术得到了广泛的应用,其技术水平也实现了飞跃式的发展。但随之衍生出很多内部刑事风险问题与安全问题,主要表现:一是人工智能技术的应用,经常会受到一些不法分子的攻击,或者采用人工智能系统进行违法操作,出现了海量的信息泄露现象,导致很多的保密信息被人为地泄露出来,无法保障数据信息的安全性。二是在人工智能技术管理的过程中,如果不能合理使用信息数据,将导致用户的个人信息无法正常应用。且在人工智能技术下,一些犯罪人员利用大数据技术,肆意侵害集体和个人的利益,如果此类问题不能得到及时遏制,将会给国家和个人造成严重的经济损失。三是在人工智能技术内部系统的运行过程中存在很多运算方法方面的漏洞,给人工智能系统带来很多错误决策,一旦引发问题,就会出现数据外区现象,很容易影响人们对价值观念的正确认识。因此就需要刑法的及时介入,确保人工智能系统的良好运行,预防各种风险问题的发生。
人工智能刑法问题可表现在外部风险方面:首先是滥用人工智能技术的刑事风险。人工智能技术的应用存在很多利弊,如正当使用,就能给人们的生产与生活带来便利,具有积极的影响。如果不能正常使用,将会给计算机系统带来很多风险问题。利用人工智能技术进行犯罪具有一定的特殊性,其犯罪的基础成本较低,一般情况下只使用计算机、网络技术就能够对整体的网络系统造成威胁,而且掌握人工智能技术水平的不法分子,还能制造出人工智能产品,如:2017年的时候,网络犯罪分子就利用计算机专业知识识别验证码,获取到一些网络公司的账号和登陆密码,从而获取到群众的信息,倒卖其信息并且对群众进行诈骗。在分析这个犯罪案例的时候发现,如若犯罪分子采用人工智能技术进行相关的犯罪活动,不仅犯罪的成本很低,还会诱发严重的信息安全事件。其次,人工智能技术的不完善也给人们使用人工智能技术带来风险。在使用与管理人工智能技术的工作中,如果存在智能技术或设计漏洞,将会诱发很多外部风险问题。如:采用人工智能技术与交通工具相互整合,会形成无人驾驶的模式,可以为人们提供高质量的服务。但是,如果人工智能技术的设计与开发存在问题,在无人驾驶的过程中会出现交通事故问题,将会诱发严重的后果,表明人工智能技术可将内部风险转换成为外部风险,给人们使用人工智能技术带来很多安全风险。
1.3.1 刑法应该促进人工智能技术的良好发展
刑法的出台主要是为了维护社会正常秩序,而这个目的与人工智能技术服务于人、改善社会生活的目的是相互一致的,无论在何种状况下,刑法都不应该对智能技术的发展形成桎梏,相反,刑法应该对智能技术起到良好的引导作用,将社会的发展作为导向,使人工智能技术向着良性的方向发展,起到一定的推动作用和促进作用,从根本上促进人工智能技术的发展。
1.3.2 刑法应该服务于人
人工智能技术的应用不能增加人们的负担,这个观念应该贯彻在刑法领域中。在刑法领域内,服务于人的思想主要体现在刑事责任的规则方面,虽然人工智能技术的应用行为与风险问题的责任及开发使用者有直接的联系,但是不能将责任单纯归于开发与使用者,应该考虑到智能技术的实际应用情况,明确具体的负责人。
人工智能技术的应用经常会出现一些问题,在刑法方面不能单一的分析出现问题的原因,还需明确具体的刑法理念与原则,其中最为重要的就是罪刑法定准则。目前,将保障人权作为内涵、罪刑法定的这个原则属于较为重要的底线。在未来的发展过程中,人工智能技术的应用一旦出现问题,还是要将罪刑法定作为基本准则。如果在某个项目中将滥用人工智能的做法当做统一条款,将会诱发“口袋罪名”,造成群众的隐私信息泄露问题,导致公共风险和国家安全问题。在此过程中,刑法就应该保持一定的谦抑性,如:在人工智能技术应用期间,要借助计算机的基础设备与技术,很可能发生机器人问题、著作权保护问题等,在此情况下,机器人的法人、著作权等归属于人类,可以按照具体的犯罪行为与实际情况界定,尽量避免一些不正确的司法手段干扰人工智能技术的使用与发展,例如:“刑法万能”的错误认知。要正确地将非刑事法律的作用发挥出来,从而有效规避使用人工智能技术时所存在的问题[1]。
在人工智能技术的应用期间,经常会出现公民信息安全泄露问题。在此情况下,除了要增强人工智能技术使用者与管理者的技能水平,强化数据的安全保护力度,还要将刑法的作用发挥出来,全面保护公民信息的安全性,预防出现信息泄露现象。考虑到公民信息的保护,在刑法方面应强化侵犯公民信息安全的惩罚力度,明确公民信息安全隐患的发生特点,有效地界定公民信息,并提出保护公民信息安全的具体做法[2]。
我国人工智能技术得到了快速发展,为避免使用中出现问题,应结合实际情况在法律方面对使用者进行约束与管理。建议国家出台相关的法律法规,禁止影响人工智能技术的情况发生,确保各种信息的安全性。由于人工智能技术的应用有利有弊,在为人们带来便利的同时,仍存在很多安全隐患问题。在此情况下,应该结合人工智能技术的发展,制定完善的准入制度,全面开展监督与管理工作,强化人工智能技术监管的力度,有效掌控人工智能技术的应用范围与领域。同时,在刑法方面应该从内部与外部方面给予人工智能技术一定的约束,强化宣传力度,使从事人工智能技术的人员学会自律,完善自我的约束机制。为有效规范人工智能技术的应用行为,在实际工作中应制定完善的刑法制度框架,人工智能技术开发者与管理者要树立正确观念,约束自身行为,促进人工智能技术的健康发展。还可以采用刑事立法的形式,设置人工智能技术的禁止令,禁止在一些不安全的条件下使用人工智能技术,一旦违反规则,就要处罚技术的使用者与管理者,并追究其责任。在立法过程中,应积极提出法律监督的建议与规则,预防人工智能技术应用中发生潜在的风险问题[3-4]。