对人工智能体作为刑事责任主体的反思

2019-03-18 07:36
关键词:刑法主体机器人

胡 莎

一、引 言

人工智能刑事责任问题,在现有刑法理论研究中,被过度简单化为人工智能能否成为刑事责任主体的问题,主要观点是:人工智能的属性,不可能永远只是人类的工具、产品或财物,其有朝一日必将脱离人类控制,成为与人类平起平坐、等量齐观的新型人工智能体(Artificial Intelligence Entity,一般简称AI Entity),其与自然人、法人一样,也具有刑事责任能力,因此,人工智能体也应是刑事责任主体或犯罪主体,可直接给人工智能定罪,至于适用的刑罚方式,应是删除数据、修改程序或永久销毁等。[1-5]但本文认为,人工智能刑事责任之确认议题,其研究重点不应以未来主义的理论预言为主,不应通过比较人工智能和人类的能力后主张前者应为自己的安全运行承担刑事责任;在特别讲求实用主义的刑法中,应以现实主义为出发点,按照如下思路,解决如下问题:不同种类、能力水平的人工智能体,属于危险级别不同的犯罪危险来源,在出现故障、事故、对个体造成危害或出现犯罪公共风险后,假如由人工智能体承担刑事责任,将如何解决由此带来的重大刑法道德困境和适用难题,应如何全新诠释刑法中的禁止规范和行为规范,如果人工智能体不作为刑事责任主体,对相关主体予以刑事归责,将面临哪些难题。[6]687

一般来说,人工智能是人类通过计算机语言编程,让机器模拟、延伸、扩展、学习人类行为及其头脑空间中的所有认知、思维、推理、决策等能力,以此代替人类完成原本由人类完成的任务,而其中人工智能的载体,即有可能被追究刑事责任的主体,被称为人工智能体(AI Entity/AI Agency)。[1-5]不同种类、能力水平的人工智能体,其刑事责任的确认总体上应相同,但在具体规则问题上会有细微差别。众所周知,大部分学者将人工智能分为弱人工智能(适用单一领域)、强人工智能(适用各个领域)和超人工智能(已经超越人类)。这根据人工智能的适用范围来区分,显得有点简单而粗糙。笔者认为应根据机器人的智能分层,主张人工智能体可分行动智能体(Action Intelligence Entity)、自主智能体(Autonomous Intelligence Entity)和仿人智能体(Human-Based Intelligence Entity),其中仿人智能体也称为智能机器人(AI Robot)或“智机”(machina sapiens), 即与被称为“智人”(homo sapiens)的人类相对。[7]274因为此种分类直观展示了人工智能体强弱所表征的具体内容,并简洁明了地扩充了刑法学知识,因此本文以此分类展开论述。

二、自主人工智能体不应成为相关人员逃避刑事责任的“替罪羊”

自主智能体,也称为自控型的机器,是指智能体在云计算、大数据、深度学习算法、人脑芯片的催化下,模拟人类智慧,而具有图形、符号、形状、语音识别能力、罪犯面部识别技术、自我自动调度能力、解决问题的能力、推理能力及创造力,且可基于过去曾经的经验制定计划,同时能随着环境需要,改变其运作机制,这种情况下,是机器引导人类完成人类任务,工作速度、精度、强度等都明显优于人类,而自主性或自控性是其最显著的特征,研发此种智能体,也是我们人类目前正在努力攻克的技术难题。而我国目前也正是担忧自主智能技术失控、相应刑事责任主体如何确定的问题。[8]与此相较,行动智能体,即行动的人工智能体,是比自主智能体低级的弱人工智能,其出现在人工智能发展的初级阶段,以人类的软件系统或新型的网络信息技术手段的形式呈现,例如智能外语学习软件、谱曲、创造诗歌等软件系统、自动扫地机、初级的自动驾驶汽车等等。其主要特征是在特定单一领域内拥有相对独立的行动能力,各个部位可以进行单个活动或整体移动,它是人类行动能力的延伸物,其没有任何内源性的权利能力,其行动完全符合人类设定的逻辑,具有可程式化,运作机制固定不变,其程序性的“守法意识”和客观的“守法能力”,也明显比自主智能体和智能机器人都强。[7]274因此,人类完全可以事先有效地对其进行风险评估,在该人工智能体被广泛普遍地设计、建造之前,明确其具体的产品安全生产标准、设计标准和质量标准,当其对人类个体或社会造成损害时,可以适用产品责任或侵权责任予以解决,一般与刑事责任无涉。但是与行动智能体同步发展的自主智能体,由于其具有自我学习能力,拥有“自主意识”和自主性,其运作机制和逻辑并不固定,可能有自己独立的法律意识,因此,有学者赞同应将其列为独立的刑事责任主体,但此观点值得商榷。

(一)自主智能体的行为及后果客观上归属于自然人

虽然自主人工智能系统可以自主学习,但是诚如Ross机器人律师的创始人Andrew Arruda所认为,自主人工智能系统的自主学习,是指自主有意识地学习如何更高效、更准确地完成人类的工作任务、实现人类设置的工作目标,从而大大减轻普通民众的费用,即民众可以明显低价享受以前同样的专业服务。人工智能是专业人士的职业装备,是一种创新、便捷、高效、事故率更低的解决问题的新途径,能更好地辅助专业人士完成专业工作,从而服务于普通大众,并不是、也无法替代专业人士。因此,“工具论”是解释和适用人工智能责任问题的主要模式,即人工智能系统只能在该预先设定程序的技术结构内工作,所有行为及后果皆应归属于自然人。[9]例如莱茵河案中,导航汽车错误指示近路却冲进河里致使车内人死亡的事件中,自主智能汽车,是为完成人类设定的到达指定目的地的任务,其存在的目的和意义都是为辅助人类达成人类的目标,无法自我设定行为目的,其属性是工具,因此,这种情况下要求自主智能汽车承担过失犯罪的刑事责任明显没意义。

(二)自然人的预见能力及预见义务

正如人工智能“威胁论”人士所述,自动人工智能之间会突然产生异于人类语言的独有语言进行交流,但人类可立即采取相应措施予以控制。虽然机器自主学习使得人工智能不按照计算机电脑编程而运行,而是在计算机编程范围之外去实施行为,即在人类设计的程序之外去运行,但是,人类对其在计算机编程之外运行的事实,早已预见并深知,人工智能仍是在为完成人类特定领域的特定任务,其超越不了完成人类的特定任务,人类对人工智能的总体全局完全可以预知,对其会实施犯罪行为也完全可预料。虽然自主人工智能系统有可能产生自主意识,但其自主意识是有限的,只是具有有限的推理能力、规划能力和抽象思维能力,所产生的语言文字只具有句法文字属性而已,其所谓的自主意识与海豚、大猩猩的自我意识一样,没有真正独立的存在意义和主观意图,也不是像人一样真正地理解、并相信自己行为的意义,其终究无法与人类的自主意识画上等号。总之,自主人工智能这种“愚蠢科技”,是以人类事先预定的方式回应特定情景而已,人类对其自然可能产生的危害情况,有预见能力及预见可能性,如果疏忽大意没有预见,则是主观意志上的不作为,应由人类承担相应的刑事责任[10]182,如果由人工智能接受制裁、遭受责难、承担责任,这明显是人类以此逃避责任。[11]647

(三)自然人幕后实施人工智能骗局

自主人工智能体,其实是一个自动系统或应用程序,其产生、运行和进行的具体行为皆严重依赖于无数人类科学家、编程者、程序员等在幕后默默地收集、分析和使用海量信息和数据,建立知识库、数据库和系统模型,编制应用软件,发明算法公式,研制升级补漏程序,并为这些系统和软件提供统一、明确、逻辑清晰、固定的程式化运用标准等等[12]。诚如百度董事长李彦宏在“中国国际智能产业博览会”上所言:人工智能一词来自英语“Artificial Intelligence”, 其中的“Artificial” 一词除了有“人工的”意思,还有“人造的、虚假的”意思,因此人工智能事实上是假的,并不是真的智能,它离真的人工智能还非常远。也由于人工智能事实上是人造的、虚假的智能,因此其产生、试验、运行等皆需人类陪伴,自动人工智能体和人类是共生的关系,而不是对立关系,只有这样,人工智能才能被人类所信服和接受。[13]也正是基于此,一些虚假的人工智能技术诈骗丑闻,实际上是由幕后无数人类为骗取巨额资助而同步自编自导的。

(四)不具有人身权益和财产权益

诚如李开复在Ted演讲中说到:人工智能能帮助人类极大地减轻重复繁琐、单调乏味的例行事务负担,使人类有更多精力和时间从事更核心、更高级别的情感、精神或脑力活动,创造更美好、更有爱的和谐生活,而“人工智能不具备情感、精神等欲望机制”[14],无法真正理解有爱的和谐生活,当然也不拥有人身权益和财产权益。而且,目前只有人类有能力在矛盾冲突或模棱两可情形下进行利益选择,因为人类有自己的人身利益和财产利益需求,而自主人工智能体没有,其完全附属于人类,其设计者、制造商及其组织应为机器人安全性、可靠性负责,而不能以人工智能拥有越来越强大的学习能力和自主程度而让其承担责任,而藉此使自己逃避责任。[14]

(五)需“刺破人工智能面纱”

有学者主张,智能机器的责任能力与自主性,确实无法与人类相比,其固然不能成为自我视角下的道德责任主体,但是智能机器承载着使用者、设计者对其的期望,且被内置了感知世界并与世界互动的能力,因此他者视角下,智能机器可以成为道德责任主体。[15]但笔者认为,此种看法为对智能机器充满期待的他者推卸自己的责任提供了理论口实,因为使用者、设计者的期待也会包括犯罪主观心理,在这种情况下,肯定不能归责于人工智能,而是应刺破罩在相关人类身上的人工智能面纱,以相应的故意或过失责任使相关人类承担其应承担的刑事责任。例如自然人教唆、指令AI偷一张欠条,但是AI却一把火烧了被害人的房屋。该案中,自然人应直接为所有的危害结果承担刑事责任。虽然自然人并无放火的主观故意罪过,但是自然人作为自主人工智能系统的主人,应能够预见到自主人工智能会失控而造成不可挽回的重大危害,而其中的预见内容,并不需要预见到具体的结果、因果经过的基本部分,只需要抽象预见性即可,即预见到可能会发生严重危及社会的危害结果即可。

(六)会导致刑法适用困难

将自动人工智能体解释为犯罪主体,将在法律系统中产生一种开放构造的风险(open texture risk),即更多的法律词语都将没有固定的意思,因为对其的解释会随着特定领域、观察视角、时间阶段等的不同而不同,这将导致法律解释出现极大的不明确性和模糊性,从而使得法律适用变得混乱不堪、举步维艰[7]276。例如应如何判断人工智能体已经“出生”,又如何判断其已经“死亡”,死亡后应该如何处理?能否也可以成立侮辱、盗窃、毁损尸体、尸骨、骨灰罪?再例如:如果刑法中的“人”,可以解释为包括自然人、法人、仿真机器人,那么外星人是否也能解释成犯罪主体?

三、智能机器人在未来成为刑事责任主体将完全颠覆现存刑法

在不确定的未来,人类社会将出现最高级别的人工智能,即仿人智能体(Human-Based Intelligence Entity),或称为“智机”、智能机器人、生物形态的机器人(humanoid)、准人类(Qausi-human)、独立的智慧存在体或超人工智能等等。根据人类现在的理论设想,此智能机器人 “在其人工生成过程中引入并随之留驻了人类意识的机制或内容”[16],同时跨过了不可逆转的“奇点”,超越了人脑,并脱离了人类控制,将会成为虚拟智能世界和现实人类世界的桥梁,成为双方的代言人。的确,智能机器人未来有可能成为刑事责任主体:一方面,智能机器人体现了人类的技术理性,等值于理性“人”,由于其完全排除了情感、欲望、偏见、经验局限性等的影响,甚至比人类更理性,而刑法规制对象的预设前提正是理性人;另一方面,创造能力、推理能力等在刑法上对于归责无关紧要,因为刑法上的归责与否,取决于行为人是否能够认识或预见到自己的行为会发生危害社会的结果,是否希望或者放任危害结果的发生,即有认识能力和控制能力即可,而未来出现的智能机器人可以拥有这两种能力。即便如此,假设智能机器人在未来社会已成为刑事责任主体,将会出现大量全新的刑法难题。

(一)要求机器人遵守机器人三原则将出现各种新的刑法道德困境

众所周知,现如今规制人工智能的铁律,是阿西莫夫机器人三原则,即机器人和人不是平等的主体,机器人被人类控制和支配,但很明显,该原则只适用于上述的行动人工智能体和自主人工智能体,并不适合智能机器人。因为,智能机器人时代,是人机交互共存的社会,机器人和人类是平等的主体,机器人也会主动要求、争取并维护自己的权利,要求机器人遵守三原则将会使机器人陷入道德困境,这本身是不道德的。例如,未来机器人可以和人类一样当警察,当机器人的人类警察上司,要求机器人逮捕人类犯罪嫌疑人,但人类嫌疑人拼死抵抗,那么机器人是应该遵守人类警察上司的命令伤害反抗中的人类嫌疑人,还是不遵守人类上司的指令?[10]173如果遵守人类命令伤害人类,那是违反第一个原则:机器不得伤害人类;而如果机器人不遵守人类命令,则是玩忽职守的不作为。再例如:人类命令一个机器人为他人的合法正当利益而伤害另一个人,如果机器人遵守人类命令,则违反第一个原则,但不遵守人类命令,则使得正当防卫制度无用武之地。[17]当然,人类哲学家和机械设计师可“将人类社会中的法律以及道德等规范和价值,嵌入或编程进相应的高级人工智能系统中,让其继续“更好地为人类社会服务”[18],但是这与“教蚂蚁唱歌一样难”:首先,人类伦理学说和刑法解释观点有很多种,到底应植入或编程何种伦理道德或刑法解释观点呢?其次,即使有统一的伦理学说和刑法解释观点,但人类的伦理道德和刑法解释观点,难以准确定义,该定义本身在技术上也难以编程转变为数据代码;最后,智能机器人有自己的自主学习能力,完全会产生不同于人类的法律规则和机器人道德,他们更倾向于维护自己种群的利益,为追求“机器人正义”[7]271而存在,从而未来将和人类一样,有自己独立的利益、价值观、世界观等,这将必然导致人机利益冲突四起,刑法的法益原理和利益衡量理论将面目全非。

(二)刑法无力规制智能机器人

机器人,特别是作为和人类一样具有主观能动性的群体,将会是一种新型的人类犯罪危险来源,由犯罪引发的失控场面只会一次次地凸显人类如今的想象力太过于匮乏,例如发生智能机器人大面积地强奸人类、侵犯商业秘密而终结各人类巨头企业运营、掌控国家秘密而瞬间颠覆国家政权、完全操纵人类证券市场等这种匪夷所思的危害事件。[1-5]而到时候作为回应公共危险源的最强措施——刑法,将不再是人类单独制定或修改,而是人工智能将和人类一样,成为独立自主的立法者,会与人类一道,自然会将自己的同类列为刑事责任主体。例如美国人工智能刑事责任研究者Gabriel Hallevy假想的案例:暴风雨中,人类飞行员决定停止前行而返航,但AI飞行员认为人类飞行员正在妨碍自己执行到达目的地的任务,于是启动安全座椅将人类飞行员杀害。据此,人类现如今已深知智能机器人会脱离人类控制以主体身份去实施伤害人类社会的行为,危及人类生存,那么,与其等待其出现后人类拼命解决自身生存危机[19]1261,还不如在现如今机器人还未出现的时候,直接禁止生产、制造这种机器人,全面禁止对人工智能技术的滥用[20]。如果今后科技已经生产、制造出程序、软件或与此相当的科技物品,也应将其作为与枪支、弹药、爆炸物、假币、毒品、宣扬恐怖主义极端主义的物品等类似的违禁物品,予以严厉禁止和坚决查处。

(三)刑法的固有特性将荡然无存

人工智能语境下探讨是否可以将其规定为刑事责任主体,这是一个伪命题。因为面对仿人工智能体,最尖锐棘手的刑法难题,不是可不可以成为刑事责任主体的问题,而是应不应该的问题。因为根据法律抑制的立法技术,既然刑法可以将单位拟制、虚构为法律主体,那么,未来将智能机器人也拟制为刑法主体,在立法上是很容易的事情。而且,刑法中的责任,除了道德责任外,还有解释为包括因果责任,即客观意义上的责任,从因果责任角度,人工智能体也可以作为归责主体,毕竟立法者的正当权威地位,使得立法者有权力做如此解释。但此种立法,只突显了刑法的后现代性、前卫性、扩张性,与现行刑法所具有的传统性、保守性、谦抑性背道而驰。基于此,本文为在这个“先者浅探”的神秘领域坚守现行刑法的特性而主张:如果人工智能体产生危害结果,应无需经过刑事诉讼程序,而应像处置动物或违禁品一样,由主人、警察或相关有权者私下“删除数据、修改程序或永久销毁”[1-5],即用行政法予以规制,而无需由具有传统性、稳健性、保守性、谦抑性的刑法予以规制,更不应将智能机器人列为刑事责任主体, 而是应和克隆人一样,也通过行政手段予以解决。而且,如果将来人类开发出完全可以替代人类的机器人软件,我国刑法应禁止行动人工智能体、自主人工智能体等低级人工智能体安装该软件。

四、对当前智能机器人作为刑事责任主体的观点应予以否定

人工智能能否成为刑事责任主体、是否具有刑事责任能力的问题,为人们开始重新审视、回顾、反思刑法中的传统责任、人格及其背后的罪责理念提供绝佳机会。而下文在假设我国当前已经将智能机器人列为刑事责任主体后,发现该假设论断缺乏合理性,应予以否定。

(一)无论将智能机器人类比为现有何种类型的责任主体都存在疑问

假如我们将智能机器人类比为精神病人,其刑事责任能力的判断标准,应包括工程学标准和法学标准,其中工程学标准是实践中的客观能力,根据机器人客观现实的行为来推断;而法学标准是认识能力和辨认能力,以此判断是否存在主观犯罪心理状态,例如主张人工智能可以直接承担刑事责任的学者认为,人工智能(AI Agent)理所当然满足犯意要件,即完全可以在传统的主观能动谱系中,增设一个对刑法有关感知能力的、新的主观能动者(agent),即人工智能能动者(AI Agent)。[21]但这种理所当然的推断,并不具有说服力,因为犯意本身只存在于“能作因之人”(Human Agent)的头脑中,即使是独立承担刑事责任的法人,其前提条件、具体构成以及实现方式,皆与“能作因之人”的头脑紧密联系,而人工智能是在模仿人脑的情况下,完全独立于人脑而存在,与人脑无紧密联系。假如我们将智能机器人类比为未成年人,那么其刑事责任能力的判断标准应该以智能机器人的发达成熟程度来判断。这相当于将人工智能研发设计者、编程者或使用者等当作人工智能的父母。与人类子嗣一样,作为子嗣的人工智能并不受父母的完全控制,更不是父母的财产,但在其未足够发达成熟时,其研发设计者、编程者等相关人员也应承担刑事责任。可是判断其发达成熟程度或已成年的标准是什么?这至今是一个空白。假如将智能机器人类比为刑法上的“单位”,可是我国缺乏如公司法、事业单位机关团体法等相应的经济、民事、行政法规以确定智能机器人具体应完成哪些行政审批手续才能获得主体资格。而且,公司的意愿形成及表达仍是由自然人来决定,而如果智能机器人是和公司一样是一种法律拟制,那么智能机器人的意愿形成及表达是否也仍是由自然人来决定的,这本身还有待研究。[22]最后,假如我们将智能机器人类比为动物,那么其更无需承担刑事责任。

(二)犯罪主体的资格范围有边界

当机器人的犯罪能力与人类相当时,的确可以成为刑事责任主体。但是,如果机器人会不断地自我学习,通过获得提升自我的公开资源代码自动编程,使得其犯罪能力超越自然人,并远远高于自然人,那么机器人不应具有犯罪主体资格,因为机器人不是简单地拥有和自然人一样的犯罪能力,而是具有毁灭人类的全球犯罪能力,对于这种“超人类”种群,国别性、地域性极强的刑法,完全无力应对与防范其反人类之全球罪行之风险。

(三)目前刑事执法难度特别大

人工智能体的研究、发展,具有秘密性,日常生活中可见的物理基础设施也太少,执法机关难以拘留或逮捕到具体的实体。同时,由于人工智能体的配件组成部分的具体生产过程也比较离散,如果追究各个主要配件的主要责任,也将显得特别荒唐。即使将智能机器人本身列为刑事责任主体,其境遇也将会与单位犯罪一样,理论正当性一直饱受争论,司法适用率也偏低。另外,现有刑法是为人类以及人类结合体(单位)量身打造,制定修改时从未考虑过增设晦涩难懂的、新的规制主体,因此,对其予以前瞻性的事前刑事规制,本身极其困难。[23]356

(四)无法实现刑罚目的

对人工智能追究刑事责任,仅具有理性的认识能力和辨认能力还不够,还应考虑对其惩罚是否具有威慑力,是否能够预防犯罪,这要求人工智能可理解惩罚意义,自身可以产生罪责,即如果要对智能机器人施加刑事制裁,那么刑事制裁应有可能唤起智能机器人真诚忏悔、道歉,并自我反省、自我清算,以求宽恕。但是智能机器人没有情绪、情感、快乐痛苦等欲望机制,无法真诚悔罪。另外,即使在定罪阶段不需判断这些欲望机制要素,但在后续的量刑阶段、刑罚执行裁量阶段等必定需要考虑到这些因素。归根到底,目前还只有道德人类才会理解惩罚的报应、教育、表达、威慑和预防等功能,只有直接通过人类来实现刑罚目的。例如如今对单位施以罚金刑,但单位的财产事实上最终仍归属于股东或具体的个人,法人的惩罚后果也最终是由单位所有成员承担,还是要通过人类来实现刑罚目的。而主张直接问责于机器人,要求其直接承担刑事责任的学者,一般提倡机器人刑法,[10]174认为应将机器人拟制为具有法律人格,机器使人类从责任负担中解放出来。但是事实上,在实际的运转中,智能机器人会产生一些独特的需求,从而改变人类为其制定并要求其遵守的刑法规则和原则,因此,处罚机器人自身无法实现现有刑法目的,没有任何意义。[24]

(五)难以遭受刑法上的道德责难

一般来说,判断行为人是否应该承担刑事责任,会考虑其自主意识和道德能力。有学者主张道德罪责完全取决于个人的罪责意识,取决于良知和自我意识[25];但有学者不把自由意识置为责任概念的基础,而认为应缜密考察该智能机器人是否具有理解该行为相关的理由、规范、关联行为的能力,[26]268即是否具有反思自己的道德价值和道德信仰的道德能力,是否是“知其不可为而为之”[27],是否存在违法性认识和期待可能性,即非难可能性。[28]但未来的智能机器人,并不会遵守人类的道德,也不会遵守作为最强大的社会控制力、以人类道德为基础的刑法,因此难以服从人类法律。[19]1266例如,通过研究欧洲人权法院案件中人工智能如何判决的问题,科学家发现,在定罪的最终阶段,人类经常是根据道德方面的因素来定罪,而人工智能只能根据法律,而不是道德论断定罪。[29]134据此,目前保守、可靠、安全的规制之策,还是只应对人类予以一定程度的道德责难,例如行政法上要求智能机器人科技研究人员,承担前瞻性责任,即对人工智能研究的目标实现、方向与可能产生的社会影响有着清晰全面的认识,对人工智能的参数、行为模式、行为范围、行为能力的提前设定控制,否则,将对科技研究人员予以道德责难,追究相应行政责任。[30]

(六)与集体观念、历史体验相违

经过漫长的历史实践,行为人构成犯罪所需的罪责要件之满足,特别需要行为人具有独特的道德判断能力和对自己行为的操控,该罪责理念世世代代地传承着人类独特的道德判断。因而,现代刑法将自然人以及14世纪出现的、作为“自然人集合体”的单位,列为罪责主体,饱含着人类受众所承认的传统经典集体观念和历史体验,而仅是20世纪50年代出现的人工智能的设计者、创造者、使用者或相关研究者等人类对人工智能主体的承认,是远远不够的。举例来说,作为刑事责任内容的故意、过失、目的、明知等等,皆与人类社会经验有着千丝万缕之联系而不可分割[6]696,而人工智能没有、也无法具有人类集体观念、无法体验世界人类历史和感悟社会伦理道德,而其应拥有的责任能力所要求具备的辨认能力和控制能力,正以此为道德基础和前提条件。至于有学者主张应为人工智能专门设置新的刑罚方式:销毁程序、程序化等,笔者认为这些方式明显与人类所熟知的现行刑罚体系和制度格格不入,直觉上这些方式应属于行政规制手段,放在刑罚中显得特别突兀。

(七)前置法是刑法介入的前提条件

目前,完全游走于人类社会之外的智能机器人并未出现,其出现还需要人类高级计算机人工智能算法、脑神经科学、认知心理学、网络技术等有革命性的突破,而且人工智能必须经过长期、历史性的演进,才能逐渐被人类接受其相当于机器人。基于此种现实,现今刑法学界,迫切需要法理学上率先重点解决行动人工智能体、自主智能体的主体、人格、责任理论等法哲学问题;需要宪法学在刑法之前能解决上述两类人工智能体是否享有各种基本权利、履行各种义务的问题,例如服兵役、纳税等等;需要作为刑法前置法的行政法针对人工智能研发者、制造者、使用者等多方主体制定《人工智能法》以解决具体行政管制问题,确保人工智能拥有安全、可靠、易于为人类所操纵、与人类的利益保持一致等特性[23]394;还需要同样作为刑法前置法的民法解决其是否能成为民事法律关系的主体、是否具有民事主体资格和民事主体地位、是否具有民事行为能力和民事责任能力等问题。例如国外有学者指出:如果人工智能持续以现有速度进步,英美国家只需集中研究普通法侵权系统,为人工智能设计、制造、编程等内化的成本提供机制,而不需要再去寻找其他的法律规范。[23]391

猜你喜欢
刑法主体机器人
论自然人破产法的适用主体
过度刑法化的倾向及其纠正
技术创新体系的5个主体
刑法适用与刑法教义学的向度
关于遗产保护主体的思考
刑法的理性探讨
怀旧风劲吹,80、90后成怀旧消费主体
机器人来帮你
认识机器人
机器人来啦