对人工智能法学研究“伪批判”的回应

2020-11-15 22:43刘宪权
社会观察 2020年4期
关键词:刑罚机器机器人

文/刘宪权

学术探讨中观点的交融和碰撞发生的前提应是对研究课题所涉及的相关概念进行全面了解,并总结、归纳前人的相关研究成果,从理性、客观的视角出发,提出自己的观点和见解,并尽力在论述时充分理解其他学者观点基础上实现逻辑自洽、自圆其说、言之成理。任何为了批判而进行的所谓“批判”,即使辞藻再华丽、言语再犀利、论证再巧妙,也终究会陷入固步自封、只能“自说其圆”的“伪批判”泥潭。笔者认为,人工智能时代是一个全新的时代,这一时代的产生、存在和发展已经并还将继续会对传统法学乃至刑法学研究形成巨大的影响和冲击。法学研究者应有必要的心理准备,学会去芜存菁,认真研读和思考对于学术研究真正有价值的不同观点和意见并与之进行商讨;拒绝并剔除概念不清、张冠李戴、自相矛盾的观点和论述。只有这样,才能继续保持(而不是扼杀)人工智能时代刑法学研究的良好态势,修正人工智能法学研究的发展方向。依笔者之见,时下,我们应严格区分人工智能刑法学研究中的“批判”和“伪批判”。本文着重对学界存在的人工智能刑法学研究的“伪批判”进行回应。

对混淆概念型“伪批判”的回应

混淆概念型“伪批判”的主要特征是混淆了“人工智能”与“机械自动化”的概念。批判者从“人工智能”与“机械自动化”的非本质区别出发,将“机器是否具有自主性”作为区分二者的标准,将“人工智能”的范围大大缩小,将“机械自动化”的范围大大增加,进而否定当前人工智能法学研究的成果。笔者认为,从普通智能机器人到弱智能机器人再到强智能机器人的“进化”史,也即人工智能时代产生和发展的历史就是一部智能机器人的智能从无到有、从少到多的历史;而因为只有自然人才具有智能,所以我们又可将人工智能时代中的智能机器人的发展称之为是一部“机器”的因素逐步弱化而“人”的因素渐进增强的历史;同时也因为智能与人的意识、意志直接相关,所以我们还可将人工智能时代中的智能机器人的发展称之为是一部智能机器人的“智能”逐渐增强并对自己“行为”的影响和作用逐步达到“自控”的历史。进而言之,我们完全可以说,随着智能机器人的不断进化,自然人与智能机器人在对“行为”的控制与决定能力上存在着此消彼长的关系。具体而言,“智能”本来是人所特有的,人工智能技术便是人类创造了本来只有自然人才具有的“智能”的技术。将本来只有自然人才具有的智能赋予“机器”,从而使传统意义上“机器”能够在很大程度上,从简单地替代自然人的手脚等身体功能而发展到逐渐替代自然人的大脑功能,以开展相关活动。而此时的“机器”便不同于以往任何时代的“机器”,也即此时的“机器”实际上已经演变成了“智能机器人”。这也就是为什么会有“智能机器人”这一概念出现的根本原因。由此可见,“人工智能”技术与“机械自动化”技术的本质区别就在于是否能够替代自然人大脑的功能。能替代自然人大脑功能的技术是“人工智能”技术,不能替代自然人大脑功能而只能替代自然人手脚等身体功能的技术则是“机械自动化”技术。

对移花接木型“伪批判”的回应

批判者提出,人工智能法学研究者的研究对象是基于夸张、炒作、娱乐为前提而制造、放大的“假问题”。批判者提出,人工智能法学研究者“鼓吹”未来必然会出现具有自我意志的强智能机器人,智能机器人可能会取代人类,引发的风险足以对人类产生毁灭性的打击。这种以尚未出现的风险作为前提的“居安思危”“未雨绸缪”的研究,只不过是“用别人的噱头吓唬自己”。另外,智能机器人就像石器时代的石头一样,始终是人类的工具,即使其表现出了一定的自主行为的能力,也与黑猩猩等动物没有任何区别。

上述批判者的观点将普通智能机器人、弱智能机器人、强智能机器人(抑或普通智能机器人时代、弱人工智能时代、强人工智能时代)等概念糅合在一起,同时将人工智能法学研究者针对不同类型的智能机器人(或人工智能技术的不同发展阶段)所进行的分门别类的研究和探讨予以杂糅,并采用了“移花接木”的“技巧”予以“批判”。应该看到,这些建立在没有全面了解“批判”对象观点基础上提出的“批判”,似乎是文不对题、答非所问的。对此,笔者从以下三个方面予以回应。

第一,即使在当今的弱人工智能时代,刑事风险也是实实在在存在的。例如,在2019年8月底推出的“爆红”社交网络的AI换脸软件引发了严重的隐私争议;而在2019年8月初,“3D人头模型还破解了刷脸支付,成功购买过火车票”;在前几年,就有人利用AI换脸技术制作淫秽视频。弱人工智能时代人工智能技术中一个常见的分支——人脸识别技术——就引发了如此多的刑事风险,给公民的人身安全和财产安全带来如此巨大的威胁,对此我们难道可以视而不见吗?类似上述事例的案例不胜枚举,笔者在此不再一一列举。可见,人工智能技术带来的刑事风险并非是法学研究者“依靠无数假想拼凑起来的幻影”;相反,认为人工智能技术没有带来刑事风险似乎才是批判者闭目塞听所造成的“幻觉”。

第二,智能机器人“具有工具属性”这一命题的成立与否要分情况讨论。其一,普通智能机器人与弱智能机器人仍具有工具属性,但其与传统意义上的工具有质的区别;其二,强智能机器人产生了自主意识和意志,其行为可能不再受人类设计和编制的程序控制。显然,强智能机器人可能不完全符合“工具”的特征,不应再被简单地认定为“工具”。

第三,批判者提出的“强智能机器人无法理解自己行为的外部意义或社会价值”的论断无法得到证明。批判者在论述这一观点时,提出“从人类哲学的角度论证‘何为智能’‘何为思考’更贴近问题的本质”,并用塞尔的“中文房间实验”作为论据,得出“‘智能’一词本来就是专属于人类的一种能力”,而强智能机器人不具有人类所特有的“智能”,也就无法理解自己行为的外部意义或社会价值的结论。笔者认为,这一论证过程存在缺陷。

首先,批判者意图通过描述“中文房间实验”的场景,来说明强智能机器人不具有自由意志,进而否认强智能机器人成为刑事责任主体的可能性。笔者认为,从哲学角度,强智能机器人具有自由意志完全能够得以证明。具体而言,其一,人的自由意志具有拟制特点。当历史背景发生变化时,具有自由意志的主体范围也有可能会发生改变。其二,上述拟制的前提是在人工智能时代来临之前,只有人可以发挥主观能动性并作出实施或者不实施某种行为的抉择。其三,上述拟制成立的基础在人工智能时代发生了动摇。具有自由意志的主体并非一成不变的,随着科技的发展和时代的更迭,具有自由意志的主体范围可能会得以拓展与扩张。如果强智能机器人可以脱离人类设计和编制的程序控制自主实施行为,则我们没有任何理由否认强智能机器人具有自由意志的判断。

其次,“中文房间实验”这个论据不能支撑批判者所提出的论点。“中文房间实验”中的“我”的原型并非智能机器人,而是自然人。与自然人依靠语言同外界进行沟通交流不同,智能机器人与外部世界沟通交流的媒介是程序和算法。智能机器人对外部世界信息的接收过程即是将外部世界的信息转化为自己能够“理解”的编码,而其向外部世界释放信息的过程即是将自己能够“理解”的编码转化成自然人可以理解的信息。批判者在所提供论据中的主体与所要论证对象存在上述差异的情况下,运用“中文房间实验”,似乎只能证明智能机器人“不一定能”理解自己行为的外部意义或社会价值,但是,不能证明智能机器人“一定不能”理解自己行为的外部意义或社会价值。

对自相矛盾型“伪批判”的回应

除主张智能机器人的核心要素是“沟通交流能力”和“自主性”这一观点外,也有批判者提出,智能机器人具有“像人一样思考”和“机器”两个核心要素,即智能机器人就如能够像人一样思考的机器。该批判者认为,智能机器人的外观是机器设备,内核是电子程序,即使它比人类更聪明,也永远摆脱不了“机器”这一核心要素。并且,人工智能不是“天然的”智能,而是“人造的”智能,就如同“真牛皮与人造牛皮”的关系一般直白,“两者始终是异质体”,因此,智能机器人就是“为了方便人的生活、为了丰富人的娱乐活动而研发的一件‘机器’或‘玩具’”。笔者认为,批判者的上述论述是完全自相矛盾的,应被列入“伪批判”的范畴之中。笔者从以下几个方面对上述“伪批判”进行回应。

第一,“像人一样思考”与“机器”是互相矛盾的两个要素,不可能同时出现在同一个事物中。笔者认为,批判者所提出的智能机器人的两个核心要素,其实是互相矛盾的。按照批判者的逻辑来分析,自然人就是“会思考”的“肉身”,即自然人的两个核心要素是“会思考”和“肉身”。“肉身”并非人类所特有的,而是自然界中的动物都具备的。因此,人区别于其他所有动物的关键在于“会思考”,也即自然人的外形不是人类智能的表现,“会思考”才是。而按照该批判者的说法,智能机器人是“像人一样思考”的“机器”,那么,既然智能机器人具备与人类相同的“会思考”的核心要素,又怎会完全等同于“机器”或“玩具”?可见,批判者对智能机器人核心要素的总结不仅不能证明自己论点的正确性,反而是“以己之矛攻己之盾”,揭示了自己论点当中的自相矛盾之处,相当于足球运动员踢了一脚“进了自家球门的乌龙球”。

第二,“人造牛皮论”与“法人的人工类人格”相抵牾。该批判者承认,“法人的人格其实也是一种人工类人格”,这与其在论述中提及的人工智能相当于“人造牛皮”从而只能作为人类的“玩具”的说法相冲突。具体而言,其一,如果批判者提出“人造牛皮论”的目的在于说明,“天然的”相对于“人造的”而言具有优势,即“天然智能”一定比“人造智能”有优势,这就犯了常识性的错误。众所周知,“人造的”超越“天然的”可谓比比皆是、不胜枚举(“阿尔法狗”战胜中日韩围棋国手就是范例)。其二,如果批判者提出“人造牛皮论”的目的在于说明,人造的事物只能是人的工具,永远不能成为主体,则与批判者所承认的法人具有人工类人格的说法相悖。法人概念确实是人类创造出来的产物,并非天然存在的。但是法人因拥有法律上的人格,而可以或者已经成为法律上的主体。可见,非天然的事物也有可能成为法律上的主体,而并非只能是工具。由此,我们不能简单地认为,人造智能的承载物——智能机器人——永远只能是自然人的工具,从而当然不可能成为法律上的主体。

另外,笔者在此需要说明的是,批判者在突出持智能机器人刑事责任主体资格肯定说的学者所犯的自相矛盾的谬误时提出,承认人工智能的刑事责任主体地位将会面临以下悖论,笔者对此分别作出分析与回应。

其一,在“技术失控——技术可控”之悖论中,批判者提出,既然刑罚能够有效限制智能机器人的犯罪能力,为何还会出现智能机器人超出人类设计和编制的程序控制的情形?按照批判者的这一质疑,我们似乎也可以说,既然刑罚具有改造罪犯、预防犯罪的功能,为何从古至今还会出现犯罪分子屡禁不止实施违反刑法规定的犯罪行为呢?由于现时提出如此显而易见谬误的质疑之人恐怕不会太多,因此,对批判者提出我们可能面临这一悖论的质疑,笔者应该没有必要再作更多的回应了。

其二,在“特殊预防无效——特殊预防有效”之悖论中,批判者提出,人类为何不直接在智能机器人的程序中消除犯罪条件,非要等到其犯罪之后再介入?按照批判者的论调,我们似乎可以提出这样的疑问:与其现在对犯罪者进行刑罚惩罚,为何不在幼时就彻底消除他的犯罪思想或犯罪条件,而非要等到其犯罪之后再对其处以刑罚?监狱对犯罪人进行教育改造的目的是使其“洗心革面,重新做人”,为何还会出现累犯?批判者这一观点究竟是想说明我们对幼儿的教育或监狱对犯罪人的教育改造无效,还是想说明我国的刑罚体系没有存在的必要?另外,需要指出的是,前文笔者曾提出强智能机器人之所以可能成为刑事责任主体主要是因为其可能脱离人类设计和编制的程序控制而产生自主意识和意志,并具有独立的辨认能力和控制能力,可能会自主实施犯罪行为。如果这种情况确实会出现或存在,试想人类又怎么可能“直接在强智能机器人的程序中消除犯罪条件”呢?

其三,在“刑罚设计——非刑罚性”之悖论中,批判者提出,删除数据、修改程序、永久销毁等专门为强智能机器人设计的刑罚种类实际上是非刑罚措施。应当看到,某一项措施是否应该设置为刑罚种类,主要应该根据对新类型的犯罪有无设置的针对性以及对惩罚与改造新类型犯罪主体有无必要性等因素加以决定。最后均应该由刑法加以明确规定,并不会因为行政法规或其他法律中已有规定而一律排除在刑罚种类之外。以罚金(款)为例,其既可以是一项行政处罚措施,也可以是刑罚体系当中的附加刑。与之类似,删除数据、修改程序、永久销毁等举措可以是机器“检修指南”当中所规定的措施(如批判者所言),但当强智能机器人可以成为刑事责任主体时,刑法则完全可能同时在条文中规定与此责任相对应的新刑罚种类。此时,这种机器“检修指南”中所规定的措施性质就可能成为刑罚种类。需要指出的是,笔者所提出的刑法应适时将删除数据、修改程序、永久销毁等设置为刑罚种类,设置这些刑罚种类的想法也仅仅只是针对现时我们所能预想到会出现的强智能机器人(即可能脱离人类设计和编制的程序控制而产生自主意识和意志的强智能机器人)的犯罪行为设计的。如果在未来科学家一旦将包括类脑技术等生命科学技术、神经科学技术与人工智能技术结合的话,其产生的强智能机器人可能不仅在智能上会超越自然人,甚至在智能产生根据及物理外观等方面也会有很大的突破和超越。假定将来这种并非遥不可及的现象真的出现,不仅会让批判者从“智能机器人因具有机器的外观而只能是机器而不可能是人”的疑惑中解脱出来,而且我们完全有理由相信,笔者建议设置的上述刑罚种类似乎会远远不足以应对犯罪的新类型强智能机器人,而需要进一步增加。

其四,在“消减风险(追求责任体系严密化)—加剧风险(转移人类责任)”之悖论中,批判者提出,当智能机器人致人损害而自负责任时,便为智能机器人的研发者或使用者推卸刑事责任提供了绝佳的借口。应当看到,当普通智能机器人或弱智能机器人致人损害时,承担刑事责任的只能是智能机器人的研发者或使用者,此处不存在推卸刑事责任的可能性。当强智能机器人在自主意识和意志的支配下实施了严重危害社会的行为时,如果研发者或使用者对于强智能机器人的“失控”存在故意或过失,则应承担相应的刑事责任;如果研发者或使用者对于强智能机器人的“失控”既无故意也无过失,则强智能机器人的“失控”对研发者或使用者而言就是意外事件。此处更不存在推卸刑事责任的可能性。

综上所述,批判者所谓“承认人工智能的犯罪主体地位将会面临几大悖论”的问题并不成立,其实没有一个悖论实际存在,批判者“无法解决”的担心似乎是多余的。

猜你喜欢
刑罚机器机器人
机器狗
机器狗
未来机器城
刑罚现代化本体初论:目的与路径
断盐也是一种刑罚
机器人来帮你
认识机器人
机器人来啦