[德]苏珊·贝克/著,王德政/译
(1.德国汉诺威大学 法学院,德国 汉诺威 30167;2.中南财经政法大学 刑事司法学院,湖北 武汉 430073)
“身处变动的时代,最大的危险是以过去的逻辑行事。”[1]
互联网的重要意义在于社交网络中的活动,包括智能手机、电子邮件、通过WhatsApp或Viber进行交流——我们正处于数字时代:到2030年大概会有5亿个设备相互联结在互联网中[2]。全球约95%的科技信息容量都是数字化的[3]。最新的发展是工业4.0、医学中的人工智能诊断系统、护理机器人、自动驾驶汽车、自动武器系统等。近年来,自动化——让机器作出决定以及与人工智能(有时是有形体的)直接互动影响了我们的日常生活[4]。
数字化意味着全球范围内的迅捷交流和即时信息,涉及几乎所有的切身问题、联网、分工和日常生活[5]。在许多领域,只有机器能处理信息超载(Informationsflut),并且其作出决定时犯的错误通常比人类少。
科技的发展必然改变人际间、人与机器之间以及机器与机器之间的交流和互动。这当然会对伴随并调控科技发展的法律产生后果。在数字化和自动化的背景中,个人的社会地位、互联网交际的特殊性、让机器作出决定、社会和个人实施(以及交由机器实施)数字化行为产生的结果,对刑法和以其为基础的责任概念而言都是有重要意义的。因此,在下文中可先从刑法视角(尤其是行为人和被害人视角)探讨科技的发展,再阐明该发展对刑事责任而言有何意义,以及若有可能的话该发展是否应受到调整。
数字化[6]首先意味着为了储存和再处理而对信息进行处理。作为社会发展的数字化不仅包含技术过程,还包含互联网的产生及其持续的进步。信息发送人与接收人通过电子方式进行交流,他们之间形成了一个很大的距离。这种交流可以匿名进行。接收人群体(Adressatenkreis)的范围在理论上是无限的,一般很难被发送人掌控。交流的内容可以长期得到保存,“不会被网络忘记”。
传感器、一些被运用的机器、计算机程序和算法持续得到发展。这些系统有时会“自我学习”,即自我继续发展,去理解特定的结构,如若可能还会在犯错后改变举止等。在所谓的“深度学习”[7]中,学习过程不再是可以理解的,因为该过程是通过神经网络这种方式发生的。
我们可以此方式获得无穷数量的信息,除了这些信息以外,互联网还为网民的交流创造了一个无边界的基础设备。当前,为了处理信息超载,要不断继续发展受到运用的算法。在高频交易(High-Speed-Trading)中,只有软件代理能很快作出决定;在医学领域,人类医生基本上未充分运用大数据和最新的研究成果——与此相对,人工智能支撑的诊断系统似乎具有很大的优势[8]。能进行自我学习的机器受到运用的生活领域在不断扩大,包括股票交易和医学、信用贷款、从许多申请者中进行选择、翻译程序等。此外,人工神经网络和深度学习在机器中与日俱增地受到运用,以至于与改进后的传感技术有关的自动驾驶汽车和智能仓库管理系统进入了日常生活[9]。甚至在判断一个罪犯的再犯可能性时,计算机建议已在美国[10]受到采用。
可先通过以下两个案例说明与上述发展相关的潜在的法律问题,再详细分析其中一个法律问题。
案例1:A在Instagram上变成了一场“狗屎风暴”(Shitstorm)的被害人,因为他发送了一张裸露上身的所谓“下流”照片。无数网民都评论了该图片,取笑他并称之为“韭葱”和“笨蛋”。这让A备受精神折磨,因为如此多的人同时攻击他,以及许多网民包括他的朋友和家人都可以看到这些咒骂之语。甚至该图片被删除后,不少相关的截图又出现了。评论者并不认为其行为较为恶劣,而认为这是正常的评论,但A不愿他们这样行事。此外,所有其他的人都进行了类似的评论。
案例2:制造商H从事制造自动驾驶汽车。编程者P对该汽车负责编程。一辆已编程的自动驾驶汽车通过批准部门的审查后被送交车辆所有人X,随后被出租车司机A驾驶。A在驾驶过程中看电影,因信任这辆汽车而未注意街道交通。由于阳光照在车篷上并且传感器未作出反应,该汽车忽略了一个横置的白色卡车——P并未想到会有这种可能性。该汽车撞上卡车后反弹回来重伤了一名走在人行道上的行人。
上述案例已展示出数字化和自动化形成的一种困境。在下文中,从刑法视角考察数字化和自动化的发展,依次以行为人和被害人为重点。
通过阐述数字化和自动化的效果考察行为人。
由于互动是在网络中和通常是以机器联网的方式发生的,一般而言,每个参与者对于特定结果的贡献只是很小一部分。对此,可引用分布式拒绝服务攻击(DDoS-Attcaken[11])的案例:当大量网民同时进入一个网站时,为了阻止他们进入而实施攻击基本上是很有效果的。通过对侮辱行为贡献了一个很大的组成部分,一场“狗屎风暴”[12]对被害人而言获得了意义[12]。此外,侮辱和伤害在数量上的巨大性至少建立在以下基础上:个人彼此间的刺激及其感受[13]。这被忽略了。
不仅很多网民,还有使用虚假身份这种可能性——在论坛中不使用真名而以虚假身份隐藏自己,都给予行为人一种(或多或少是假想的)匿名性[14]。行为人与被害人之间存在巨大距离的现象与此有关[15]。这种不受时空限制的交流和数字化的匿名性让行为人无法直接感受被害人施加的作用。这让行为人对被害人施加的去人格化(Entpersonalisierung)在程度上得到减轻,尤其是当他并非“真的”认识被害人时更是如此。因为这些犯罪(如网络钓鱼或黑客)通常只是轻微地侵害了个别被害人,行为人主要从侵害的总数中获利,因此,相比在现实中,被害人偶然受到的侵害更容易对自己失去作用。还有一种特殊性:行为人在数字化的领域实施行为。这些犯罪一般只在屏幕前被实施。这减少了羞耻和做“错事”的感觉。被害人和其他监督、评价行为人所实施行为的公民,都直接察觉了行为人的行为。确切地说,互联网这一环境诱发了无规则性(Regellosigkeit)即“法外空间”(rechtsfreie Raum)的产生[16]。
此外,网络由于可能被大量使用而通常会导致人格分裂的情形。然而,有人强调其在专业上具备可信赖性,有人在社交网络(比如脸书)中呈现出个人的人格特质。这也导致有人具备但同时另外有人欠缺很多特定人格特质,这些人格特质涉及在法律和道德上均存在问题的行为方式,以至于那种受创设的网络身份应当对犯罪或反社会的行为负责[17]。
一个特殊而相对较为新颖的难题是系统的自动化。机器作出(至少是部分作出)或预备作出决定越来越常见。比如,关于购买或出售有价证券[18]的算法能选择最好的旅行路线,或在照顾老人者没有反应时呼叫急救医生。完全由机器作出决定这种情形以及共同作出决定都不同于传统的作出决定情形。机器通常在事先确定好的选项中进行选择,人类行为人对其提供的建议存在偏见。此外,结构和时间上的既定性(Gegebeiheit)通常决定了,以完全负责的方式进行思考对人类这一合作伙伴而言事实上是不可能的。所以脸书案的被告人只有3秒钟时间将某条被发送的信息归类为仇恨言论或其他不被允许的言论。对此,他们只看到被发送的具体信息而不顾语境。一名汽车司机(该汽车像特斯拉汽车那样基本上属于自动驾驶型,他只需监管即可)为了在紧急情况中像非自动驾驶汽车的司机那样去作出反应,需要更长时间。人类的反应时间通常只有3~26秒[19]。
数字化和自动化也对(潜在的)被害人产生作用。这种虚拟性在事实上简化了与他们进行的交流以及关于他们的交流。此外,可通过群发电子邮件和社交网络联系上相当一部分被害人,并可增加以下情形发生的可能性——某些信息接收人如预期的那样进行反应。虚拟的威胁不如现实的威胁在感知上显得那么强烈,以至于采取的保护措施较少[20]。
同时,从理论上讲,可能在网上看到诽谤信息的人是不受数量限制的,这就升高了诽谤这一实行行为的不法内涵[21]。还存在以下危险:这类侵害行为和其他可罚的交流行为(煽动群众、儿童色情等)在互联网中是长期存在的[22]。最终,在网上不仅很难让回复获得相同的空间,还很难去侦查行为人,证明其实施了实行行为以及处罚他。这只会加剧对被害人的侵害[23]。
数字化和自动化可能从多个方面改变刑事责任。我们要注意几个方面。比如,许多参与者与结果发生之间的互动,首先通过个别贡献的累积,能作用于可归责性和个别贡献的可证明性。这也适用于让(或部分让)机器作出决定。科技发展对个人可非难性的重要性由此呈现,在数字化和网络使用者这种特殊情形中更是如此,但互联网中对被害人的大量侵害也可能改变罪责。
不同的行为人在互联网中的互动,比如在相关平台上合作制造产品、狗屎风暴引发众怒或逐渐导致网站被关闭,已作用于客观构成要件的阶层,比如客观可归责性。这适用于案例1中蕴含的问题。这些问题与其他的集体性共同作用完全一致,由此成为我们当前考察的重点。然而,数字化通常的发展可能作用于个人在刑法上的罪责。特定的人格分裂、失去作用这一新机制、至少是行为人感受到的不法之减少,以及被害人受侵害程度的加剧,正如案例1中明显展示的那样,不仅可能改变罪责能力,还可能改变罪责的程度,比如影响量刑。
此外,行为人所处的特定情形是否导致其具备罪责能力,与如何建构罪责概念有关。如果这与雅各布斯(Jakobs)[24]的观点一致,都事关一种在具体情形中对行为人提出的行为要求(Verhaltensanspruch),互联网中规范的松弛(Lockerung)、社会监督微弱的介入和同理心的必然减少就完全可能在个人的罪责中扮演一个角色。有人可能提出类似于罗克辛(Roxin)[25]的观点:在数字化世界中,合规行为的决定变得更难——我们案例1中的评论者也是这样争论的,在此背景中,所有的网民在某种意义上都是“不成熟的”。由于社会监督发生弱化,对规范适用的信任消失了,这就导致行为人的可回应性(Ansprechbarkeit)更加弱化。这无论如何都适用于具备以下特征的行为方式:在网络中具备合规性,同时个别网民只对其作出微弱的贡献并且对规范受到侵害和得到适用不知情,比如分布式拒绝服务攻击或狗屎风暴。同时,上述两个概念都对以下论断提供了根据:这对于罪责的“有无”通常不能改变什么。尽管如此,以下社会一致性是存在的:数字化的行为要受到刑罚规范的裁量。尽管存在人格分裂的情形,在数字化世界中,对于规范的可回应性还是假定其存在的。正是由于对规范的信任发生了弱化,似乎强调以下这一点也很重要:在数字化场合,一般性的规范还是适用的。就此而言,积极的一般预防非常重要。因此,将一般化的罪责能力或推定有罪责能力建立在上述论据的基础上是不可能的。更确切地讲,数字化本身暂时还未改变行为人在网络中的基本责任。
数字化对行为人和被害人的影响可能作用于罪责的范围和据以量刑的罪责(Strafzumessungsschuld)。这里并不完全指的是以下既定类型——行为人具备病理状态(德国《刑法》第21条[26])或对实行行为的法律评价发生特定的认识错误(德国《刑法》第17条[27])。犯罪事实和不法的程度在整体上可能影响刑度(Strafhöhe)。对此,相互作用是存在的,但疑问在于,什么对犯罪的不法提供了根据?行为方面和结果方面对此扮演了一个角色,此外,这两个方面彼此都要受到衡量。
观察一下行为人实施行为的情形,正如上文中几个论据所主张的那样,都以减少不法为出发点。不法的程度正是借助于犯罪事实而得以量度。即使我们认为,尽管条件发生改变,这些条件让受到限制的、可罚的行为更容易得到实施。有人在互联网中还是完全能继续实施在刑法意义上负责的行为,那就可能显得对个人要求过高,应考虑到社会期待、规范的可回应性和违法性认识发生改变,以及同理心能力减轻等因素,对其减轻处罚。然而,与此相对的是关于结果方面的论据。数字化导致法益侵害变得更容易并得以扩大,这是持续且无法逆转的[28]。在很多案件中(最明显的是公开的、无法删除的侮辱信息,正如我们的案例1中那样),从被害人和实行行为的不法这一视角来看,法益侵害的程度升高了。
关于行为方面的论据必须与关于个案情景的(Situationsbezogen)方面相互平衡,案例1中支持罪责的升高,案例2中却赞同罪责的降低。就此而言,要提及一种已知的、被容忍的矛盾或已知的德国《刑法》第46条[29]中实际量刑的个案关联(Einzelfallbezug)。这里仅通过简要的提示补充一下:这一权衡在衡量过程中也与被支持的罪责概念有关。一个主要以预防为导向的罪责概念将注目于行为的结果,但以进行压制为核心的、关于行为的情况将扮演一个很重大的角色。即使网络中那些最新的、持续恶化的情况正好说明网民罪责降低完全是不可行的,至少有一种意识应当存在,该意识涉及一个与结果极其相关、不太以行为人为导向的论据。
机器在刑事责任中扮演一个特殊的角色,本身具有裁量空间,通过传感器和联网以获取和分析利用信息。在这种情况中,正如我们的案例2,机器在何种情形下将作出何种决定是事先无法预见的,事后也无法确定其根据什么来作出决定。尤其是参与者,即编程者、制造者或使用者是否犯了错误,通常是无法得到证明的[30]。即使可以证明,常规的归责构造(正如我们在下文中将看到的)是无法轻易受到运用的[31]。这并不意味着以下情况无法想到——参与者犯错可以得到证明,但存在例外[32]。
1.相关人类行为的选择
一个首先在实务中较为重要的问题,根据在刑法上进行判断的起点是行为的选择。原则上要适用的是,任何行为人只要实施了在刑法上具备重要性的行为都要受到处罚,并且任何嫌疑都要受到追诉。因为对自动系统进行在策略上可预见的处罚是不可想象的。原则上讲,以下的人对一种可能存在的可罚性而言是合适的:研究者、编程者、制造者、销售者或使用者[33]。在集体性事件中,大多数因素只根据个别参与者受到调整,包括可证明性、公示作用(Öffentlichkeitswirkung)等。然而,这种选择对刑事责任的具备而言是重要环节,因此,在多人相互合作以及与机器合作的场合中,应当批评性地支持该选择。
存在人的行为对可罚性而言是必要的[34]。即使近几十年来对行为概念的讨论已不再激烈,但像我们所进行的这种思考对新问题的提出仍然很重要。这不是指对机器的可罚性所进行的讨论[35],而是指独立于可非难性问题的以下疑问:何时才能将人类的互动视为行为?如果无法将举止中人类所实施的部分视为受意志支配或可由意志支配,或者如果机器超越支配(übersteuern)了人类的行为,情况就并非如此[36]。如果一辆自动驾驶汽车的使用者在车内睡觉,该汽车承担了所有的驾驶功能,则该使用者并未“驾驶”——在讨论不作为的可罚性时(若有可能存在的话),自然只剩下讨论他是否以及在何种程度上有义务介入特定情形[37]。此外,如果这辆汽车停在一个红灯旁边,尽管该汽车的使用者想进行驾驶操作以通过这个十字路口,但自动系统拒绝他实施该行为,阻止了违法的发生。
2.结果的可归责性
至少根据通说,具体结果必须可归责于潜在的行为人[38]。这涉及对人与机器的合作进行刑法上的分析时关键方面中的一个方面[39]。客观归责可能是存在问题的,因为直到结果发生时,不同的人都作出了许多关于设计和运用机器的决定[40]。在自动系统的制造和运用中也有许多人相互作用[40]。但如上文中所说,该问题与制造其他设备或其他集体性行为这一问题并无不同[41]。
在机器人学和人工智能领域中却存在一个问题:当前机器也进入互动之中[42]。在传统意义上这可能是欠缺“行为”或“决定”的[43]。但通过特定的科技,亦即编程、信息、网络活动、训练、从错误举止中进行学习等,机器变成与人类共同作出的“决定”中一个重要部分。因此,必须问一下:是否罪责关联(Zurechnungszusammenhang)不只是通过这种方式被中断?因为这种决定是紧密交错、无法轻易分割的,将结果视为人类行为人的作品非常合理。
这也适用于以下情形:运用人工智能或辅助系统时,人类行为人的最终决定得以保留(比如当人类必须同意辅助系统提出的建议时)。在某种程度上,可从这种通常在规范意义上构建的“人机回圈”(human in the loop)[44]之参与中得出结论:作出决定的后果应归责于作出决定的人或有监督义务的人。但这不仅可能损害让机器作出决定这一想法,还在规范层面上值得怀疑。人工智能的参与正好实现了以下目的:弥补自身的不足(信息太少、作决定太慢)以及至少在部分范围内为自己出罪。这种运用方式为社会所接受可能也是因为机器的缺陷(至少在部分上)越少,就越能进行合理、迅速的判断。如果使用者对任何错误决定都承担刑事责任,则欠缺说服力[45]。这将意味着一种全面的审查和监督义务并且无法实现出罪。在自动驾驶汽车的场合,这可能意味着,司机必须持续集中注意力——这事实上甚至是更难做到的,如果司机长时间保持消极状态[46]。以此方式,人工智能的运用将在许多情形中都没有意义,或者至少其功能性会受到损害。如果认为司机要负责任在规范上是令人信服的,就要接受这一点。但情况并非如此,因为该决定基本上不被视为参与其中的行为人的作品。更确切地讲,在大多数情况中,结果主要是机器的作品,并且机器这一部分也不重要[47]。通常可能要对一种“有意义的控制”[48]予以赞同。
对此要概括一下:反对机器的精神和身体抑制阈(Hemmschwelle)越大,就越容易否定客观归责[49]。相反,如果可对机器进行重要的监督并最终作出决定,这就不适用了。结果被视为行为人的作品这一论断是有说服力的。演完(在技术上可实现的)各种合作剧本,弄清作出的决定在何时可受监督,以及在法律上如何定位这些剧本,似乎才有意义。
3.特殊问题:过失
许多难题,尤其是但不仅仅是客观归责,都面临过失的判断。因此,应当更详细地探讨一下这些难题的几个先决条件[50]。然而,过失责任[51]各方面的教义学定位或相互之间充满争议的关系不应成为焦点。
原则上应避免对第三人可预见的侵害。危险的预见可能性[52]具备重要意义。一个系统越自动化、越危险,就越容易抽象地预见到,其在某个时候将侵害他人。那么在将来,必然有人由于自动驾驶汽车的运用而受伤甚至死亡[53]。自动驾驶汽车的制造和运用创设了一种统计学上的风险[54]。同时该预见可能性正好是抽象的。特定的情况和结果由于系统的自动性而变得越来越无法预见[55]。这是由于复杂的神经网络在运行,另外还因为,该系统属于未知的工具,这种工具的举止对我们而言还不具备可归责性。这种发展表明,可预见性在将来还须进一步具体化[56]。换言之,要问一下:是否必须将可预见性集中于特定的情况、因果关联(kausalzusammenhang)和具体的侵害,或者说,具备预见他人被侵害的抽象可能性是否足够?
对此,尤其需要注意的是,根据对抽象风险单纯的可预见性,某人可能由于运用该系统而导致自己具备某种行为能力,这是因为,该系统的运用在将来某个时候导致他人受伤或死亡是必然的,制造和运用该系统所蕴含的可罚性风险相当高[57]。因此,某人无论如何都应当注意已产生的极大的可罚性风险,并应详细地考虑可能性、损害的范围和具体性等方面。
除了预见可能性以外,违反“必要的注意义务”也是不可或缺的[58]。此标准一般由以下因素决定:来自特定社会圈层的、理智的行为人可被期待实施何种举止?指标在于出自各种背景、非国家制定的规则,比如ISO或DIN规范[59]。针对我们所提出的问题,必须注意一个方面:处理该系统的标准很少[60]。对此,只有一种一般性规则可指导。但这无助于处理就像我们提到的这种复杂的技术性事务[61]。已联网的智能学习系统也正在发展中,可能发生的风险基本上是未知的。即使存在这些标准,也要注意:其蕴含的评价通常代表着存在问题的利益,偶尔还出自不透明的控制程序(Regelungsverfahren)。比如,这些标准适用于企业内部的准则,该准则主要涉及企业的利益。但这是存在问题的,因为刑法至少应当巩固关于符合社会相当性之行为的社会规范性认识[62]。对一个举止的可罚性而言,除了具备危险性以外,违反一种被社会承认的行为规范也是必要的[63]。这种规范必须受到普遍的承认。因此,保护个别或特定群体利益的规范不可能进入刑法[64]。在自动系统的背景中,独立于上述特定难题并且未被澄清的是,由于新科技的发展伴随着未知的挑战,在这种新情况中,究竟如何在整体社会中确定注意标准?这些法外标准或已提到的其他标准在何种程度上应当进入刑法?
迄今为止所有的观点中有这样一个观点:自动系统由于具备无法估测、未知的风险而面临全面的禁止,或者说,参与者通常面临过失的可罚性[65]。该可罚性可能阻碍参与者继续进行研究、制造、出售和使用自动系统。鉴于自动系统所允诺的优点,上述结果无法使人信服。不仅基于以上原因,还基于可归责性的欠缺,如上文中所说,参与者(比如使用者)对自动系统将来犯的每个错误,基于不明确的法律规定以及相关实际结果,似乎基本上要完全承担责任[66]。但对参与者而言,自动系统肯定不可能导致全面的过失和无法容忍的风险。
只要参与人自身决定容忍某个风险,在他以外的人际圈(Personenkreis)所容忍的风险就可能被视为容许该风险的标准。但参与人以外的其他人可能被侵害,整体社会层面的风险容许标准仍须形成。只要人们普遍接受自动系统的运用,参与人以外的其他人对此也容忍特定的危险,人们就不可能要求制造者和使用者确保一种不成比例的安全性[67]。对查明可容许的风险而言,一场透明的讨论最终是有必要的。自动系统的优点在何处超越了其缺点,可容许的风险之边界就在何处。对此包括以下因素:自动系统的使用者或通过使用获利的人、参与者对自动系统的掌控、运用所有能想到的实现风险最小化的方法[68]。该系统完全威胁到了参与人以外的其他人,容许的危险在以下情形中更小:只有使用者或有意决定冒险的人与自动系统相互作用[69]。
4.小结:智能学习系统的刑事责任
独立于具体规范和特定运用类型的问题是,如何应对以下情形:智能学习系统为某人预备了一个决定,但此人基于该预备的存在只有很小的裁量空间(可能基于一个很高的心理抑制阈、作出反应的时间太短或机器的建议缺乏透明度而反对机器)。这涉及以下情形:经常被要求进行的“人机回圈”最终只有一种象征性的功能[70]。只要这一点得到适用(同时适用各种罪责理论[71]),社会无论如何都无法对个人作出期待,除非是可以期待的。对于人类与机器人和人工智能系统之间的合作,要在个案中详细地审查:机器如何参与决定的作出,人类的行为空间如何发挥作用,以及根据本文赞同的罪责概念,个人的罪责是否被阻却或至少被极大地减轻。
要记得,刑法向来针对的是对行为的处罚,该行为可能被归责于自我负责的个人。这表明,在机器人学和人工智能领域,几乎是不可能做到这一点的。一个具体的、可非难的(比如违反了注意标准)行为通常是可被证明的,可归责性在很多情形中都受到怀疑,行为人的罪责通常也有疑问。完全或在部分范围内让机器作出决定,会对罪责概念以及进一步对刑事责任产生许多问题——过失犯的预见可能性、客观归责、不当行为的可证明性等[72]。
上文中阐述的这些变化可能在刑事责任方面产生后果,即在数字化的世界或在智能学习系统的背景中,几乎不可能判处刑罚。然而,如果个人责任在承担上的欠缺导致社会产生不安,以及导致规范的适用受到怀疑,这就引发了一些问题。因此,在刑法上进行新的调整可能是有必要的[73]。但刑法不会由此失去太多特质。一部完全以功能为导向的刑法,放弃或至少弱化了个人责任的要素,很难与德国的法律体系相协调。国家认定个人的责任或个人相互认定责任基本上是为了我们实现相互感知(Wahrnehmung)以及自我感知。这也反映在德国《基本法》第1条第1款的人性尊严和以此为根据的刑法原则中。同时,不应以承担这种责任来苛求个人,或者说要认真审查在个案中谁是合理的被归责者。此人不必然是最后作出决定并(若有可能的话)深受人工智能影响的人,更确切地讲,根据不同的情况,编程者、制造者或其他参与者也可能在刑法上负责。因此,为了恢复对规范适用的社会信任,或者说,为了保持个人责任的优点——对自己举止的责任感,可能必须寻找刑法以外的其他解决方案。可以在监管层面寻找,若有可能的话,还可以首先在道德领域寻找。
从法的视角来看,基本上可以想象的是:责任的概念在体系性或集体性的角度被构想出来。通过集体性责任主体的形成和安全体系,不但机器或程序得以运用的特定条件(必要条件)预先受到遵守,在责任方面还具备回溯性。但这种解决方案更好地存留在其他法域(Rechtsgebiet)中,包括在公法中预先规定针对现代科技发展和运用的适当条件,以及在民法中对(若有可能)已发生的损害进行适当的补偿[74]。
然而,转向其他法领域不应是唯一的解决方案。寻找既定法律(尤其是刑法)的替代方案或对其进行变革时,以下方面有重要意义:首先要问一下,社会有哪些规范性的需求?科技进步所导致的较大的法益侵害可能撼动社会对规范的信任——仅提到在将来进行弥补或更好地调整不可能恢复这种信任。被害人方面也产生了类似的结果:他们受到的法益侵害可能也不会通过单纯的物质补偿完全获得弥补。就此而言,完全放弃刑法并非没有疑问。此外,刑罚规范、相应的刑法判断和一种规范性的交流方式甚至都属于极其强大、令人印象深刻的方式。在此背景中,如果完全放弃刑事责任,这种方式就会缺失。寻找这样一种规范性的交流方式作为替代,无论如何都是有必要的。在此提到其他的法领域还不够,这是因为,这些既定的社会规范和价值无法进行类似于刑法规范和判断那样的交流[75]。
如果“人机回圈”[76]这种不适当的运用(通常与集体机构密切相连)没有进行,刑事责任如何还能存在?近几年内必须详细查明这一点。若有可能,必须重新考虑行为和结果归责这些概念[77]。可能存在某些特定背景,在此背景中,相较于特定行为,从特定情况和发展的导致过程中,刑事责任更容易得到判断。刑事责任的判断还可能根据利益、权力地位等受到调整。在此情形下,对刑事责任提出新构想是有必要的,立法者却没有作为。此外,一种根据性的讨论(Grundlagenbezogene Diskussion)也是有必要的:这种新构想究竟是否可能存在,对刑法将产生何种后果(如果存在该后果)[78]?
数字化是多面的。一种可能对社会非常重要并对法律提出极大挑战的发展是神经科技[79]。科技对人类大脑的研究甚至影响开创了一个全新的维度。这涉及人与机器之间一种新的、特定的联系,该联系本身就存在疑问[80]。通过神经科技,获取许多关于大脑运行过程的详细信息变为可能,甚至可能以某种特定方式“读懂想法”。尤其是与智能学习系统和大数据相关的大量重要信息得以产生,影响脑电波的可能性也得到提高。这种影响的发生可能是侵入性的,也可能是非侵入性的,可能影响的是感觉和举止,甚至引起运动。完全可以想象的是,人类被大脑·电脑界面控制甚至摆布。这在理论上甚至可能以其他大脑为出发点,以至于到最后几个大脑共同行事,以及这种联结可能导致一个行为被实施[81]。
医学影像方法在几年前就引发或激活了一场重要的、关于意志自由的刑法讨论[82]。利贝特(Libet)等进行的实验导致:“意志自由”的前提和概念、人类的决定和行为在神经科学和哲学领域受到不少质问[83]。无论这些实验是否可能在事实上陈述了一些关于意志自由的新东西[84],关于在刑法上进行判断之条件的最新讨论无疑是很有收益的。这场讨论的内容是,从刑法视角看,意志自由究竟在何种程度上是必要的[85]?或者说,从刑法视角看意志自由具体意味着什么[86]?该讨论使我们刑法的基本概念受到以现实为导向的确定变为可能。
神经科技的最新发展还改变了刑法的基本概念。比如,打开一个“脑起搏器”以后,可能存在的罪责能力会受到讨论,打开时罪责能力(在原因自由行为的意义上)可能要前移。同时,在此情形下要思考一下,病人想要对抗某种疾病的症状,据此存在着良好的、可理解的理由,尽管他认识到接下来实施的是一个(潜在的)犯罪举止,还是打开了起搏器。基于此理由,并非所有的考虑(比如醉酒导致罪责能力减轻)都可以转用到该情形中。可能有人争论道:病人并不为打开脑起搏器负责,而是为没有同时采取有期待可能性的安全措施负责。他由于实施了不作为而可罚。这种考虑无论如何都是一个机会去重新考虑原因自由行为传统的归责结构[87]。
然而,根据上文中正在变动发展的一些概念,比如正犯和共犯或客观归责等,同样要问一下:究竟何时不再澄清一个特定的行为基于何人的脑电波得以实施这个疑问?刑事责任的传统结构明显无法再轻易受到运用。同样要注意,该传统结构发生过于剧烈的改变可能削弱核心刑法(kernstrafrecht)。此外,在其他的背景中,将来刑法发生必要的改变时,要在调整刑法概念与获得重要的基本前提之间进行衡量。
数字化将对法提出很特殊的挑战,其另一个特殊性在于所谓阻断结构(impossibility structures)的产生[88]。这是关于应当自动阻止违法的发生之技术结构[89]。比如,一辆汽车阻止闯红灯,或一个上传过滤器阻止在网站上上传非法内容。有人可能非常怀疑,这种方法是否以及何时在技术上可以实现?但机器也承认容许的例外并且进行相应的利益衡量或比例性审查是有必要的。完全受到容许的是:在某种情形下,一般没有汽车或其他的交通参与人在街道上,为了救助一名严重受伤的人而闯红灯。但至少在理论上可以想象的是,机器进行这种评估,以及这种技术由此保证法律得到遵守或阻止违法的发生。
这首先要讨论的是,如果技术结构失灵,但使用者相信其具备运行能力(Funktionsfähigkeit),谁对此负责?与关于自动系统的责任相比,这基本上不会有特殊性[90]。然而,在技术结构(其正应效劳于人类)的场合阻止违法的发生,相较于要求使用者监督技术结构并对技术上有缺陷的决定完全负责,后者当然是更加不合情理的。
但要讨论一种特殊性,即以下疑问:如果至少在部分范围内让机器作出遵守法律的决定,责任、规范的信任和规范的适用等一般如何发生改变?对此,当前已有一些人质问:是否不必然存在着一种违法的权利,或者说一种自由决定遵守法律的权利?该权利自身应当允许法律被违反,即使该论断很奇怪,但以下论断至少不是不可信的:如果遵守法律只是出于强制,而非基于独立的决定,那么规范的适用将受到削弱[91]。
数字化和人工智能(或学习)系统在很大程度上作用于刑法中的罪责并改变了个人责任的基本概念。刑法必须适应这些变化而不能依赖于教义学上的细节,亦即,要在生活领域质问个人的刑事责任这一概念并对其进行新的调整。这涉及罪责、可归责性、可证明性和量刑。对于这种发展不存在唯一正确的答案,而是根据问题的具体背景存在多样的答案。所以从特定角度来看,刑事责任的减轻只是解决问题的第一步,因为通过这种方式,责任的认定、特定危险科技(或科技的运用)的防护和弥补损害的社会需要都无法得到回应。将来必须继续寻找解决方案,以持续防止数字化和人工智能(或学习)系统对刑事责任的扩散。