张玉玲
(中央财经大学 法学院,北京 100081)
人工智能技术日臻成熟,推动了我们生活发生极大的变化,如乘坐无人掌控方向盘的无人驾驶汽车、穿戴型智能读取人体神经信号的可穿戴型机器人等。人工智能技术,一方面如同传统科技一样强化或补足了人类生理能力的某些限制,另一方面,它获得了原本由人类所独享的某些智力上的能力,尤其是建立在大数据基础上的深度学习而来的分析能力和决策能力,拥有着强大“自省”能力。[1]正是这种强大的自省与学习能力,使人工智能类技术类产品区别于以往普通产品。虽然科学技术的进步是无法阻挡的,但拥有“自省”能力的人工智能产品,就像一枚硬币的正反两面,在给我们带来的生活便利的同时也让我们对这些智能产品将来未知的行为产生恐慌。这种典型恐慌的代表就是具有人工智能技术的自主武器。当拥有自省与学习特性的自主武器被运用到战场上时,它是传统的武器地位吗?它可以自主来决定杀人吗?它符合国际法的要求吗……自主武器将会引发人们一系列的争论。
无论是冷兵器时期士兵手中直接挥舞的刀剑,还是热兵器时期被用来近距离瞄准射击的火药枪,以及信息化时期全方位远距离攻击的飞机、电子武器,武器一直处于人类直接的掌控之中。即使武器的打击范围与距离越来越大、灵活性也越来越强,扣动扳机、按下射击按钮的关键时刻,还是独属于人类。但当人工智能技术运用到军事武器上,似乎这一切都发生了变化。自主武器它的典型特征是一旦启动,就无需人的干预而选择和打击目标。此时的自主武器,自主决策自主完成打击,已经超越人类的控制范围,它具有了区别于一般武器的独特性。此时,我们将如何对它定义,就成了我们认识它的第一步。
自主武器之所以引发人类的广泛讨论,是因为它的零伤亡优点和良好的环境适应能力,这使得它成为继火药与核武器发明之后的创造性武器。在当前的国际法上,并不存在对这个革命性武器做出明确定义的法律文件。目前武器的分类方法,只有武器与作战手段、方法两类。《日内瓦四公约关于保护国际性武装冲突受难者的附加议定书(第一议定书)》(以下称“第一议定书”)第36条对这两种分类有所涉及。如何检验自主武器是否符合以上两种分类方法,目前是不得而知的。目前多数学者的观点认为,即使智能武器拥有自主性,它仍是可以进行自我约束的武器。因为,就人类的法律地位来看,如果将人工智能拟制为法律主体会导致人类价值的贬值以及物对人的侵蚀、异化,应该尽力避免[2],自主武器反客为主挑战人的主体地位。我们将致命性决策权交由智能无人作战系统来掌控,实际上是对人的统治地位的严重挑战,这样会贬低人格,对人的生命权与尊严产生深远的影响。从武器所具有的能力来看,自主武器是将环境中的数据转化为有目的的计划和行动,在以后每次执行行动的时候,所依据的数据会越来越大,打击的精确性也会越来越低,这也必然会导致其每次决策的模糊性提高,导致它的安全性就会降低。更为严重的是,自主武器附带了战争属性之后,杀伤力和毁灭程度是难以想象的。[3]拥有强大打击能力的自主武器,突破传统武器法律地位的后果是无法想象的。那些与打击目标相似的建筑物或者人,都可能由于自主武器打击决策的模糊性而成为攻击对象。此外,我们应该将问题聚焦在人身上而非是技术身上,自主武器只是在技术上较传统武器有所发展,并未突破其武器的本质。
自主武器的自主性能来源于数据与算法,这种自主性的来源根本无法与人类相比较。的确,如果我们赋予它杀人机器人/战斗员的身份,让它具有与人类似的地位,那么将来当它发生违法国际法的行为时,它就需要像战斗员一样承担相应的责任,这对于自主武器来说意义并不大。换句话说,国际法也从来没有试图让自主武器来承担责任。并且如果赋予自主武器以战斗员身份,那些关于战斗员应该享有的福利,是否同样应该赋予自主武器呢?这些问题在目前都将无法获得答案。但有学者认为每个智能系统在不断演进与变化,都表现出一定的自主性,因此不能把智能装备看成简单武器,它的自主决策能力可以把先进的武器系统从被动的军事材料的类别提升到自动战斗人员。根据《第一议定书》第43条第2款规定的战斗员是有权直接参加敌对行动。但遗憾的是,该规定并未说明战斗员必须是自然人,至于那些具有与人类战斗员类似的自主武器是否属于战斗员行列,国际法目前无法给出清晰的回答,自主武器是否可以成为将来战场上的战斗员,进行战斗也是不清晰的。同样,将自主武器也可以视为“机器人杀手”。机器人杀手与人类在决策与行动上类似,和战斗员无异。因此,从这些方面来看,将自主武器划归为具有人的特性的战斗员/机器人杀手并无不妥。是否将自主武器视为一般的战斗员/机器人杀手是人们争论分歧较大的一点。
从自主武器自身的特性来看,将它视为机器人杀手/战斗员似乎没有问题。但是,值得注意的是目前的法律体系是以人为中心建立起来的,如果将自主武器的法律地位看作与人类相同,这就会威胁人类的主体地位,对人格的侵蚀,甚至是对人类尊严的践踏。因此,虽然法律上未明确说明战斗员必须是自然人的身份,但结合法律立法的背景以及人的主体地位来看,将自主武器视为普通武器的法律地位,仍然是我们治理自主武器的前提,自主武器的法律地位应当与普通的常规武器一样。将来自主武器发展到完全的自主的时候,发展几乎与人类的特性一样的时候,可以考虑赋予自主武器以独立的法律地位,但不是现在。
目前为止,国际法上也依然不存在一个明确的标准来衡量武器的合法性,这就使得自主武器的合法性没有一个定论。结合国际法的实践,判断自主武器合法性主要表现在两个方面:一是自主武器自身的合法性;二是自主武器在被人类使用时的合法性。
自主武器合法性的判断主要通过两个方面来看,一是从武器的审查标准与自身的功能来看,《第一议定书》第36条没有设立禁止自主武器的标准,并且自主武器投入到战场上,会减少战斗员不必要的痛苦和伤亡,因此,自主武器在现行法律框架下是合法的。[4]二是从自主武器是否具有“可预测性”来看,[5]人工智能的本质是数据与算法的结合,[6]自主武器将来会在战场上面临各种复杂的环境并且不断的学习,这就意味着将来它的行动难以被人们预测。一旦战争爆发,战争的发展方向就有可能不再受到人类的控制。那些投入战场的自主武器,不将仅仅是军事一方的灾难,而更可能会成为全人类共同的灾难。由此,从自主武器的不可预测性所带来的惶恐,使得人们对它的合法性产生怀疑。更甚者,自主武器流入黑市是迟早的事情,落入恐怖分子手中,那些想要控制更多平民的独裁者手中,希望进行种族清洗的军阀等,自主武器也是暗杀、颠覆国家的很好武器。[7]从自主武器的自身来看,法律没有对自主武器这类新型的武器进行准确的定义,自主武器本身既有积极的一面,也有消极的一面,但消极的一面似乎给人类带来更大的代价。将来自主武器无法被人类预测与控制,人们是无法接受的。
自主武器在使用上的合法性判断,主要涉及到的是自主武器在使用的过程中是否会遵守国际人道法上的基本原则与规定,主要涉及到的是区分原则和比例原则。
3.2.1 区分原则
在武装冲突中,区分原则是一项重要的原则,国际法院在关于以核武器相威胁或使用核武器是否合法的咨询意见中,甚至将区分原则作为首要核心原则。区分原则要求对战斗员与平民之间区分,和军民混用设施进行区分。区分原则使武装冲突对平民的影响降到最低,禁止以平民为目标及不加区分的进行攻击。
在战争中准确做到区分面临着两种困难。第一,对平民与战斗员之间的判断,涉及到很多需要解释与分析的因素,如对战争行为的解释。在传统的战争中,战斗员都有自己明显区别平民的标志,如穿戴特定战斗装备、在战斗期间公开携带枪支等,人们对平民与战斗员进行区分是容易的。但是如果混淆这种明显的标志,比如,没有明显标志的平民加入战争、尤其是军事安保公司的加入,美国军队依靠私人承包商来维护军队,这些军事安保公司实际上是军事上的重要合作者。他们是否应该与平民一样受到保护,是值得商榷的,尤其现在,针对战争的含义越来也越来模糊,在非国际性对抗冲突蔓延的形势下,人们往往需要对战争行为的进行具体的解释才能判断出哪些是战斗员、哪些是平民。第二,随着军民融合现场的产生,具有“军民两用”性质的设施大量出现,这些设施在平时是归于民用,只是在战时才会被征用为军用设施,或者只是在战时的某一时刻被利用,它们与平民的生活息息相关,如果一旦被攻击,对平民的生活将造成很大的影响。但是有的学者认为,不能过分强调对于军民两用的保护,也没必要对其进行区分,因为这样会导致一方过度使用此类方法以躲避军事攻击,影响战争的效力。[8]自主武器的发展是否会克服以上两种困难是不确定的,这就导致人类无法放心的认为自主武器可以合法的进入战场。
3.2.2 比例原则
在国际人道法中,比例原则要求在进行军事行动过程中需要对平民和军民两用设施的攻击伤害程度降到最低。总的来说,它需要对军事利益、损害范围界定以及合乎比例性评估三个方面都需要进行思考。
比例原则要求所取得军事利益必须大于军事行动所造成的损害,否则这种军事行动是不被允许的。[9]比例原则作为一种价值判断,它具有灵活性与内涵丰富性的特性。对于攻击是否符合比例,指挥官拥有较大的自由裁量权。现在存在的问题是,国际法对比例原则的规定比较模糊,没有给出准确的判断标准。[10]机器没有情景意识,它是否可以像人类那样,做出符合道德价值的判断。自主武器系统是否按比例使用武力,取决于它的装备以及其规划和设计所允许的能力。人类的智能是否可以迁移到自主武器身上,目前还不得而知。因此,在不得而知的情况下,我们也无法判断自主武器的行为是否符合比例原则。
综上,自主武器合法性无法判断的原因主要表现在两个方面,一个是法律上原因,另一个是自主武器自身发展的原因。法律上对自主武器自身是否合法没有做出判断和提供一些判断的标准。自身原因是自主武器的发展究竟会到智能到什么地步,是不确定的,它是否会遵从比例原则和区分原则是无法判断的。由此,目前自主武器的合法性判断是无法做出的,它的合法性与否取决于将来自主武器发展程度与遵守法律的情况。
现在来看,我们宜将自主武器视为普通武器的法律地位,由于它的合法性无法判断和投入战场的潜在危害性,国际法必须对自主武器进行合理的规制。目前国际社会针对自主武器国际法规制的方式,主要几种在以下几种方式。
“条约必须遵守”,有效的条约对各当事国具有拘束力。当事国不得以国内法规定为由拒绝履行条约义务。国际社会主张针对自主武器达成一项专门的国际条约,就是看上了条约强大的约束作用。此外,达成一项新的条约,也意味着考虑到了自主武器的自主性,将它与其他普通的武器有所区别。特殊情形特殊对待。支持制定条约国家认为,考虑到人工智能技术正在不断的发展,人们对自主武器的很多方面还未了解清楚,该国际条约不宜规定的过于全面,开始可以制定框架性公约,随着人工智能技术进步不断完善与发展公约的内容。反对者认为,达成框架性的公约对于各个国家根本没有约束力,自主武器在国际法上的发展仍然是出于不确定状态。并且有学者认为现在预先禁止自主武器还为时尚早,因为技术还不太成熟。是否制定条约,以及制定什么样的条约,目前国际社会还在激烈的讨论之中。
1980 年联合国通过了《特定常规武器公约》(CWW)目的是为了停止使用被认可为过度不人道与滥杀滥伤作用的武器。该公约虽然仅仅包含11个条文,它的5个附加议定书却在限制特定武器上发挥着巨大的作用。纵观这个五个议定书,均是针对特定具有较大危害性的某一种类武器的限制。促进武器使用向着更符合人道的方向发展。这种使用附加议定书的方式比制定统一公约的好处是,它可以随着科技与武器形态变化,随时添加具体规制的武器。此外,采用此种方式,有利于缔约国根据自己国际的实际情况,选择参考某个具体的议定书,给国家一定的选择性。但它也存在着困难,自主武器虽然具有普通武器的地位,但它与普通常规武器已经有所区别,它是否可以被纳入到《特定常规武器公约》之内,接受《常规武器公约》的约束是不明确的。虽然,2016年《常规武器公约》缔约国第五次审议大会决定成立政府专家组,讨论自主武器的话题一直持续召开至今。但这也并不意味着,国际社会一定会在《常规武器公约》框架下达成规制自主武器的议定书。
目前的人工智能仍然是在发展阶段,还远远未达到强人工智能阶段,人工智能技术正处于不断的探索之中。考虑到人工智能技术在民用产品上的广泛,现在就考虑规制该技术,会阻碍人工智能技术在民用领域的发展。就像很多专家、学者讨论至今也没有讨论出合适的解决办法。就像有的学者所主张的那样,我们根本不知道要盘点什么,因为在许多情况下,我们将试图预测不存在的系统的开发,在可预见的未来不太可能存在,而且可能永远不会存在。因此,达成任何规制自主武器的协定与公约时机还未成熟。
自主武器在投入战场上可以减少士兵的投入,减少士兵的痛苦,这两个特点是对很多国家是有诱惑力的。同样,它会降低战争发动的门槛,但是最大的缺点,也是很多国家不敢尝试的一个重要原因是,它在战场会是否会遵守国际法是不得而知的。如果我们不能控制一个自主武器的行动,也不能预测它的行动方向,就贸然的就将它投入到战场上,这对于很多其他国家来说是极其不负责任的。因此,无论自主武器的合法性是否可以判断,将来它的法律地位如何,我们对自主武器的规制是必要的。结合目前人工智能技术发展来看,人们确实还没有完全认识自主武器的方方面面,所以制定一个框架性的条约是一个合适的选择。相比于一步到位的议定书做法,它给当事国更多认识自主武器的机会,有机会等待自主武器的进一步的发展。相比于不制定任何规制文件的做法,它提供给当事国逐渐形成共识的机会,为以后自主武器的治理奠定了基础。因此,目前比较有效的自主武器的国际法规制的方式,是各事国达成一项框架性条约,并且之后随着自主武器的发展逐步的进行完善。
自主武器在军事上的运用改变了传统武装冲突的形式。它的自主性一方面加快了战争的胜利,另一方面也给人类带来严重的威胁。自主武器与人具有相似的自主学习能力,但从目前智能技术的发展和法律体系的构建来看,还是应该将它视为普通武器的地位。自主武器缺乏天然的基本道德情感与场景分析能力,导致它的合法性受到质疑,自主武器将来在犹如战场是否会违反比例原则、区分原则现在不得而知,这就使得它的合法性无法判断。它是否会遵守国际法,有待进一步的验证。无论合法性与法律地位如何,国际社会针对此类自主武器的自主性和给将来潜在的威胁,必要对它进行一定的规制。规制方式就是制定一项框架的条约,随着自主武器的发展再逐步达成规制的共识。