李 铮
自主武器系统虽然在国际上没有一个公认的定义,只有一些红十字国际委员会和一些国际人道组织的相关解释。但顾名思义,自主武器系统就是将武器与人工智能自主系统相结合而制造出的一类兼具杀伤性与智能自主性的武器。纵观人类的武器发展史,其实就是利用科技的进步不断提升武器智能的过程。在许多军事题材游戏中,玩家可以架设自动的机枪、榴弹发射器攻击敌人,这些武器一旦架设就会自主攻击不需要操作,而且一次攻击就能造成大规模的杀伤。虚拟游戏中玩家对这类武器的热衷也从侧面反映了自主武器系统为何在现代战争中受到青睐。美国于2001年的阿富汗战争中就已经开始釆用自主武器系统进行攻击、防御、警戒以及侦察。其后在长达十数年的战争中,美国以及以色列在巴勒斯坦、阿富汗、伊拉克等地区设置了大量自主武器系统。为了避免士兵的伤亡以及追求自动的打击,自主武器系统慢慢成为了战场上常见的武器。美国如今很少使用大量的地面部队进行部署,而是利用大量的自主武器系统取代战斗人员。自主武器系统逐渐成为了现代战场的主要武器并取得了巨大战果,但是对自主武器系统广泛和随意地使用也带来严重的国际人道法问题。许多国际组织对于自主武器系统的问题进行调查并发表报告。本文将具体探究自主武器系统引发的国际人道法问题及其对策。
自主武器系统通指一类智能机器人武器系统,一经启动,即可在无需人类操作员进一步干预的情况下选择和打击目标,其核心因素在于机器人在挑选目标和使用杀伤力时可以自主“选择”。
自主武器系统的技术要求非常高。从开发到部署往往需要耗费大量的科技力量与资金。自主武器系统主要基于高级的人工智能技术,这也从根本上把自主武器系统和遥控武器区分开来。遥控武器,如武装无人机以及一些安装在装甲车上的遥控武器站。虽然此类武器可以在千百千米之外的地区执行侦查或攻击任务,但其行动仍然处于人类操作员的控制之下,仍不具有自主选择和行为的能力。
相比之下,自主武器系统集合了大量的人工智能技术,其类似于一个高级智能的机器人,可以根据不同的时间、地点、天气、战场态势等因素进行动态的自我判断以作出应对,从某种意义上已将人类的决策排除在外。但是自主武器系统和人类的不同之处在于,它们还不具有自觉遵守战场法则的思维能力。虽然人类在这方面投入了相当多的资金及努力,但这类系统尚未完全理想化,而若就此将其投入战场,必然会导致与人类战争法则的冲突并引发争议。
2010年,英国航空航天公司为他们新研发的无人机举办了一场盛大的发布会。这次的无人机不再是“遥控武器”,而是名为“塔兰尼斯”的完全自主无人机,造价高达1.4亿英镑,它可以深入敌方腹地搜集情报、轰炸、抵御敌方战机的攻击。这架飞机只是武器自主化的其中一个例子,就像曾担任英国国防部采购部长的德雷森爵士所说:“无需人类信息指令,能够独立做决定的机器将彻底改变现代战争。”
与传统的有人操作的武器系统相比,自主武器系统有许多独有特点。
与有人操作的武器系统相比,自主武器系统的一大特征就是能够自主战斗。自主武器系统虽然技术含量较高,但是一旦掌握技术即可量产,体积大小也可以视需要而定;操作和维护相对简单,袭击准确度高且自身目标小,不易被发现。最重要的一点就是即使被击毁也不会造成士兵的伤亡,没有人员损失。整体来说,自主智能系统的发展经历着两个显著的变化趋势:一是由侦察观测型系统向携带机枪、火箭的武装攻击型武器系统的转变;二是由后台地面同步人工操控的半智能武器系统向完全自主化武器系统的转变。
当武器无需人类指令,将彻底改变未来战争
自主武器系统在战场环境适应方面具有更加优秀的性能。自主武器系统可以投放到几乎所有恶劣的环境之中执行战斗任务,如有必要人们也可以通过摄像头观察其战斗或侦察情况。并且自主武器系统能够不用考虑人类身体机能而长时间地战斗。英国研发的智能战斗机器人可以无间断工作3天,从中可以看出自主武器系统能够不受人体极限的限制,也不用考虑恶劣天气和极端环境对人产生的影响。
由此可见,自主武器系统在军事上有着巨大的优势。
自主武器系统提高了武力投射力(保存已方士兵的生命),并加倍放大武力(以更少的人做更多的事),既能节省人力和财政资源,又能提高驻防时间,并可承受高加速度等其他人类难以逾越的障碍。国际上早已存在相关人道主义条约来对战争中武器的使用进行限制,然而随着科技的发展,武器也飞速地升级,武器发展的速度已经超越了条约制定的速度。那么新武器自身的合法性该如何确定是一大问题。涉及武器限制与禁止的国际条约,主要有1868年的《圣彼得堡宣言》、1899年的《海牙诸宣言》、1907年的《海牙诸公约》。此外,类似的对特定武器作出了限制和禁止的国际文件还有:1925 年的《禁止在战争中使用窒息性、毒性及其他气体的日内瓦议定书》、1972 年的《生物武器公约》、1976 年的《禁止为军事或任何其他敌对目的使用改变环境的技术的公约》、1980年的《常规武器公约》、五个议定书(《关于无法检测碎片的议定书》《关于地雷、饵雷和其他装置的议定书》《关于燃烧武器的议定书》《关于致盲的激光武器议定书》《战争遗留爆炸物议定书》)、1993年的《化学武器公约》、1997年的《禁止使用杀伤性地雷的公约》,以及《国际刑事法院罗马公约》等。这些国际条约明确了需要被限制或禁止的特定武器的类型,是对新武器进行审查时应首先考虑的国际法规则。
《日内瓦公约》等协定,都从国际人道主义出发,对军事攻击加以限定
而这些条约所针对的一些武器,随着时间推移,在现代人看来已经十分老旧,无法称之为“新武器”。惟一明确规定对新武器、新的作战手段和方法进行法律审查的国际法规则是1977年《日内瓦公约第一附加议定书》第36条。该条规定的主要目的是在对新武器、新的作战手段和方法的研究、发展、取得或者采用之前就审查他们的合法性。但时至今日,自主武器系统并未被彻底审查合法性,也未在国际公约中被禁止。
如果以国际人道法的原则为参照,国际人道法的四个基本原则是区分原则、军事必要原则、不必要痛苦原则和比例原则。跟一项新武器相关的原则主要是区分原则和不必要痛苦原则。区分原则要求在战争和武装冲突中始终对战斗员与平民、军事目标与民用物体加以区别,是国际人道法的根本原则。所以相应的,国际人道法禁止使用武器进行不分青红皂白的攻击,这也是《日内瓦公约第一附加议定书》中规定的;还有就是禁止使用会造成不必要痛苦的武器,如膨胀子弹、燃烧武器、激光致盲武器等。从这两条原则的字面来看,自主武器系统既不是不分青红皂白的武器也不是导致不必要痛苦的武器,因为自主武器系统主要是作为一个平台搭载机枪、榴弹发射器为武器,机枪榴弹都是合法武器,从某种意义上来说,自主武器系统只是把武器的载体由人换成了一个“人工智能体”。所以根据国际人道法的基本原则,自主武器系统与一般武器的区别是自主武器系统没有操作人员而是依靠自身的“大脑”进行判断与战斗。所以自主武器系统从国际人道法来看,应当归类为合法武器,或者说是并没有受到禁止的武器。当然,这一切的前提是其在战争中能够以遵守国际人道法原则的方式使用,因为在实际的战场使用中,自主武器系统对国际人道法造成了许多挑战也带来了争议。
致命决策去人类化的挑战自主武器系统带来的“致命决策的去人类化”将对人道主义带来根本性的挑战。所谓人道,正是作为人所特有的一种最基本的天性,会同情,会怜悯,会判断。而国际法,尤其是国际人道法,则为人类之间使用武力互相伤害保留了谨慎的缺口并提供了必要的规则。而如果自主武器系统被大量引入战场代替人类,人们只需要把它们部署到战场,接着就可以在千里之外看着它们自动地撕碎敌人,这么一来战争似乎就成为了与电子游戏一般,自主武器系统对待敌人就如同我们对待游戏中的敌人一般冷酷无情。自主武器系统的出现则将这种致命决策去人类化的弊端推到了极致,人们在心理上对武力的判断以及实际中带来的杀伤的距离将会进一步扩大,甚至磨灭人之所以为人所具有的基本的关切。因而,自主武器系统的致命决策去人类化对国际人道法造成了冲击,其合法性问题不得不被认真审视。
自主武器系统的法律地位模糊关于自主武器系统的法律地位存在着争议。自主武器系统和当今造成巨大争议的无人机不同,无人机并不是一个类似全智能机器人的、能拥有自己的意识判断的机器,而是由大量的工作人员在后台遥控操作。与之相比自主武器系统拥有自己的判断力,不需要人在后台操作即可自行战斗。
这样就引申出一个问题:自主武器系统究竟应当被视为武器,还是战斗员呢?在词典中,武器被认为是“被设计或用于造成身体伤害或死亡的工具”,或是“在冲突或对抗中赢得优势或者保卫自身的一种手段”。无论是从词义出发还是从一般的理解出发,武器都首先被理解为使用武力的工具,其本质就是工具,不具有自主意识,其使用的违法与否绝大多数情况下取决于使用者的意志。相对而言,战斗员在《日内瓦第一附加议定书》中第43条定义为“有权直接参加敌对行动的冲突一方的武装部队成员(除第三公约第33条的规定所包括的医务人员和随军牧师外)”。
按照上述理论来看,如果把自主武器系统当作武器,那么就忽视了它们的自主性,因为他们不需要完全按照使用者的意志来运行;可如果把它们定义为战斗员,那么会引发一个矛盾,就是他们如何来遵守现今的国际人道法以及战争法则?毕竟它们不是人类,很多情势的判断真的难以用人工智能来取代。更重要的,如果将自主战斗系统视为战斗员,那么战争责任的追究也是难以进行的。国际刑法的一个重要的特征就是追究个人刑事责任,由犯有国际刑事犯罪的自然人承担相应的国际法责任,而自主武器系统是一台机器,要如何对它进行追责?就算追责,是部署它的士兵的责任还是设计编程者的责任呢?很显然在如今的责任机制下自主武器系统的法律地位十分模糊。
违背区分原则国际人道法四原则之一的区分原则,是指“冲突方必须时刻区分平民和战斗员,只针对作战人员进行袭击,不可以针对平民直接袭击。”自主武器系统虽然是按照精准、高智能辨别等标准来设计,但现实中自主武器系统的攻击范围并不是只针对到个人。和一般士兵一样,自主武器系统也以机枪榴弹甚至火炮进行攻击,士兵尚且不能完全的区分一切形势,何况是一台机器?所以说自主武器系统并不能够保证自己的杀伤效果,因此会导致大量无辜的平民随着袭击目标一起被杀伤。正如德国代表团在联合国《常规武器公约》专家会议上的意见中指出的那样:“平民与战斗员的区分是最低标准的要求,然而一个合格的战斗员还必须在战员与伤员间、甚至是将要施行自杀式炸弹袭击的暴徒和身怀六甲的孕妇间作出区分,而这些区分都必须结合实时相关的情势和环境进行判断。”如今的自主武器系统还无法达严格的区分标准。
去人类化的自主武器系统不会怜悯、同情
虽然我们不能否认,自主武器系统毕竟携带的都是常规的武器,也不是大规模杀伤性武器,所以造成的伤害相较于有人操纵的导弹炸弹确实小了很多。但这只是就现时状况而言,一旦技术成熟,人们很可能把坦克、飞机等重型武器全部智能化,这么一来情况将更加严重。由于许多国家在部署自主武器系统的时候并不在意会产生的后果,比如平民死伤,也不公布每一次自主武器系统造成的平民伤亡结果。根据国际人权调查机构与民间组织的调查显示,美国和以色列的自主武器系统误伤了大量平民,这种情况严重违背了国际人道法下的区分原则。
违背比例原则所谓比例原则,适用于针对合法军事目标但可能造成附带损害的袭击。根据《日内瓦公约第一议定书》的规定,禁止“可能附带使平民生命受损失、平民受伤害、平民物体受损害,或三种情形均有而且与预期的具体和直接军事利益相比损害过分的袭击”。这就要求在攻击前,武装冲突的一方必须将预期平民伤亡与行动的预期军事效果进行衡量,而这则主要取决于对价值和当时具体环境的主观评价,对一次攻击是否遵守相称性规则的要求需要进行个案评估,它取决于具体情景,也要考虑到总体环境因素。
对于自主武器系统攻击的争议主要在于,其附带造成的平民伤亡与平民物体的损害过于巨大。如今的自主武器系统一般用于特种作战,针对的是一些武装分子,尤其是首脑或重要人物,打击的目标数量并不庞大。如此一来,为了小数量的目标很可能造成大规模平民的伤亡,违反了比例原则。因为自主武器系统不是人,不会担心自己的安危,只会不断进攻,且面对的是他国的人员,也不需要考虑太多因素,在取得战果的同时造成了太多不必要的伤亡。
如前所述,自主武器系统作为法律意义上的一种合法武器,之所以引起争端就是因为它在投入实际作战的时候挑战了国际人道法的一些必要原则。主要是自主武器系统的法律地位及责任认定模糊不清且矛盾重重,其次是涉嫌违反区分原则和比例原则,造成了过多的平民伤亡和非军事物体的毁损。根据当今的现实情况考虑,英美及以色列等国继续发展并部署自主武器系统几乎不可能被禁止,自主武器系统短时间内也不可能被认定为非法武器。那么国际社会可以从人道法的的角度努力,来尽力减少伤亡。
第一,增强预防措施规则的法律效力。即指在攻击时采取预防措施,减少附带的平民伤亡。预防措施规则除了规定根据区分原则查明目标能否被攻击、根据比例原则是否发动攻击、以及其他将平民人身伤亡和民用物体毁损最小化的措施外,还特别要求“在选择攻击手段和方法时,采取一切可能的预防措施,以期避免,并无论如何,减少平民生命附带受损失、平民受伤害和民用物体受损害”。
第二,完善责任机制。因为自主武器系统带来的最大争议就是责任人的问题,根据现有情况,责任处于无人承担的境地。这样等于是自主武器系统的攻击获得了一种事实上的豁免权,这是值得担忧的问题。所以应当制定一套完善的责任机制,如指挥官责任,这不仅需要国际人道法,也需要国际刑法方面的共同完善。
从表面上看,自主武器系统在本质上和一般的武器载体没有区别。从自主武器系统作为一种新武器的角度来讲,其在当前新武器的审查机制下是合法的武器。但之所以引发争议,是因为它们在执行攻击行动时的一些行为触犯了国际人道法或其他国际法规定。
对自主武器系统要加以约束,守住最基本的人道底线
就好比坦克或战机可以作为完全合法的武器参加战斗,然而一旦在战斗中随意袭击了民宅,就违反了国际人道法,是非法行为。所以不仅是武器本身合法与否的问题,更重要的是使用其所做之事的合法性。
自主武器系统也是这样的一种情况,如果在符合国际人道法的情况下使用,那么没有人会质疑它的合法性。但在现实中经常发生违反区分原则和比例原则造成大量平民伤亡的结果,更可怕的是责任竟然无人承担。放任这种情况很可能造成更严重的后果。科技水平造成的影响也许更可能是法律责任的真空,当自主武器系统的部署导致道德责任的真空,从而挑战人道与道德底线的时候,此时自主武器系统给人类带来的,不过是虚假的安全感。
可怕的不是违法的东西,毕竟你可以从根源扼杀它,真正可怕的是用违法的方式使用合法的东西,因为这往往让人防不胜防。总的来说,使用自主武器系统作战目前是合法的,但在使用自主武器系统执行攻击任务时应确保这种行为符合国际人道法基本原则的要求。所以国际社会仍应努力制定新的条约来约束这一情况。面对越来越多的新武器出现,各国也应当完善新的合法性审查机制,完善对各类武器的法律约束,完善责任机制。还有一点,普及国际人道法来使其深入人心也是重要的,使国际人道法成为一种深入人心的观念,其实现将更有保障。哪怕有一天人工智能技术完全成熟,人们也能守住最基本的人道底线。