李 享,罗天宇
(清华大学 社会科学学院,北京 100084)
随着对人工智能技术发展前景的认识更加明确,各国都开始谋求将其应用于军事领域,以占领新的军事技术制高点。在世界主要军事大国之间,人工智能军备竞赛已从幕后走到了台前,但由于新技术的不确定性、应用方式的不明确、应用效果的未知、国际规则尚未成熟等因素,人工智能的军事应用也孕育着潜在的安全风险。为防范和化解相关风险,在现有国际法体系之上进一步探索规范人工智能军事应用的途径有着重要意义。
与以往大多数新兴军事技术不同,人工智能技术并不专属于某个作战空间或领域,而是能够应用于各领域并提升武器装备性能的一种技术,甚至可以改变现有战争形态。根据一些学者的分类,人工智能目前可以分为“弱人工智能”和“强人工智能”两类,“弱人工智能”能够借鉴人类的智能行为,以减轻人类智力劳动;“强人工智能”则是达到甚至超越人类智慧水平的人造物,具有心智和意识、能根据自己的意图开展行动[1]。从目前来看,“强人工智能”的出现依然较为遥远,但基于大数据和深度学习的计算机视觉、语音识别、自然语言处理等“弱人工智能”技术正在不断地得到开发应用,因此本文仅讨论“弱人工智能”的军事应用问题。通过梳理现有文献与案例可以发现,人工智能的军事应用主要集中在情报与侦察、作战决策与指挥控制、自主武器系统、训练与演习、作战支援与保障等领域。
在情报与侦察领域,由于人工智能在图像、语音识别方面具有强大能力,其与各类传感器的结合能够大幅提升战略与战术侦察能力,提升卫星照片判读、光学/电子侦察、水声探测识别的效率。例如,美国国防部2017年启动了Maven项目,以实现计算机从视频图像中自主识别人员、车辆等目标,并计划在后续将其集成在各类平台上。当年12月,Maven项目的原型系统已经部署在美军中央司令部和非洲司令部的辖区进行试验,并在一周时间内使目标识别准确率从60%提升至80%[2]。尽管该项目曾因合作方谷歌的退出而受到影响,但目前仍在美国国防部的重点支持下平稳推进。
在作战决策与指挥控制领域,人工智能因具有出色的数据处理、系统集成、高性能计算能力,被视为辅助甚至替代决策者与指挥员的工具。美军目前提出的“联合全域指挥控制”(JADC2)“马赛克战”“忠诚僚机”“分布式杀伤”等概念对人工智能算法支持的任务规划、态势分析、作战决策、指挥控制、通信传输提出了较高要求,以期加快决策速度并提高作战效率,克服人力处理信息的局限性。
在自主武器系统领域,人工智能使得传统的遥控式无人武器开始向不受人工干预的自主武器方向升级,这是目前人们关注人工智能军事应用问题的焦点。目前关于自主武器还没有公认的定义。美国国防部认为,自主武器系统指的是“一旦启动,可以在不受操作人员干预下选择目标并交战的武器系统,它也包括受到人类监督的此种武器系统。”[3]国际红十字会也提出了类似的定义,并明确其应区别于自动武器/半自主武器①指由操作人员设定目标,在设定好的可控环境中严格执行预编写程序的武器系统,如自动岗哨炮、末敏弹、舰载近防系统等。,以及遥控武器。也有一些学者从人机关系角度出发,根据约翰·博伊德提出的OODA(观察—判断—决策—行动)循环,将自主武器分为半自主武器、有监督的自主武器和完全自主武器。从目前各国发展人工智能军事应用的公开资料来看,自主武器无疑是重中之重。就包含半自主与完全自主的广义范围而言,目前各军事大国正在研发或部署阶段的此类武器已涵盖了防空系统、主动防御系统、机器哨兵、制导弹药、巡飞武器等。此外,还包括自主无人机、无人车辆、无人舰艇、战斗机器人等主战装备,例如美国的MQ-9无人机、“海上猎手”无人船,俄罗斯的“天王星-9”战斗机器人、“涅列赫塔”无人战车、无人版T-14主战坦克,以色列的“哈比”无人机,韩国的SGR-A1自动岗哨炮等。值得一提的是,除了常规武器,俄罗斯还专门研发了具有自主能力的战略武器,如携带核弹头的“波塞冬”(Poseidon)核动力无人潜航器。目前,上述一些装备已经以集群编队的方式进行了测试,甚至已被部署到战场使用。
人工智能技术还在训练与演习、作战支援与保障领域得到广泛应用。这里主要包括训练模拟、计算机推演、网络攻防、信息作战、医疗救护、维修保障等用途。例如,美国国防高级研究计划局(DARPA)正在推进“先进空战演进”项目,以对人机协同作战提供训练;而在DARPA举行的Alpha Dogfight人机空战对抗模拟演习中,人工智能以5∶0的比分战胜了美军F-16飞行员[4]。
新军事技术的出现往往对战争模式和交战规则带来巨大甚至颠覆性的影响,从而对已有的国际法体系带来了挑战。针对这个问题,1977年的《日内瓦公约第一附加议定书》在第36条“新武器”明确了各国应当承担的国际义务,即“在研究、发展、取得或采用新的武器、作战手段或方法时,缔约一方有义务断定,在某些或所有情况下,该新的武器、作战手段或方法的使用是否为本议定书或适用于该缔约一方的任何其它国际法规则所禁止。”人工智能的军事应用当然也应遵循这一条规定。
近年来,人们已普遍认识到致命自主性武器(LAWS)对国际人道主义法带来的严峻挑战。2016年中国政府向《特定常规武器公约》五审会提交了立场文件,呼吁从国际法层面对致命自主武器引发的人道主义问题进行规制。相关研究人员也就致命自主武器对国际人道主义法的区分原则、比例原则、责任归属等方面引发的问题展开了较为广泛的讨论。但是,在致命自主性武器与人道主义问题以外,更为广泛的人工智能军事应用还可能在武力使用合法性、国家主权、武器扩散方面对现有国际法造成挑战,由于其对国际安全与地区稳定具有重要影响,需要引起国际社会的同等重视。
目前的国际法已对武力使用的合法性做出了严格规定。《联合国宪章》第1章第2条第4款规定:“各会员国在其国际关系上不得使用威胁或武力,或以与联合国宗旨不符之任何其他方法,侵害任何会员国或国家之领土完整或政治独立。”这一条款禁止了武力的使用,并受到联合国会员国的普遍认可,在法律层面上有强制约束力。但在普遍禁止之外,国际法还针对两种例外情况授予了使用武力的合法性,根据《联合国宪章》第7章第42条和第51条,这两种例外分别是:(1)安理会授权以武力维持或恢复国际和平及安全;(2)会员国受武力攻击时行使单独或集体自卫。从以往的经验来看,由于使用武力的决策权一直牢牢地掌握在武器使用者的手中,新军事技术本身几乎不会对武力使用的合法性产生影响。但是,随着人工智能开始逐渐被用在军事决策领域,人类可能会有意或无意地将使用武力的决策权授予人工智能系统。相关研究者常常以苏联研发的“死手”(或称为“周长”)系统①“死手”系统是一种半自动化的核武器指挥控制系统,它能够根据各类传感器回传的数据来判断苏联是否遭到核攻击,一旦失去了和外界的通信联系,它会认为苏联领导层已经被“斩首”,并将核武器控制权交给掩体中的基层指挥人员。以及1983年“彼得洛夫事件”②1983年9月苏联的预警卫星误报美国对苏联发射核导弹,差点启动了苏联的反击程序并引发核战争,这场危机因基层军官彼得洛夫的干预而被解除。引发的意外核战争危机为例,提醒人们自主化决策与指挥控制系统的安全风险。从国际法的角度来看,这种新的情况针对前面提到的武力使用的第二种合法例外——单独或集体自卫带来了挑战。对于人工智能的自主决策和指挥控制系统以及自主武器系统而言,在缺乏人工干预时,如何判断自卫的条件是一个较为困难的问题。目前的人工智能技术在可解释性、认知能力方面仍较为薄弱,因此无法像受过训练的人类一样能够对模糊不定与复杂多变的情况做出适当判断。如果在边境部署的自动岗哨武器,或在海空巡逻的无人机或无人舰艇,因为算法引起的误判或是系统故障而对他国人员或资产主动发起攻击,将直接违反国际法关于武力使用的规定,而且这种违背使用者意图的非法武力使用也难以找到明确的主体来承担法律责任。此外,当应用于军队决策与指挥控制的人工智能系统出现这种情况时,除了会产生更严重的国际法后果外,还甚至会进一步引起意外性战争。
人工智能军事应用对于受国际法保护的国家主权构成了侵蚀。与有人驾驶装备相比,以无人机、无人潜航器为代表的一批人工智能无人系统具有小型化、隐身性能强的特点,以及无需人工操纵且能够执行长距离作业,因此极为适合完成渗透侦察任务。由于这些特点能够隐匿身份而降低外交敏感性,一些国家开始更加大胆地使用此类装备执行侵入性行动,这使得各国的领空和领海主权变得更加容易被侵蚀。
2015年8月,中国渔民在海南三亚市海岸打捞到国外无人潜航器;2016年12月,中国海军在南海海域打捞到一艘美国无人潜航器,随后移交美方;2019年6月,伊朗声称击落了一架入侵领空的美国无人机,加剧了霍尔木兹海峡紧张局势;2019年9月,位于沙特腹地的原油生产设施阿布凯克(Abqaiq)油田遭到18架无人机突袭,使该国原油产量受到重大损失。[5]对此美国宣称无人机归属伊朗,但联合国的调查报告表示无法确认攻击者的身份。2020年,印度和巴基斯坦分别宣称击落了对方入侵本国领空的无人机。上述案例表明,在和平或危机时期,一些国家越来越倾向于使用无人系统执行越境军事行动,这对各国维护领土主权(主要是领空、领海)构成了威胁。
目前,对于军用空中无人系统进入他国领空的问题,已有明确的国际法规范。《国际民用航空公约》第1部分第3条规定:“用于军事、海关和警察部门的航空器,应认为是国家航空器。”“一缔约国的国家航空器,未经特别协定或其他方式的许可并遵照其中的规定,不得在另一缔约国领土上空飞行或在此领土上降落”。该条约第8条针对“无人驾驶航空器”也做出了规定:“任何无人驾驶而能飞行的航空器,未经一缔约国特许并遵照此项特许的条件,不得无人驾驶而在该国领土上空飞行。”这两条明确禁止了军用空中无人系统在未经许可的情况下进入他国领空。
但是,关于军用无人舰艇的航行问题却出现了一些法律争议。首先,目前的国际法对于军用无人舰艇的属性未做出明确规定。《联合国海洋法公约》第29条规定:“‘军舰’是指属于一国武装部队、具备辨别军舰国籍的外部标志、由该国政府正式委任并名列相应的现役名册或类似名册的军官指挥和配备有服从正规武装部队纪律的船员的船舶。”由于军用无人舰艇不配备军官与船员,且常常为了隐蔽身份而清除标识,其既不能被定义为军舰,也不能被视为政府船舶,这种性质使其无法拥有上述两种船只在公海不受其他国家管辖的豁免权。①《联合国海洋法公约》第95、96条分别规定了公海上军舰和政府非商业性服务的船舶的豁免权。在2016年南海无人潜航器事件中,美国声称其潜航器是一艘享有主权豁免的船只,并与日本公开质疑中国海军打捞活动的合法性[6]。但是根据《联合国海洋法公约》的上述规定,中国学者认为其并不享有主权豁免。其次,《联合国海洋法公约》规定军舰在他国领海的“无害通过权”不适用于军用无人潜航器。《联合国海洋法公约》第19条明确了违反“无害通过”的12种情形,包括“任何目的在于搜集情报使沿海国的防务或安全受损害的行为”和“进行研究或测量活动”,这两种活动正是目前军用无人潜航器的主要任务。另外,第20条规定“在领海内,潜水艇和其他潜水器,须在海面上航行并展示其旗帜。” 这一点是无人潜航器在侦察任务中难以做到的,更不用说一些国家为了避免承担责任而故意隐藏其标识。因此,尽管美国军舰常常以“无害通过权”为理由进入其他国家领海实施“自由航行计划”,但使用军用无人潜航器执行这一任务无疑是违反现行国际法的。这些问题需要得到国际社会进一步的明确与重视。
随着人工智能技术的发展,其研发成本将不断降低,这有利于相关技术及产品的扩散。从现实情况来看,无人机、智能弹药已经成为了国际军贸市场的热点产品,阿塞拜疆和亚美尼亚的武装冲突进一步证明了这种武器的军事价值。由于人工智能武器能够高效杀伤敌人并能够大幅减少本国人员伤亡,它可能会降低战争成本,从而降低战争门槛,促使国家更倾向于使用武力解决争端;而这又可能会反过来促进人工智能武器系统的扩散,加剧各国军备竞赛,并破坏地区安全与稳定。目前,国际社会已经形成了对核、生物、化学、导弹等大规模杀伤性武器扩散的管控机制,由于禁止扩散大规模杀伤性武器已经成为各国接受的规范,人工智能武器系统将主要以常规武器为平台进行扩散,这对规范常规武器贸易的《武器贸易条约》将构成新的挑战。
《武器贸易条约》作为首个联合国框架下规范常规武器贸易活动的国际条约,为增强国际武器贸易透明度、打击非法武器转让提供了具有法律效力的国际标准。该条约主要依靠各缔约国完善国家管制制度,对武器出口的最终用户和最终用途进行审查,以防止出口的武器被用于违反国际法的目的。《武器贸易条约》要求各国禁止批准出口可能用于战争罪行、恐怖主义、有组织犯罪的8类武器装备,包括坦克、装甲战车、大口径大炮、战斗机、攻击直升机、战舰、导弹与导弹发射器、轻小武器等,而这8类武器都可以作为人工智能武器系统的平台。但是,由于人工智能技术的军民两用性质,可以作为插件存在的人工智能模块尚未受到条约的重视,某些人工智能技术甚至能够作为民用品出口,完全规避《武器贸易条约》对最终用途的约束,这有可能进一步强化相关武器的交易与滥用,导致此类武器或技术向恐怖主义或犯罪组织非法扩散。因此,如何规范武装无人机、战斗机器人等自主武器系统的转让,限制其扩散对地区安全稳定与人道主义的负面影响,为现有常规武器贸易管控机制提出了新的问题。
当前,对人工智能军事应用带来的国际法挑战较多的讨论聚焦于人道主义问题,尤其是对致命性自主武器(LAWS)违反国际人道法对非作战人员进行杀伤的问题。然而,人工智能作为一种变革性技术,其对国际法的挑战本身具有更深层次的含义。如前文所提,人工智能技术对国际法的挑战主要体现于两个方面:一是变革技术的出现降低违反国际法的成本;二是核心议题涉及当前国际法所未能覆盖的领域。因此,本文拟从这两个层面讨论完善相关国际法的途径,讨论如何提高相应国际法门槛、确立新的国际法规则。
具体而言,LAWS的应用以及战略武器自主指挥控制系统的发展主要降低了国家违反国际法的成本,通过模糊责任主体、对国际法概念进行特定解释可以让部分国家在使用武力、侵犯他国主权等问题上拥有一定的“灵活性”,对此,本文认为应当在《特定常规武器公约》框架下规范LAWS的应用并禁止战略武器自主指挥控制系统的应用,形成类似“核禁忌”的国际共识;而人工智能武器的贸易问题涉及的是国际法上的“灰色地带”或者“空白地带”。如果作为军用品,无疑,其可以受到《武器贸易条约》的约束。但是,因为该技术军民两用之间界限的模糊(部分民用人工智能技术完全可以应用于军事领域),完善《武器贸易条约》,重新对人工智能技术的军事性质进行界定,进而限制作为武器模块的人工智能技术的扩散成为当下国际法亟待解决之事。
3.1.1 推动管控LAWS的《特定常规武器公约》新议定书
对于LAWS而言,当前的发展仍然处于初步阶段,且不存在完全脱离人控制的全自主武器,各国不具有紧迫的动力和意愿来限制LAWS。因此,想要马上实现一份有约束力的法律文书是较为困难的。但是自2014年起,各国开始在《特定常规武器公约》框架下对LAWS问题进行讨论,并已举行了8次专家组会议。①包括3次非正式专家组会议和5次政府专家组会议。整理自《特定常规武器公约》致命性自主武器专家组报告。2018年,政府专家组在关于管控LAWS的指导原则中建议:“应确保根据适用的国际法在《特定常规武器公约》的框架内对发展、部署和使用任何新武器系统问责,包括使这类系统在人类指挥和控制的责任链中运作。”[7]中国政府表示“支持在《特定常规武器公约》框架下,继续深入讨论‘致命性自主武器系统’问题,并谈判达成国际法律文书”。[8]从现存《特定常规武器公约》的框架和实施效果来看,将LAWS纳入管辖存在一定积极意义并具有高度可行性。
就公约本身而言,其设立之目标是制定新规则保护平民免受武装冲突中武器使用的伤害(尤其是不断迭代的新式武器),并且保护战斗人员免受不必要的伤害。因此,公约现存的议定书中涵盖了产生不可检测碎片的武器、地雷饵雷、燃烧武器、激光致盲武器②其中,第五份议定书指向的是清理战争遗留的爆炸物。,这些武器的共同点在于反人道主义与过分杀伤,这点与限制LAWS的初衷是高度相似的。LAWS可能将杀伤范围扩大至平民,同时,如果缺少人的干预,“滥用火力”现象将会成为常态。通过新议定书的形式将LAWS纳入《特定常规武器公约》,不但符合公约保护人道主义的目的,也便于直接借助现有框架凝聚国际社会共识。而从《特定常规武器公约》实施的经验来看,尽管履约基本依靠成员国的自我约束,但各项议定书对特定武器的限制在普遍程度上受到了国际社会认可,并形成了一定程度的国际规范,使得大部分国家在研发、部署和使用相关武器时都采取了较为谨慎的态度。因此,若能在《特定常规武器公约》下达成关于LAWS的新议定书,将有利于在法律层面上对LAWS的滥用进行约束。
3.1.2 严格禁止战略武器自主指挥与控制系统的研发与使用
与LAWS相比,将人工智能技术应用于战略武器的指挥与控制系统所带来的是各国都难以承担的“相互摧毁”的风险。苏联的“死手”系统可以看成是战略武器自主指挥与控制系统的某种前身,但这类系统本质上是冷战核军备竞赛高峰期的产物。在全球化的今天不应具有任何存在的价值。在这一问题上,美国军方已有相关考虑,现任美国参谋长联席会议副主席约翰·海顿(John Hyten)曾表示,一旦使用人工智能的计算机系统能够全面运转,五角大楼应考虑采取安全防范措施,确保人类而非机器掌控使用核武器的决策[9]。但是,即使是人类参与决策,人工干预也并不能完全避免类似系统出现事故性发射,而且难以防范外部网络攻击引发的系统失灵,因此应全面禁止研发和部署战略武器自主指挥与控制系统。目前,还没有国际条约对这种系统进行限制,相对可以借鉴的是《不扩散核武器条约》《禁止生物武器公约》和《禁止化学武器公约》。这三个条约所限制的都是国际社会公认应避免使用的武器,并具有严格的法律约束力和道德禁忌规范。由于后果的不可预测性以及意外事故的灾难性,战略武器的自主化性质较核武器扩散或持有、化学武器与生物武器的使用等行为可能更为恶劣。因此,在严格禁止相关系统的开发、部署和使用方面,大多数国家拥有共同的利益,所以有必要从国际法的层面对此进行讨论并形成有约束力的规则。在此基础上,还需要将其从法律层面扩展到道德禁忌层面,在国际社会形成拒绝使用此类武器的共识与规范,禁止赋予人工智能系统对战略武器的指挥决策权限。
禁忌是促进军备控制发展的重要因素,尽管在某些时候,禁忌可能并没有马上形成国际规约,但是其仍能通过无形压力对国家与非国家行为体的行为作出限制[10]。而禁忌的形成部分依赖于宣传的作用,因此,在明确国际法对相关系统发展的限制的同时,国际社会也应当注意对其可能带来的灾难性后果进行充分的讨论。
相较于人工智能武器的使用,其扩散问题是当前国际法上的“灰色地带”。这并不是说当前国际法没有对武器贸易进行约束,只是人工智能武器的贸易与常规武器的贸易具有较大的差异,且这种差异暂时还未引起国际法层次的重视。
《武器贸易条约》目前的监管对象是国际主流的八大类常规武器。从这个角度而言,人工智能武器的贸易本也应在该条约的限制之下,但人工智能技术的军民两用性质为其监管带来了障碍。其实,在《武器贸易条约》形成的过程之中,各国已就军用技术转让问题进行过激烈的辩论,即贸易的限制是否应当仅仅局限于武器本身,军品弹药、零部件和技术是否也应当一并被纳入条约的保障范围之内[11]。但是当时的主要反对意见认为弹药的数目巨大、技术难以被监测或是界定,因此最终条约并没有涵盖这些部分。而人工智能技术的出现可以说成为国际法相关领域的盲区。人工智能技术可以作为民用技术进行转让,但在实际运用中被用于军事目的。
针对这一问题,应当确立新的关于人工智能军用技术转让的国际法规范。对于智能武器而言,算法和用于训练算法的数据集才是本体,而且其数据集在一定程度上能够区分军用和民用两种用途。因此,鼓励各国增强对智能武器贸易的透明度迫在眉睫。为了有效打击智能武器的非法扩散,应在《武器贸易条约》框架下探索规范军用级算法与数据集的标准,并借助条约的年度报告与信息交流机制提升缔约国相关贸易活动的透明度,进而形成类似《塔林手册》《圣雷莫国际海上武装冲突法手册》具有“软法”性质的国际文件或准则,逐渐扩大国际共识,推动将智能武器纳入《武器贸易条约》的管控范围。这些工作应该成为各国推动《武器贸易条约》进程努力的下一步重点方向。
综合而言,规范人工智能的军事应用一方面需要各国进行观念上的革新,认识到人工智能武器与传统武器的区别,同时,这也需要各国进一步加强合作,为相关算法与训练数据制定标准,形成广泛的国际共识。
国际法是否能塑造国家的行为?对于很多现实主义国际关系学者而言,类似的问题似乎是伪命题。诚然,在无政府体系下,大部分国际法因缺乏强制约束似乎不过是一纸空文。但是,国际法的作用往往是长期而潜移默化的。规范的形成本身并不需要强制执行。
当前,技术发展往往先于观念的革新。人工智能已被认为是变革性的国家安全技术,可以与核武器、计算机等相提并论。这种新技术的出现以及军事应用既对现行的国际法带来了多方面的冲击,也使当前国际法出现了更多的空白与模糊地带。针对这些问题,本文认为,可以从提高国际法门槛、确立新的国际法规范两个层次进一步完善该领域的国际法规则,并通过限制LAWS使用、禁止战略武器自主使用以及加强对人工智能武器扩散的管控三种具体措施缓解人工智能军事应用对国际法带来的新挑战。