王玫黎,杜陈洁
(西南政法大学 国际法学院,重庆 40112)
人工智能技术赋予某一特定系统在一个宽泛的环境中得以选择实现其目标的最好方法的能力[1](P.9),该技术除应用于虚拟游戏外,也逐步走进了现实生活,例如驾驶交通工具、图片识别、声音识别、语言翻译以及疾病诊断等。近年来,人工智能技术已逐步进入军事领域,开始赋予各类武器系统一定程度的自主性。关于自主性武器所带来的伦理和法律问题已经在世界范围内引发了热议,各方以“自主性武器系统”(Autonomous Weapons System)(1)关于自主性武器系统(Autonomous Weapon Systems)的准确定义,国际社会尚无统一的见解。国际红十字委员会(ICRC)认为“自主武器系统”是指能够独立选择和攻击目标的武器,即在捕捉、追踪、选择和攻击目标的“关键功能”上具有自主性的武器。美国国防部将其定义为“在激活后,可以在无人操作的情况下自主选择目标并交战的武器系统”。罗伯特·斯巴罗(Robert Sparrow)认为,自主性武器系统是指在任何能够在没有人类直接监督和人类直接参与致死决策的情况下,瞄准并启动潜在致命武力使用的系统。参见ICRC. Report of the ICRC Expert Meeting on “Autonomous weapon sysytems:technical, military, legal and humanitarian aspects.”May 9 , 2014;DoD. Directive No.3000.09, November 21, 2012;Peter Asaro.“banning autonomous weapon systems:human rights, automation, and the dehumanization of lethal decision-making.”International Review of the Red Cross, Vol.94, No.886, 2012, p.690。、“杀人机器人”(Killer Robots)(2)人权观察组织(Human Rights Watch)在他们的报告中多次将“杀人机器人”(Killer Robots)作为与“完全自主性武器系统”“自主性武器系统”“致命性自主武器系统”相等同的概念或通俗化的代称,在其报告中多次出现“Fully autonomous weapons,also known as killer robost”,“Fully Autonimous Weapons,also called killer robots or lethal autonomous robots”等表述。参见Human Rights Watch. Mind the Gap:the Lack of Accountability for Killer Robots, April 2015, p.1;Human Rights Watch. Losing Humanity :the Case against Killer Robots, November 2012, p.1。、“致命性自主武器系统”(3)在《特定常规武器公约》(CCW)框架下定期召开的会议中,致命性自主武器系统(Lethal Autonomou Weapons Systems)被作为主要讨论对象,有的国家(例如日本)要求将讨论对象限定在具有致命性的自主性武器系统,而有的国家(如美国)则通常讨论的是自主性武器系统,并未强调其“致命性”。参见Japan. Possible outcome of 2019 Group of Governmental Experts and Future actions of international community on Lethal Autonomous Weapons Systems,CCW/GGE.1/2019/WP.3, March 22,2019;USA. Autonomy in Weapon Systems, CCW/GGE.1/2017/WP.6, November 10, 2017。等不同的称谓为对象进行了讨论。现今的人工智能技术仍存在显著的弱点,在可预测性、可靠性、可解释性等问题上均存在局限,而具备自我学习能力的机器可能会因种种因素导致错误的学习结果而致行为失常,因此,人们担心具备高度自主性的武器会挑战人类伦理和国际人道法。此外,不具备法律人格又缺乏人类控制的自主性武器若违法还可能导致归责真空(Accountability Gap)的问题。为应对以上人道主义危机,一个英国的非政府组织“第36条”(Article 36)提出了“有意义的人类控制”的理念,引起了国际社会的关注和广泛讨论。虽不乏质疑声,但该理念仍为引导国际社会的对自主性武器军控问题的深入具有启发意义。当下,国际社会对该提议的讨论存在一定的局限,而从国际法的视角对其进行解析有利于克服技术上的界定难题,凝聚共识。本文拟就“有意义的人类控制”理念的产生背景为起点,以现有的共识、分歧和界定缺陷为基础,运用国际法思维探讨其界定要素及判断标准,并提出实现“有意义的人类控制”的国际法路径,呼吁将“有意义的人类控制”从理念转向法律原则,以务实的心态促进自主性武器国际军控规则的形成。
联合国裁军事务研究所(UNIDIR)出具报告称:人工智能和机器学习领域的飞速发展对于自主性武器在武器系统中的角色产生了显著影响。越来越多的智能机械可以在更为复杂的环境中被用于更具挑战性的任务。[2]为适应不断加快的战争节奏、加倍放大武力、降低运行成本和人力需求,越来越多的国家开始利用人工智能技术开发自主性武器,以减少军队的人力开支,提高军队在难以进入的地区进行干预的能力,保持在技术方面相对于潜在对手的领先地位等。[3]有专家认为,在接下来的军队科技改革中,研发具备自主性的武器系统将是符合逻辑且不可避免的下一步。[4](P.620)
人工智能技术的军事化已经被纳入了世界主要军事大国的发展规划中:俄罗斯空军将领维克多·邦达列夫(Viktor·Bondarev)表示,最早于2017年2月,俄罗斯已经开始致力于研制可以在飞行途中自行切换目标的人工智能导弹;俄罗斯总统普京于2017年9月发表的讲话称:“人工智能技术不仅对俄罗斯,且对于全人类来说都是未来的发展方向……不论谁在该领域领先,都将成为世界的统治者。”[5]2014年,时任美国国防部长的查克·海戈(Chuck Hagel)以发展人工智能技术为核心提出了“第三次抵消战略”(Third Offset Strategy),认为快速发展的人工智能技术将决定下一代战争的形态。[6](PP.2-5)2018年,美国国防部发布了《人工智能战略》,表示人工智能技术将作为保障美国应对安全威胁的前沿技术,受到高度的重视,甚至声称中俄两国已经针对人工智能技术的军事化进行了显著的投入,包括采用可能对现行的国际法规则以及人权形成挑战的应用方式。[7](P.5)运用人工智能技术研发和部署自主性武器不仅仅存在于大国的发展愿景中,事实上已经有具备不同智能程度的自主性武器开始服役。(4)研究表明,目前世界各国已经部署的自主性武器主要包括:用于船舶和地面近距离防御的反火箭、火炮、迫击炮系统,用于装甲车针对导弹、火箭等的“主动防御”武器,可以自主搜索、识别、确定、攻击目标的“自杀无人机”,可以自主引导鱼类侦测、追踪、攻击目标的“一劳永逸”型鱼雷,用于保护特定场所具有自主锁定并攻击的反人员“哨兵”武器等等。参见张卫华《人工智能武器对国际人道法的新挑战》,《政法论坛》,2019年第4期,第145-146页。基于自主性武器所带来的巨大效益,在可以预见的将来,军队所配备武器的自主性程度将越来越高,人类将逐渐抽离对武器的控制,甚至有可能实现武器的完全自主。一方面,提高武器的自主性可以减少军队的人力成本,提高军事防御和打击的效率、速度、准确性,这正是各国军队所追求的目标——强化战争的不对称性;但另一方面,具备高度自主性的武器也引起了国际社会的普遍担忧。
基于人权与人道的考虑是国际社会对自主性武器担忧的核心内容。战术优势是军事研究的主要目的,而科技能力在军事竞争力中占据核心位置,自主性武器的设计者很难找到合理的理由去限制武器的致命潜力,因此自主性武器的运用将会导致“高效却非人道”的战争。[8](P.49)机器并不具备人类独有的伦理观和判断力,若任其在人道抉择上发挥自主性则难以避免违法后果的出现。与此同时,自主性武器法律人格的缺失使得一旦其在脱离人类控制的情况下造成了违法后果,可能产生归责的真空。
1.自主性武器存在守法困难
国际人道法的核心在于对战争手段进行限制,以实现对人道、公共良知的维护,主要表现为“区分原则”(Principle of Distinction)、“比例原则”(Principle of Proportionality)、“预防原则”(Principle of Precautious)。“区分原则”要求战争和武装冲突中的各方必须区分战斗员与非战斗员、武装部队与平民、军事目标与非军事目标。“比例原则”禁止交战方发动可能导致平民意外死亡、受伤、民用物体受损或已同时包含以上情形的损害结果的袭击,交战方对军事目标进行攻击时应当最大限度地减少对平民和民用物体的伤害,这种伤害不应当超过军事行动中所要求达到的具体的、直接的军事利益。“预防原则”要求交战方在进行军事行动时,必须不断照顾平民和民用物体,必须采取一切可行的预防措施,以避免并在任何情况下尽量减少平民受伤、丧生和民用物体损坏。自主性武器在国际人道法的视角下的法律地位是交战者与武器的结合,它们能否在发动攻击时运用人类的价值观和伦理观进行判定和衡量,确保其遵守以上三项原则,是自主性武器给国际人道法带来的重要挑战。[9](P.149)
2.自主性武器引发“归责真空”
自主性武器不具备人类的道德伦理观念,更不享有任何意义上的“法律人格”,无法承担法律责任。一旦自主性武器的使用造成了违法后果,应当由谁来承担责任?除国家责任以外,操作员或决策者在缺乏主观犯意的情况下能否从国际法或国内法层面受到追责?此外,根据现有的国际人道法和国际刑法,缺乏人类控制的自主性武器可能会使编程、开发等阶段的相关人员因为缺乏主观的认知而难以被归责。[10](P.17)在现有的法律体系下,自主性武器的受害者能否得到充分的权利救济?在各国追求军事优势和国家安全的本能驱使下,人工智能技术的军事化已是大势所趋,具备自主性能又缺乏人类控制的武器,挑战着人类社会的伦理和法律,在存在归责真空的情况下,自主性武器更容易被非法地研发、使用和贩卖,它不仅是一种“工具”,更有可能是一个“潘多拉魔盒”。
现行的国际法体系对作战工具和作战手段均存在既有的规范,这些规范能够对自主性武器起到一定的规制作用,但针对性的缺乏也使得这些既定的规则在面临自主性武器的特异性时存在漏洞与不力。此外,人工智能技术的军事化被认为是继火药、核武器后的第三次战争革命,这一趋势将催化出一大批自主和半自主性的武器系统,人类战争将进入“算法战”的新时代,数据的准确和运算的速度将成为决定未来战争胜负的关键。[11]自主性武器军控规则的缺失也将放任大规模的人工智能军备竞赛,威胁国际和平与安全。
1.国际人道法不直接规制自主性武器
国际人道法的作战规则总的来说可分为“区分原则”“比例原则”和“预防原则”,其对具体作战手法的禁止和限制则是对这三个原则的进一步确认与延伸。当我们在讨论自主性武器给人道法带来的挑战时则应当考虑人道法对武器的要求是什么?美国认为:“自主性武器本身并不具有天然的违法性,国际人道法的规制对象是人,而不是机器,战争法并没有要求武器做合法的决策,而战争中的人为了遵行战争法,则应当以一种非歧视的、成比例的方式去使用武器。”[12]如前所述,在当下的技术水平内,运用人工智能技术来强化武器的自主性能是国际趋势,但其如何做到在复杂的作战环境中对军事目标和民用目标进行区分,如何判断其攻击范围和损害程度是符合比例的?尽管国际社会认可国际人道法完全适用于所有武器系统,包括自主性武器[13],但其引发的这些问题仅仅依靠国际人道法是无法解决的。
2.国际武器条约对自主性武器的规制缺乏针对性
现行的武器条约主要分为大规模杀伤性武器(Weapons of Mas Destruction)和对特定常规武器(Certain Conventional Weapons)的规制。就大规模杀伤性武器条约而言,这些条约具有明显的指向对象,即核武器、生物武器、化学武器。纵使自主性武器可能会在某些范围内与大规模杀伤性武器存在交叉,从而受到这些条约的规制,但就自主性武器本身最具争议的“自主性能”引发的守法不确定性以及归责真空等问题而言,这些条约是无法触及的。此外,《特定常规武器公约》(CCW,下文简称CCW)旨在禁止和限制某些具有过分伤害力或滥杀滥伤作用的常规武器,如地雷、燃烧武器、特种碎片武器、燃烧空气弹、激光致盲武器等。公约本身是对区分原则和比例原则的重申,指出对引起过分杀伤和不必要痛苦的武器的禁止。但同样的,即便自主性武器完全符合CCW的要求,也不属于其几个附加议定书所明确禁止的武器类型,CCW的规则也无法回应自主性武器的守法不确定性和归责真空问题。这源于自主性武器安全问题的根源——“不可预测性”,即它是否会造成违法后果是不确定的。这个层面上自主性武器就像战场上的交战者一样,我们不能判断交战者本身合法与否(童子军除外),是否会做出违法行为。基于自主武器的自我学习进程和算法的设置,它可能会时而合法时而不合法。而对人类交战者我们尚可以追责,对自主性武器却不能。因此国际武器条约也无法触及自主性武器的根本问题。
针对前述自主性武器给人类伦理以及国际人道法带来的挑战,国际社会各成员纷纷献言献策,有的国家呼吁立即起草一份具有法律约束力的文件对致命性自主武器系统实施禁令。[3]然而,有部分声音认为自主性武器只要得到合理的运用,促使军事的进步,可能在某种程度上使得武装冲突更为人道化,拯救各方的生命,因此对其进行片面的禁止也不利于保护人的生命权利。[14](P.85)为此,非政府组织“第36条”提出了“有意义的人类控制”(Meaningful Human Control)这一理念。该组织强调,在任何情况下都应当对针对个人的攻击进行“有意义的人类控制”,世界上不存在完全脱离人类设定的参数运行的全自主武器。[15]此后,该理念受到了国际社会的广泛讨论和青睐,颇有成为引领自主性武器军控的指导理念之势。然而,国际社会对“有意义的人类控制”既有的界定尝试仍然存在明显的局限性,这意味着对该理念的进一步深入探讨需要新的思路和视角。
“有意义的人类控制”理念一经提出即受到来自各界的关注。尽管内涵和实施方式仍有待明确,但多方仍看好其在解决自主性武器引发的人道危机中的有益甚至是核心作用。(5)例如,克里斯托弗·海因斯(Christof Heyns)认为,有意义的归责取决于有意义的人类控制,自主性武器能否被接受,取决于它是否仍然是人类手中的“工具”,将它们当作工具,即是对它们进行有意义的人类控制。荷兰政府认为,只要人类在部署自主性武器系统时针对决策程序进行有意义的人类控制,就不会出现归责真空,现存的法律制度完全足以惩戒违法者。红十字国际委员会认为“尽管对于其究竟是基于法律、伦理、还是军事行动或者是政策性的因素,这种控制究竟是‘有意义的’还是‘合适的’抑或是‘有效的’等问题尚不清晰,但各方对于必须保留针对武器系统和使用武力的人为控制已经形成了广泛的共识”,并且红十字国际委员会也认为人类的控制是解决自主性武器系统所带来的法律、伦理问题的基本路径之一。参见Christof Heyns. “Panel on Human Rights and Lethal Autonomous Weapons Systems.”CCW Meeting of Experts on LAWS, April 16, 2015, pp.3-5; Netherlands,Examination of various dimensions of emerging technologies in the area of lethal autonomous weapons systems, in the context of the objectives and purposes of the Convention, October 9, 2017, p.3; ICRC. “Views of the International Committee of the Red Cross on Autonomous Weapon system.”CCW Meetings of Experts on LAWS, April 11, 2016, pp.3-4。在此基础上,“有意义的人类控制”也被纳入了自主性武器军控的国际议题中。2014年起,国际社会以《特定常规武器公约》缔约方会议(CCW会议)(6)该会议最初是以缔约方非正式会议的形式进行,2017年后转为政府间专家组会议,为叙事简便,本文统称为CCW会议。为平台,对“新兴技术领域的致命性自主武器”进行了数年的讨论。2015年,CCW会议就开始了对“有意义的人类控制”这一理念的关注。其后,部分代表团建议可以将“有意义的人类控制”作为评估致命性自主武器的法律、道德和伦理问题的框架。[16]2018年,各国已经普遍在CCW会议中达成共识,认定人类控制是专家组未来工作的核心理念。[17]2019年,CCW会议对“有意义的人类控制的讨论”已从理念的提出与强调深入至实施的方式、实施的界限等问题。同年,CCW会议还通过了11项专家组确立的针对自主性武器的指导原则[18],这些指导原则成为了2020、2021年会议的讨论核心。其中对人类责任、人机互动、国家审查、风险评估等措施的强调,实质上都是“有意义的人类控制”理念延伸出来的具体手段。
然而,美国对“有意义的人类控制”这一理念的表述、操作性等方面表达了质疑,认为“有意义的人类控制”这一表述具有较强的主观性且难以理解,建议以“适当的人类判断”(Appropriate Levels of Human Judgment)作为替代。[19]美国空军一研究机构从该理念的判定标准等实践操作中的问题上质疑该理念的实践意义。(7)该报告肯定了“有意义的人类控制”理念具有直观吸引力,但指出其仍然需要面临和定义的问题:“有意义的人类控制”到底是什么?它要求人类从物理层面上真实地操纵该武器系统吗?还是说即时的监控就已经足够?人类被抽离出回路外或者说完全自主性的武器能否达到“有意义的人类控制”的标准?以上这些问题均没有任何的共识,这使得有意义的控制标准在实践中丧失了意义。见Adam Cook, Lieutenant Colonel, USAF. “Taming Killer Roberts:Giving meaning to the ‘Meaningful Human Control’ Standard for Lethal Autonomous Weapon Sysytems.”JAG School Papers, Alabama: Air University Press, 2017, p.18。客观上来说这些质疑有一定的现实基础,但也不乏维护其自身利益之嫌。美国信任技术的发展可以解决人们的担忧,试图用“判断”替代“控制”,以充分地利用自主性能的先进性。[20]这种论调下实际上是将是否运用自主性能,多大程度地运用自主性能置于操作员和指挥官的主观决定之下,与客观上控制自主性能的适用相去甚远,两者体现了完全不同的路径选择。[21](P.144)而非政府组织“禁止杀人机器人运动”(Campain to Stop Killer Robots)就不认同美国的提议,认为相比于“控制”,“判断”和“干预”等术语都弱化了人类角色,不足以解决问题,而“有意义”这一修饰语则保障了控制的实在性。[22](P.2)
综上,“有意义的人类控制”由于其易懂性、适当的模糊性以及其所发挥的将自主性武器讨论焦点从具体的概念问题上转移开,并引导国际社会带着解决问题的思路前进的作用,赢得了国际社会的广泛青睐。[23](P.5)诚然,质疑的声音告诉我们要具体地描绘这一理念是充满了现实挑战的,但并不代表这不值得国际社会为此而努力。实现“有意义的人类控制”所面临的挑战正是国际社会应携手努力的方向。
国际社会深知要想从“有意义的人类控制”这一理念上找到自主性武器军控的突破口,就必须解决定义问题。于是,部分非政府组织和学者开始通过列举控制要素的方式来试图厘清其定义。这些尝试主要呈现出以下特征:
1.聚焦武器应用环节
在理念产生之初,各界倾向于将其限制在武器最终的应用环节,关注在武器被部署、使用的阶段内实施控制的抓手。例如,“第36条”作为理念的提出者,概括了“有意义的人类控制”的三大要素:信息、行动和归责。(8)第36条认为“有意义的人类控制”应包含以下要素:1.信息,人类操作员或其他对于攻击计划负有责任的人员需要充分了解目标区域的情境、任何特定目标被提议作为袭击对象的理由、任务的目标,以及在该情境下该次袭击所会造成的即刻和嗣后的长效反应;2.行动,发动该次袭击需要人类操作员的积极行动;3.归责,那些负责评估数据以及执行袭击的人员应当对该次袭击的结果承担责任。见Article 36.“Killer Robots: UK Government Policy on Fully Autonomous Weapons.”April 2013, pp.3-4, http://www.article36.org/wp-content/uploads/2013/04/Policy_Paper1.pdf。其中归责这个要素看似超出了应用环节,但实际上仍着眼于应用期间进行数据评估和执行袭击的人员。国际机器人军控委员会(ICRAC)认为有意义的人类控制意味着指挥官应当对于目标区域的背景和情境有着足够的认知,并且能够感知到自计划袭击以来可能出现的任何情境和变化并对其作出反应。[24]玛雅·布雷姆(Maya Brehm)从反面列举了不能被接受的人类控制的情形,并进一步强调,为避免以上三种情况,“信息的获取”是控制的核心因素,只有获取了充足信息,相关人员才能够合理地预见使用武力的结果,才能够进一步做出使用武力的合法性评估。(9)不能接受的控制方式包括:1.使用无法在时间和空间上对其进行控制的武器;2.使用具有移动组件的武器系统,该组件可以自由漫游并在多个位置施加武力,而无需在很长一段时间内向人报告;3.人类的控制仅仅体现为每次亮灯时按下按钮,而并不需要获取任何信息,因此并非所有形式的人类控制都是充足、有意义的。Maya Brehm. “Meaningful Human Control.” April 14, 2015, p.7, https://docs-library.unoda.org/Convention_on_Certain_Conventional_Weapons_-_Informal_Meeting_of_Experts_(2015)/BREHM_Presentation%2Bon%2BMHC_14.04.2015.pdf.新美国安全研究中心(CNAS)在“第36条”等组织和学者的研究基础上,结合当下对武器控制的实践情形得出“有意义的人类控制”应当包含以下三个要素:“(1)人类操作员在获得信息的基础上就武器的使用作出理性的决定;(2)人类操作员获得了充分的信息使其知晓目标、武器以及行动的背景等问题,以保障其作出合法的行动;(3)为保证对武器的有效控制,对其进行设计并测试,人类操作员也应当得到合适的训练。”[25](P.15)非政府组织“国际非暴力组织”(Nonviolence International)认为,有意义的人类控制意味着人类将参与武器部署的每一个部分,包括启动、发射、选取或取消目标、召回以及关闭等阶段。[26](P.10)不难看出,以上对“有意义的人类控制”的界定均重点关注武器的应用环节,具有较强的实践性和技术性。然而,技术毕竟是日新月异的,今天关于具体操作和应用的讨论或许明天就已经不再成立,过分关注实际应用操作中的控制手段则容易导致“一叶障目”,难以从预防、追责的角度宏观地把握该理念的内涵,也难以真正地实现对自主性武器守法困境和归责困境的化解。
2.缺乏现实性和灵活性
部分提议强调操作员充分的信息获取以及完美的目标及其环境认知,且要求必须存在能够迅速中止或终止袭击的方法。实际上,在现实的战场环境中操作员对信息的获取时常是有限的,而这些提议所要求的充分信息究竟到达什么程度?如果一定要围绕着这个技术性问题进行争论则很可能将议题引入歧途。此外,这些提议在聚焦武器应用环节的同时,也存在着过于具体化的问题,这就意味着适用范围的局限。新美国安全研究中心不断地强调人类操作员的重要性,但又曾提出过“放手让机器自主行动能得到比人类参与更符合国际法的结果时,也可以说是一种有意义的控制”的说法[27](P.6),两者存在着潜在冲突。将控制着眼于当下人类操作员的显在角色,同时也预见到未来脱离人类操作员的武器可能会产生更加符合“有意义的人类控制”的结果,这些提议明显脱离了战场的现实,过于理想化,不仅没能涵盖既存的现实情况,也没能延伸到因武器自主性的提升导致的可能出现的新情况。[25](P.10)
综上,不论是从正面、反面,抑或是从信息的获取还是操作员的培训等角度出发,这种从技术与应用层面对“有意义的人类控制”进行的定义,往往难以同时保证其现实可行性和对科技发展的预见性。缺乏详尽、明确性和高度适应性的语言表达会导致无法发挥对国家行为有意义的规制作用,因此“有意义的人类控制”这一术语并未被纳入CCW会议所确立的11项指导原则中。[28](P.2)然而,这并不意味着“有意义的人类控制”这一理念在自主性武器军控进程中的重要性被削弱,相反,11项指导原则所提及的“人类责任”“人机互动”等要求均是“有意义的人类控制”的题中之义。因此,国际社会未来应以该理念为着力点,转变视角,开发新思路,赋予“有意义的人类控制”更清晰、普适且具有操作性的界定表述。
如前所述,由于“有意义的人类控制”这一术语现有的界定尝试存在缺陷,国际社会对其内涵也有着不同的认知,所以它尚不具备直接广泛约束国际社会成员的能力和适应性。就武器的自主性和“有意义的人类控制”而言,我们在建立共通定义和术语方面,还有很长的路要走。[29](P.56)除了要研究人类应当在自主性武器的哪些方面进行“有意义的人类控制”以外,还必须明确由谁来进行控制,除非明确控制行为的主体,否则无法使这一理念在法律层面得到确认并据此建立责任制度。[30](P.867)“有意义的人类控制”需要共同、普适且能适应技术变革的共通定义,也需要在法律层面予以确认并保障实施。首先,法律规范的抽象性和概括性可以解决界定时技术性的细枝末节引发的争议;其次,自主性武器引发的是国际安全问题,而同时又涉及主权与内政,这意味着国家须得以主权让渡的形式为“有意义的人类控制”做出承诺。基于此,国际法的视角或许能为我们提供新的思路。
法律规则具有两点特征:其一是有效性,即法律拘束力;其二是一般性,即非仅适用于特定事件。[31](P.125)首先,区别于道德、伦理、政策等,法律是一种代表着国家意志且具有国家强制性的社会规范[32](P.93),法律拘束力为“有意义的人类控制”提供了实施的保障。其次,法律的一般性赋予其抽象且反复适用的特性[32](P.93),为凝练和概括“有意义的人类控制”的关键要素提供了规范性的基础。而国际法作为法律规范的一种(10)《奥本海国际法》(第8版)在一开始就论述“国际法是法律”。参见劳特派特修订《奥本海国际法》(平时法第一分册),王铁崖、陈体强译,北京:商务印书馆,1981年,第3页。同样存在有效性与一般性两个基本特征,同时又因其特殊性对自主性武器的规制和“有意义的人类控制”的界定和实施有着独特的作用。国际法的主体主要是国家,制定者是国家,国际法的强制力依靠国家单独或集体的行动。[33](P.3)国际社会是一个平行社会,各国的国内法只能管控其主权范围内的事务,不得干涉他国的内政。由于各国对军事利好和国家安全的本能追求,“有意义的人类控制”无法依靠主权国家的道德感与自觉性得到落实,必须通过国际法这种确立国家之间的权利与义务的法律形式赋予其法律拘束力。基于此,国际法因自主性武器受到威胁,而国际法又是自主性武器军控的目标,因而也得以成为“有意义的人类控制”的理想界定工具。
1.国际法的界定方式是一种目标导向的务实进路
有效的军控制度应当包含可信的承诺,而可信的承诺取决于其是否具有法律拘束力,法律拘束力越强,则违反该承诺的名誉成本就越高,在缺乏拘束性义务的情况下,违背承诺可能成为一种常态。[34](PP.128-129)为最大限度地降低自主性武器给国际和平与安全带来的负面影响,许多CCW与会者表达了对“抢先性规制”(Pre-emitive Regulation)的支持(11)国际机器人军控委员会(ICRAC)、斯里兰卡、巴基斯坦、中国等国家和非政府组织均表达过对抢先性规制的支持。见ICRAC. International Committe for Robot Arms Control opening statement to the CCW Meetings of Experts on LAWS, April 13, 2015; Sirilanka. Statement by Sirilanka, Informal CCW Meeting of Experts on Lethal Autonomous Weapon Systems (LAWS), April 13, 2015; Pakistan. Statement by Pakistan Delegation during the Session on“Way Ahead”, Informal CCW Meeting of Experts on Lethal Autonomous Weapon Systems (LAWS), April 17, 2015; China. Statement of the Chinese Delegation of the Thematic Discussion on Conventional Arms Control at the First Commitee of the 74th Session of the UNGA, NewYork, October, 2019, p.3。,这意味着国际社会要致力于形成一个规范自主性武器的国际条约。若将此作为规范自主性武器的阶段性目标,则对“有意义的人类控制”的界定方向就变得更加清晰。在以国际条约为导向的界定过程中,技术性的问题不应被忽视,但也不能被作为主要的界定要素。我们应当思考的是,国际社会需要通过这项国际条约就哪些事项为哪些主体设置义务?这些义务应当包含哪些具体的事项?简而言之,运用国际法的视角来界定“有意义的人类控制”就是在国际条约中明确哪些国际法主体应对涉及自主武器的哪些事项履行哪些义务。这样一来即可避免当下对该理念界定的局限视角以及缺乏灵活性的问题。
2.国际法的界定方式是一种问题导向的高效进路
如前所述,国际社会对自主性武器的担忧主要集中于其潜在的守法不确定性及其导致的归责真空问题。而现行的国际法规又无法针对性地解决这些问题,因此“有意义的人类控制”这一理念的提出具有内在的指向性——针对性地解决自主性武器带给国际法的独特挑战,进而言之即解决其守法不确定性和归责真空问题。一个法律漏洞的产生无法通过技术的发展得到完美地解决,只有同样运用法律手段才能填补其漏洞。只有运用国际法的进路才能够通过确立国际义务的方式约束主权国家片面追求自主性武器的自利行为,要求各国在研发、部署自主性武器时坚持审慎原则,更加谨慎地考量其中的人道因素,以求国际人道法得到更好地遵守;只有运用国际法的进路才能够促使国际社会和各主权国家完善国际国内相关法律制度,确立问责制度,避免归责真空。总而言之,运用国际法的进路能够对自主性武器带来的问题点对点地进行解决,是一种现阶段更为高效的选择。
正如美国在CCW会议上提出的关于“致命性自主武器系统”定义的看法:尝试去对这种复杂的机器智能问题作出准确的定义是不正确的,问题的关键在于从法律角度而言什么是重要的。[35]依据这一思路,坚持从技术的角度来探讨“有意义的人类控制”的定义或许也是一条“弯路”,要使这一理念能切实地解决自主性武器所引发的人道主义危机,就不能将其限定为一个技术性的理念,而应当让法学家、伦理学家、政治学家以及科学家甚至普通民众都能够读懂。汤普森·成格塔(Thompson Chengeta)曾尝试从法律的角度去界定“有意义的人类控制”,认为如果要将“有意义的人类控制”定义为一个法律术语,至少作为一个法律责任的术语,就需要将其定义缩小至某一特定主体上,即作为该武器最终使用者的战斗员。[30](PP.868-883)这种法律的进路为“有意义的人类控制”的定义提供了一种新的思路,通过界定控制主体、控制目的、控制方式等问题来应对科技水平不断变化,赋予了“有意义的人类控制”较强的灵活性与适应性。如前所述,国际法是界定“有意义的人类控制”的理想工具,而国际法作为法律规范的一种本身所具有的特点为“有意义的人类控制”理念的清晰化提供了独特的思路。
1.国际法视角下“有意义的人类控制”的主体是主权国家
除汤普森·成格塔建议将“有意义的人类控制”的主体确立为最终使用者外,也有组织呼吁要求所有与自主性武器有关的人和组织均应当保持对其的“有意义的人类控制”,进一步扩大了主体范围。[28](P.3)但从国际法的视角来看,“有意义的人类控制”的主体界定为主权国家才能在符合法理的情况下具备现实可行性。从法理上来说,国家是国际法的基本主体,国家也是通过缔结条约享有权利、承担义务的最重要主体。因此,以缔结条约为目标的自主性武器军控中,国家是最重要的军控实施者,也是“有意义的人类控制”最基本的实施主体。从实践上来说,国家是主权的享有者,国家主权对外表现为独立权,对内表现为控制权。[36](P.75)主权实质上是一种治理权,是社会中一部分人的权利,它意味着在一个确定地域之内主掌者对于群体的命令,群体因而承受强加的成本,服从于主掌者的意志。[37](P.209)因此,只有拥有对内最高控制权的国家,才可以全面贯彻执行人类对自主性武器保持“有意义的人类控制”。
2.国际法视角下“有意义的人类控制”的范围是自主性武器生命周期的所有环节
2016年,“第36条”将控制的焦点从单一的应用环节扩大到设计和开发阶段,并提出了人类控制的“三层进路”——战前、战中、战后,即人类的控制应当通过战争前后的一系列机制得到保证。[38](P.4)具体而言,除袭击时的人类控制外,它建议战前环节制定政策划定边界,同时强调武器的设计、开发以及获取和操作人员的训练;而在战后则强调归责的有力。[38](PP.5-6)以参战与否作为划分节点显然与现实存在一定的落差。实际上,大多数武器并不会真实地参与武装冲突,而即便真实地参与到了武装冲突中,其生产者与使用者也可能存在差异,这种界定方式给法律条文的设置加大了难度。国际机器人军控委员会认为“有意义的人类控制”应当设定为一项普遍性的条文,下设“训练”“设计”“使用”三个部分。[23](P.4)这些界定虽仍存在局限,但就扩大“有意义的人类控制”的适用范围而言,是具有启发性的。只有扩大视角,将目光从单纯的应用层面拔高才能全面地把握问题的解决之道。而考虑到法律条文的一般性,概括性的语言是其具有广泛适用性的根源,因此“有意义的人类控制”的对象应界定为自主性武器生命周期(Life Cycle)的所有环节。2020年,瑞典代表团提交报告表示,人类的控制应当贯穿武器系统的整个生命周期,包括使决策者充分认知到武器系统的特性、赋予复杂的武器系统以严密的操作规范等,这些都是人机交互措施的一部分。[39]这项建议是符合现实且具有较强适应性的。
3.国际法视角下“有意义的人类控制”目的是平衡军事利好与人道考量
汤普森·成格塔提出“有意义的人类控制”目的在于弥补可能存在的归责真空。[30](P.870)实际上,全面地禁止自主性武器也可以防止归责真空的出现,但与“有意义”这一要求背道而驰。自主性武器不仅给国际社会带来了挑战,也给各国军队带来了难以抗拒的军事利好。以美国为首的部分国家始终强调自主性武器潜在的守法优势,相信技术的发展可以使得这类武器的使用可以产生更好的守法效果,主张自主性武器某种程度上是与国际人道法的要义完全契合的。[12](PP.3-4)基于挑战与利好的同时存在,国际社会就不能以禁止和限制人工智能技术发展为导向去进行“有意义的人类控制”。因此,也只有兼顾了军事利好与人道考量的控制手段,才是“有意义的”。正如弗兰克·索尔(Frank Sauer)所说:“将人类与计算机的力量结合在一起,配以做出瞄准、攻击目标等决策时的‘有意义的人类控制’,才能够更好地实现军事目标,从策略、法律以及伦理角度而言,也只有这样才是最明智的道路。”[40]如何判断控制手段达到了平衡?或者说如何判断其“有意义”呢?专家们和国际组织倡导人类应该“在回路中”(Human in the Loop),但并未明确人类参与程度。“在回路中”可以是仅仅按下按钮表明目标已被检测到,也可以是在对目标发起攻击前针对其合法性进行完全的人类判断。[41](P.4)国际机器人军控组织认为“有意义的人类控制”有三个层面的要求:首先必须要提供一个“防错机制”(Fail-Safe Machanism);其次要促进归责的进行;最后,要确保其具有道德性。[23](P.2)这为我们对控制力度的细化提供了思路,至少可以明确控制的下限在于保证自主性武器造成违法后果后能够依法追责到相关责任主体。
运用国际法界定“有意义的人类控制”目的在于化解自主性武器对国际法的挑战,实现国际法对其的有效规制。因此运用国际法实施“有意义的人类控制”是本文,也是国际社会应对自主性武器人道危机的逻辑必然。
1.在CCW框架下形成针对自主性武器的附加议定书
CCW旨在约束战争和武装冲突中各方的作战手法,并禁止使用可能引起过分伤害或者不必要的痛苦的武器、弹药、材料和作战方法,是一个致力于在军事必要性和人道主义考量中达成平衡的公约。[42](P.2)CCW为自主性武器提供的讨论平台拥有最多元化的参与者,是国际社会对自主性武器讨论最深入、成效最突出、影响最广泛的场合,也是最有可能形成具有针对性的自主性武器军控制度的场合。[9](P.154)对此,俄罗斯代表表示,CCW作为能够最大程度地保证人道考虑和国家合法的安全利益之间平衡的国际法工具,是讨论自主性武器问题最合适的平台。[43](P.1)这一观点也得到了会议专家组的肯定,他们强调CCW的模块性质和不断演变的性质,及其力求在人道主义考虑和军事必要性之间取得平衡和为多个利益攸关方提供参与的机会,使其成为可以就该议题开展针对性和参与性讨论并达成共识的理想平台。[17]2018年,智利、奥地利、巴西共同提交了一项提案,表示各国应当在CCW框架下就针对致命性自主武器进行“有意义的人类控制”的问题协商达成一项具有法律拘束力的文件。[44]2019年,CCW会议专家组根据各方共识,将“CCW提供了适当的框架,可在CCW的目标和宗旨的范围内处理致命性自主武器系统领域新技术的问题,力求在军事必要性和人道主义考虑之间求得平衡”确立为当下应对自主性武器挑战的原则之一。[45]CCW本身具有一定的宣言性质,包含五个涉及特定常规武器的附加议定书。这种规范模式正好契合自主性武器的规制需求。
2.确立“有意义的人类控制”作为自主性武器军控的指导性国际法原则
诺埃尔·沙基(Noel Sharkey)很早就为国际社会有效实施“有意义的人类控制”提供了一个建设性的思路——“国际社会必须将人类的监管控制确立为法律原则”[41](P.21)。罗纳德·德沃金(Ronald Myles Dworkin)认为:法律规则与法律原则之间存在质的差别,他们在适用方式、例外可否被完全列举、是否具有重要性维度等方面存在差异。[46](P.26)具体而言,法律规则要么适用,要么不适用,而法律原则的适用则存在一定的权衡和比对;法律规则的例外可以完全列举,而法律原则反之;法律规则不具有重要性维度,而法律原则具有。[47](P.23)法律原则相较于法律规则具有一定程度的模糊性和宏观性,它带着立法者的价值判断,也指导着具体规则的价值和文本构建。美国学者莎拉·克雷普斯(Sarah E. Kreps)经过对各类军控协议文本进行研究后认为“法律化程度越高并不必然导致合作,相反还可能会阻碍合作”;“当涉及签订长期协议所面临的不确定性时,国家往往更青睐拥有更加灵活机制的军控协议”。[34](PP.131-132)如此一来,由于其模糊性与宏观性,法律原则的先行确立就是国际社会凝聚共识的可行之路。据此,国际社会处理国际海底资源的经验值得借鉴。
20世纪60年代,鉴于国际海底资源的国际法规制尚处空白,而国际社会已有抢占该区域之趋势。1967年,马耳他驻联合国代表阿维尔·帕多(Avrid Pardo)在第22届联大会议上提出宣布深海大洋底是人类共同继承的财产的建议。据此,联大通过第2340号决议,即“各国现行管辖范围以外,公海海洋底及其底土的和平利用,以及资源用于人类福利问题”的决议。[48]阿维尔·帕多后续的辩论中提出了一系列设想:远期设想即建立一个为人类共同利益服务的特别机构,该机构将被赋予充分的权力以对国家管辖外水域及其底土进行管理,但由于时间仓促以及该设想尚未得到充分讨论,近期应以提出相应的指导原则为主要任务。这些原则综合而言,即是“人类共同继承的财产原则”。(12)这些原则包括“(a)国家管辖范围以外的海床洋底不应为任何国家所占有;(b)区域勘探应遵从联合国宪章的原则和目的;(c)区域的利用和经济开发应保证人类利益为目的,并应主要用于促进贫穷国家的发展;(d)区域应保留转为和平目的”。 UNGA.Examination of the question of the reservation exclusively for peaceful purposes of the seabed and the ocean floor, and the subsoil thereof, underlying the high seas beyond the limits of present national jurisdiction, and the use of their resources in the interests of mankind Page General debate, A/C.1/PV.1515, November 1, 1967.此后,联合国大会于1970年通过了第2749号决议,即“管理国家管辖范围以外海床洋底及其底土原则宣言”,正式确立了国际海底及其资源属于“人类共同继承财产”这一法律原则。[49]该原则的确立,极大地提高了后续第三次海洋法会议制定国际海底开发制度的效率,成为了指导各国谈判的基本原则。
当问题已经凸显,而关于具体措施的共识尚需酝酿中时,国际海底区域的经验显示出原则先行是可行且有效的。相似地,随着人工智能技术的军事化,武器的自主性能不断提升,人道主义危机已经迫在眉睫,而军控规则却仍为赤字。国际法为了协调不同国家的利益,必然以一定程度含混模糊的方式呈现,以使所有签字国认为该法律文件承认其国家利益。[50]就自主性武器军控而言,国际社会有一定的共识基础,但仍缺乏对具体措施的探讨,因为这势必将触及某些国家的利益,当下对其进行谈判将是艰难且耗时长久的,不符合人道危机迫在眉睫的现状。此外,这种路径也能够避免条约因科技的进步而过时。[51](P.3)因此,以一定程度上含混模糊的方式先行确立指导军控的法律原则既能巩固共识,又能初步提高各国对自主性武器管控的意识,是目前应对挑战的最为可行之路。而其本身具有的“有益的模糊性”也是“有意义的人类控制”受到国际社会青睐的重要因素。[23](P.5)国际法为国际社会提供行动的原则和指引,各主权国家积极响应国际法的要求,认真贯彻落实国际法所确立的法律原则,才能实现一个国家的国际义务与国内权力的良性互动。
条约必须遵守被称为国际社会交往的重要原则之一,它意味着各政治体作为一个独立的机构,在与其他政治体进行国际交往时,须按照所参加条约的规范行事;当条约的内容涉及国内民商事主体的行为时,各政治体必须妥善处理所参加的国际条约与国内法的关系。[52](PP.200-201)缔约国有义务通过其对内主权促使“有意义的人类控制”原则在其国内得到落实,而这些具体的手段与措施应被作为一个可持续的议题,以应对可能出现的新技术与新动向。
1.宏观上为实施“有意义的人类控制”做出政策指引
一个国家的政策方向影响着其国内各行各业的发展态势,如果一国的宏观政策仅强调人工智能技术的发展和运用,不考虑其中所涉的任何法律和人道因素,则在该政策引导下的相关行业、产业、部门、单位都不会将法律和人道的考量作为研发、生产或部署自主性武器时的评估标准。例如,美国国防创新委员会于2019年发布了《人工智能原则:国防部人工智能应用伦理的若干建议》,要求人工智能的军事应用应当坚守“公平、负责、可控、可靠、可追踪”等原则[53],这些原则受到了国防部的认可与采纳,从而进一步为自主性武器的安全运用划定了界限。2019年,中国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,其中强调了人工智能技术发展中的可控性和责任承担问题。[54]2021年,该委员会又发布《新一代人工智能伦理规范》,要求将伦理道德融入人工智能全生命周期,再次强调人工智能的可控可信和人类的责任担当。[55]这些均是从宏观政策层面引导人工智能技术发展的有益尝试。在“有意义的人类控制”原则指导下各缔约国通过在其国家政策中强调军事人工智能以及自主性武器的安全问题,强调研制、开发和后续一系列进程中的伦理和法律考量,可以为后续的一系列针对“有意义的人类控制”的工作落实提供有力的政策基础和价值指引。
2.微观上对自主性武器整个生命周期进行“有意义的人类控制”
在自主性武器中保持人类的介入需要解决两个问题:其一,如何保障人类的介入在“质”的层面合适;其二,如何建立属于人类操作员的控制特权。要解决这两个问题,将目光局限于武器的部署和使用阶段显然是不够的。[23](P.8)在自主性武器与人类的互通过程中存在“人机交互界面”,其中有以下接触点:(1)发展前阶段的政治方向;(2)研究与发展;(3)测试、评估和认证;(4)部署、培训、指挥和控制;(5)使用和中止;(6)使用后评估。[17]这些接触点实质上就是自主性武器生命周期中的关键环节,各国在履行控制义务时可以从以上接触点入手,对自主性武器保持足够且适度的控制。例如,前期的法律审核、中期的合法性监管、完成后的合法性测评;从立法的层面明确设计者、编程者、生产者的责任;在启动阶段,对任务类型、目标类型、武力类型、运作的环境、时间等因素进行限制。[10](P.13)CCW会议专家组于2019年形成了11项适用于自主性武器的原则,其中许多内容都涉及在自主性武器生命周期中的微观控制。例如,应考虑到实体安保和适当的非实体保障(包括针对黑客攻击或数据欺骗等)网络安全、落入恐怖主义团体手中的风险和扩散的风险等问题;应考虑在武器的设计、发展、测试和部署周期中采取风险评估和减小风险的措施。[45]除此之外,恐怖分子也在积极寻找这类系统,非法的转让可能意味着致命性自主武器系统落入非国家行为体之手[16],因此有必要考虑设置流通限制,并建立相关的问责制度。
3.强调法律审查和问责机制的构建
就法律审查而言,1997年的《日内瓦公约第一附加议定书》第36条明确要求,在对新武器、新的战争手段或方式进行研究、开发、获取、适用等情形时,缔约国有义务判定其在某些情形下是否受到该议定书或其他于该缔约国有效的国际法规则所禁止。据此,法律审查义务本身就存在国际法基础,而在“有意义的人类控制”原则下对其的再次确认与强调集中突出了对自主性武器进行法律审查的迫切和必要性。法律通过对于行为模式的后果设定来指引行为体(法律行为者或者法律主体)何种行为受到鼓励、何种行为被容忍、何种行为被限制、何种行为被禁止。[56](P.91)国际法亦然,对违法行为的归责是国际法的基础问题,它不仅关系到受害者的救济权,还能树立法律权威,起到警示作用。[57](P.5)“有意义的人类控制”被认为是填补可能存在的归责真空的重要路径。由于国际法对于个人的追责方式、情形以及涉及的罪名有限,单纯依靠国际法来建立对自主性武器在研发、生产、部署、适用等环节的所有相关人员的问责制度并不简单,也不现实,毕竟各国有着不同的意识形态和法律制度。就目前的国际法而言,除国家、战斗员与指挥员以外,向自主性武器所涉其他环节的相关企业、研发人员进行追责相当复杂与困难。(13)例如《罗马规约》《前南国际刑事法庭规约》以及《卢旺达国际刑事法庭规约》都对个人(无论是自然人还是法人)承担国际刑事责任做出了主观故意的要求。为此,在“有意义的人类控制”原则的指引下,要求缔约国建立相关问责制度能够从国内法角度弥补过失犯罪在国际刑法中难以被归责的漏洞,保障受害人的权利得到有效救济。
虽面临界定的难题,“有意义的人类控制”仍因其适当的模糊性和概括性成为自主性武器系统军控的指引性理念和国际社会达成共识的潜在焦点。近年来,各方对该理念的界定尝试未能从实践性和预见性等角度描绘其全貌。而当下,人工智能技术的军事化已经不可避免,主权国家片面追求武器高自主性的自利行为也难以控制,这种趋势带来的人道主义危机是不容忽视的。基于这种迫切的危机和规范需求,国际社会应转换思路,从技术性的视角转换至法律性的视角,探讨如何运用国际法的思维界定和实施“有意义的人类控制”,这是从法理和现实角度逻辑的必然。中国将“构建人类命运共同体”作为新时代大国外交的基本纲领与行动指南,它以人类长远、整体利益为出发点,超越了大国争夺主导权的思维,将促使各国休戚与共、合作共赢谋求共同发展,并对地区和世界的和平繁荣发展产生了重大而长远的影响,更利于人类的可持续发展和长久利益。[58](P.21)中国作为安理会常任理事国与国际裁军事务的重要参与者应当在此议题上发挥更大的作用,但当下的参与度仍显不足。[21](PP.147-148)“有意义的人类控制”这一概念虽然仍有待进一步的研究和解释,但它能够为我们提供一个思路和方向。于中国而言,保障法律拘束力的同时赋予其灵活性,不仅有利于在国际社会间达成共识,也有利于为我国在实践中探求军事利好与人道考量的平衡积累经验。在未来的自主性武器军控议题中,中国对“有意义的人类控制”理念的理解和充实,以及自主性武器国际军控的中国方案,值得期待。