蔺春来
内容提要:传统国际人道法诞生于热兵器时代人道主义保护实践。人工智能的军事应用,将颠覆性改变热兵器时代的作战样式、制胜机理和人道主义保护方式,国际人道法必然会随着人工智能军事应用的深入和世界文明的发展而发展,呈现出对不人道行为作出法律反应的阈值逐渐降低、“军事需要”原则受到“武力必需”原则的制约、资源和环境同样受到国际人道法的保护、国际人道法与国际人权法在某些领域深度融合的发展趋势。
从广义的文化、政治、哲学角度来说,人道主义有两个来源:宗教信仰和战争法。①Eleanor Davey,John Borton and Matthew Foley,A history of the humanitarian system:western origins and foundations with June 2013,HPG working paper,2013:5.从历史上看,战争法中的人道主义保护思想起源于热兵器广泛应用时代,特别是机枪等自动武器对交战人员生命和健康造成的巨大伤害,直接催生了区分交战人员和非交战人员、禁止不必要杀伤和痛苦,以及对武装冲突中伤者、病者和其他遇难者人道主义保护的法律思想。人工智能武器的出现,将颠覆性地改变热兵器时代的作战样式和制胜机理,也必将推动热兵器时代形成的人道主义法律保护思想的新发展。准确把握国际人道法的发展趋势,在国际人道法发展中发出更多的中国声音,有助于塑造和引领智能化战争中人道主义法律保护的新态势,提升国家软实力,保证智能化战争中我军军事行动政治效果的充分发挥。
人工智能技术在智能化感知与信息处理、智能化指挥控制辅助决策、无人军用平台等领域的飞速发展,正推动着战争形态由机械化信息化向智能化演进。从国际人道法的视角看,人工智能技术在军事领域的应用呈现出明显的规避法律的特征。
人工智能技术在军事领域的应用进程,是从依托和嵌入机械化信息化武器装备和作战模式开始的。以智能化感知和信息处理为例,技术应用之初,主要是为了更高效地感知战场态势,更快速地处理各种信息,以便在机械化和信息化战争中取得优于对手的效率优势。但随着人工智能技术的加速发展,其应用领域也呈现加速扩张的状态,不但在传统物理域得到广泛应用,在新兴的信息域、电磁域甚至是认知域,也得到迅速应用。智能化感知和信息处理已由机械化信息化作战的辅助手段演变为新兴领域的主要对抗手段之一,传统的武器装备和作战样式已无法在新兴领域发挥应有的作用。
机械化时代的战争,主要是通过杀伤或威胁杀伤对手的有生力量,或对战争的物质基础进行摧毁来达到战胜对手的目的。“战争制胜更多由兵力、武器的多寡和强弱决定,物质和能量是影响战争制胜的核心因素。”①杨未强、刘书雷、邓启文:《战争制胜机理的历史演变及启示》,载《装备学院学报》,2016(8),9~13页。即使在信息化时代,战争的制胜机理,也是通过信息对作战力量的高效整合而取得决策优势和行动优势,制胜机理仍未完全脱离物质和能量的对抗,只是对抗优势的取得已不单纯是兵力和武器力量的简单对比,而是信息主导下兵力的指挥、协同和运用,信息成为制胜的主导性因素。因此,无论是机械化还是信息化战争,有生力量之间的对抗仍然是作战行动的重要形式,国际人道法仍然对作战行动起着明显的约束作用。
但是,人工智能技术在军事领域的广泛应用,将改变战争的制胜机理,作战中将出现大量国际人道法立法时未曾出现的情况。特别是无人化作战的出现,使现有的国际人道法无论在理念原则还是具体内容上,都将无法适应新的军事实践。
从实践看,虽然人工智能技术的军事应用引发了广泛的舆论争议,支持、限制或禁止人工智能在军事领域应用的呼声此起彼伏,但国际人道法领域的主流观点,仍然是对人工智能的军事应用持观望或默许的态度。这主要得益于人工智能武器的技术发展方向,不是追求武器对有生力量杀伤范围和杀伤强度的扩大,而是追求更为精确的“点对点”杀伤;或者不直接杀伤有生力量,而是通过智能无人武器之间的对抗;或者通过破坏重要军事设施和城市基础设施控制系统致其瘫痪的软杀伤,来实现作战目标。
这样,既可以规避由此引发的人道主义舆论谴责,又可以用最小的代价实现军事或政治目的。因此,从某种意义上说,人工智能更容易实现作战行动目标的精确化区分,减少军事行动附带性损害,在更好地遵守国际人道法的前提下展开军事行动。正是因为具备这一特点,才使人工智能技术的军事应用没有遇到重大的国际人道法障碍。
人工智能技术在军事领域运用的技术方向之一,就是尽量避免参战有生力量的直接伤亡,以及对平民目标的附带性损害。从目前战争应用的实践看,由于设计制造的不完善或技术故障,导致人工智能武器的误伤误炸的概率较高,但随着技术进步,人工智能武器这一缺陷将得到最大程度的修正,“零伤亡”前提下完成作战行动将成为可能。
这就意味着,武器装备和作战理论的发展不会与人道主义保护法律精神发生直接碰撞,作战行动中直接违反国际人道法的行为将越来越少。表面上看,作战行动成了智能无人武器之间的对抗,国际人道法精神得以充分的尊重,似乎已实现人道主义保护的初始目标。这种状态如在实践中出现,将明显降低违反国际人道法行为的发生频率。因为,机械化信息化作战行动展开的物理领域中常见的违法人道主义保护的行动都已得到规避,而新兴的信息、电磁、太空和认知等领域展开的作战行动,将不再具有机械化作战行动的典型特点。特别是不具备直接杀伤的非作战人员,或者不加区分地摧毁民用目标等违反人道法的典型行为,国际人道法也逐渐失去其适用的实践环境。
这种由技术的高速发展而使法规迅速过时的情况,在实践中曾多次出现。可以预见,人工智能的高速发展,也将使现有国际人道法的诸多内容失去适用的具体实践场合。
人工智能技术的发展,是人类创造能力发展的必然结果,也是人类改造世界能力发展的历史潮流和实践规律,无法通过人为力量强行阻挡,顺应技术发展的潮流并进行必要的法律引导,才是务实之举。产生于机械化战争时代的国际人道法相关理念,也要顺应未来智能化战争的发展趋势,以规范人工智能技术在军事领域应用的新实践,规避技术发展可能带来的人道主义风险。
人工智能技术在军事领域的应用,是促进国际人道法发展的重要因素之一。与此同时,人类文明特别是政治文明也处于高速发展时期,政治文明发展的新成果在促进政治思想、政治文化和政治制度等发展完善的同时,也促进人道主义精神的发展。对于人道主义,“应该坚持广义的人道主义理解,以一种全球性、历史性、民族性的角度,将一切国家民族在其发展历史中对人的理解与关怀、尊重、爱护都纳入考察的视野”①乔蕤琳、徐敬龙:《广义的人道主义理解探析》,载《学术交流》,2017(12),132~137 页。。从武装冲突中人道主义保护的视角来看,机械化时代作战中的人道主义保护,主要是在武力行动中对生命、健康、较低水平个人的尊严和环境的保护,其目的主要是免予不必要的杀伤、给予及时救治和较低水平的个人尊严保障等。
可以预见,在未来智能化作战中,针对有生力量直接使用暴力的范围和强度都有可能降低,由作战行动直接造成的伤亡将大大降低,甚至是“零伤亡”。正如有专家判断,“零伤亡”作战行动“正日益成为一种普遍认识、一种时代要求和一种战争常态”②庞宏亮:《21世纪战争演变与构想:智能化战争》,105页,上海,上海社会科学出版社,2018。。
另外,从世界文明发展特别是国际关系中限制武力使用、军事行动方法和手段的发展趋势上看,不加区分可造成不必要痛苦的武器或作战方法等,已受到国际舆论和法理的一致反对,新的武器和新的作战方法,都是在普遍尊重国际人道法的前提下才被开发使用。国际舆论和法理越来越关注生命、健康和尊严的保护,这已构成当代人类社会的普遍共识。因此,随着物质文明的发展和精神文明程度的提升,人们对人道保护的范围也将拓展,对非人道行为的容忍度将大大降低,对作战行动中的人道主义保护也将有更高的标准。
目前,智能化武器研发和智能化战争构想,都尚未出现不加区分杀伤或大规模杀伤的发展倾向,但并不意味着智能化战争已消除武力行动对人的生命或健康的伤害,因为智能化战争并未改变战争的暴力对抗性。虽然,智能化可以明显减少武力使用对自然人生命和健康造成的直接损害,但间接损害的可能性却逐渐增加。
首先,“智能化具有控制思想与控制行动的双重能力”①庞宏亮:《21世纪战争演变与构想:智能化战争》,252页,上海,上海社会科学出版社,2018。。直接控制人思想的武器在以前的战争中未曾出现过,对此种武器是否涉及人道问题也缺少观察的实践案例。思想独立和思想自由,既是人的基本自然属性,也是法律应当保障的基本权利。如果运用智能化武器直接控制或强行改变人的思想,进而强行按己方意愿强迫甚至奴役一个自然人个体、一个民族或者一个国家,这显然构成对思想独立和自由、民族独立、国家主权等与人道主义保护相关的权利的侵害。如果这种智能武器在武装冲突中得以应用,必将在舆论和法理上引发激烈的人道主义争论。
其次,智能技术优势的一方,凭借性能精良的智能武器和可以绕过传统国际人道法约束的优势,就有可能降低武力使用的条件。原本可以通过外交谈判处置的问题,就有可能选择智能化作战行动快速解决。这反而增加了国际关系中处理武力使用的可能,导致战争对于人类的威胁加剧。
再次,如果武装冲突双方的人工智能技术水平差异巨大,处于劣势的一方必将动员更大的人力和资源投入作战,作战中误伤或意外事故导致人员伤亡的可能性亦会随之增加。
最后,智能化战争一旦规模扩大,必将导致敌对双方物质资源的大量快速消耗。这种资源的消耗,无疑会减少本应用于人类生活的资源供应量,也会对环境造成损害。这些情况都会间接引起冲突双方和中立方人员生活环境的恶化,这种恶化的程度不亚于机械化战争给环境造成的损害。
因此,对智能化作战行动造成的间接性损害,国际人道法应当作出积极回应。
与其他法规一样,国际人道法调整和规范的,是人类的行为。但智能无人武器的出现,使大量自主武器行为出现在作战行动中。“在人工智能支持下,作战武器第一次具备不依靠人类,独立进行感知、识别、决策、打击的作战能力。”②庞宏亮:《21世纪战争演变与构想:智能化战争》,83页,上海,上海社会科学出版社,2018。智能无人武器具有自我学习和自主行动的特性。这一特性,使智能无人武器的行动目标和行动方式主要取决于其自主学习情况,而不是人员的直接操纵,武器的研发设计人员也难以控制和预测此类武器的具体行为。这就意味着,通过规范武器研发设计人员的行为并不能必然达到控制智能无人武器行动的目的,而调整自然人行为的法律也无法直接用于调整智能武器的行为。
以上情形是基于三点原因。第一,法律一般是利用自然人趋利避害的本能,通过设定相应的处罚和奖励来引导自然人的行为,以达到法律调整社会关系的目的。但智能无人武器并不当然具备趋利避害的本能,无法运用利害关系理论引导智能无人武器的行为。第二,智能无人武器的研究和运用一直呈现加速发展状态,新的无人技术和作战方式不断出现,法律难以对所有智能无人武器的研发和运用作出准确的立法预测。第三,目前仅有几个国家可以掌握智能无人技术,在制定智能无人武器国际规则时,拥有和不拥有智能无人武器的国家,极有可能产生相互对立的观点,导致共识和协议难以达成。
从技术和法律层面看,必须有足够的技术措施保证智能无人武器能在遵循人道原则的前提下实施作战行动,否则,此类武器的发展将超出人类预设的目标,使作战行动变得不可控制,导致人道主义灾难,甚至威胁人类的生存和发展。国际人道法“马尔顿条款”的用意,“是为了强调战争法的‘人道’原则,来填补国际人道法原则应该有、但国际协定暂时没有具体规定而出现的‘真空’”①朱文奇:《国际人道法概论》,64页,香港,健宏出版社,1997。。对智能无人武器进行必要的国际人道法控制,已基本成为理论界的共识。存在争议的是,运用什么方式才能达到控制目的。
智能无人武器的法律规制已面临全新的实践,法律规制作用的局限和技术规制的重要性愈加显现。单纯依靠法律规制的思路,已经难以适应新的实践。因此,有必要突破现有国际人道法的理念和原则,探索法律方式与技术方式相结合的智能无人武器规制的新方式。
人工智能武器的广泛运用,将对战争伦理、人权和人道主义保护等,产生深远的颠覆性影响。在国际政治文明,特别是人道主义文化全面发展的时代背景下,国际人道法将呈现以下发展趋势。
人工智能的广泛应用,将大幅减少不加区分和过度杀伤等传统违反人道法行为的发生,但是,也会增加相对温和的不人道行为的发生概率。例如,对自然人信息安全和隐私的侵害、对自然人精神的影响和控制、给平民造成的心理压力,以及对自然资源的破坏等。这些行为将成为智能化战争中不人道行为的常态。
另外,温和的不人道行为不一定引发人道主义灾难,但会造成广泛的“人道恐慌”。某些温和的不人道行为明显不属于“军事必需”,但由于并未严重违反传统的国际人道法,往往被大量频繁采用。如果长期持续这种行为,同样可引发人道主义灾难。这也表明,在智能化战争时代,不人道行为也将从传统的突发性直接性表现形态向渐进性表现形态转变。
与此相应,国际人道法对不人道行为的反应阈值也将降低。首先,国际人道法将扩大对自然人健康的保护范围,在关注自然人个体生命、健康和尊严保护的同时,也将对损害自然人精神和心理健康的行为作出必要的法律规制。其次,在关注自然人个体人道保护的同时,国际人道法也将开始重视自然人群体的人道保护,法律将禁止针对某一特定民族而研发使用军用生物技术、控制大脑武器或基因武器等,也将禁止运用智能武器对某一国家或非国家行为体的所有成员进行不加区分的军事侦察或军事威慑等。最后,国际人道法对信息域、心理域和认知域中实施的信息攻击、心理攻击和认知干预等行为的人道违法性,也将作出相应的规定。
“军事需要”原则,即“本该被国际人道法有关规定禁止的行为,但如果因为‘军事必要’的原因,就可构成例外”②朱文奇:《国际人道法概论》,72页,香港,健宏出版社,1997。。国际人道法都是在假定战争或武装冲突不可避免的情况下制定和实施的。这一原则,只是限制具体作战行动中过分的不人道武力行为。但武力使用本身是否必需,则国际人道法并不关注。因为,这属于国际政治问题,《联合国宪章》等对国际关系中武力使用的合法性问题已经作出明确规定。
但是,智能化战争可巧妙地绕开传统国际人道法,甚至通过创新作战样式和作战机理,而规避现有“战争”或“武装冲突”的法律限定。这将使发动智能化战争的法律障碍大大减少,技术先进的国家运用智能化战争实现政治目的的动机将变得强烈。如果再以“军事需要”原则规避具体军事行动中产生的人道主义责任,那么,智能化战争则很可能处于事实上不受法律控制的状态。
运用政治、经济或外交手段解决国际冲突,控制包括智能化战争在内的一切武力行动在国际关系中的使用范围和使用强度,应当是人类文明发展的共识。在智能化战争中,这一共识将催生出国际人道法的“武力必需”原则。所谓“武力必需”原则,就是将武力使用本身是否人道,同样纳入国际人道法的评价范围,并对轻率使用武力的行为,无论具体行动中是否遵守了国际人道法,其武力使用本身都有可能被评价为“不人道使用武力”,而受到法律评判。这一原则,将对军事行动的人道属性评判,由具体的军事行为提升至武力使用本身,并对“军事需要”原则构成必要的限制。即,只有在必需使用武力的情况下,基于具体军事行动展开的需要,才有可能符合“军事需要”原则,而不承担军事行动引发的人道主义损害后果。
智能化战争在减少人员伤亡的同时,并不必然会减少资源的消耗。相反,智能化战争很可能演变成敌对双方资源的消耗战,特别是电磁资源、网络资源、信息资源等新兴资源的对抗和消耗更为明显。
从某种程度上说,技术能力相当的国家之间发生智能化战争,最终的胜负将取决于资源持续提供能力的强弱。但这些资源,也是交战国和中立国平民正常生活的必要基础。因此,运用人工智能技术破坏网络资源、屏蔽或干扰电磁空间、挤占太空资源等所造成的破坏,也有可能引发人道主义灾难。同时,网络、电磁和太空资源等大多没有明确的国家占有特征,而具有全人类共有的属性。针对这些资源实施的军事破坏活动,很难界定为典型意义上的国际或国内武装冲突,导致传统国际人道法的适用会出现法律空白。
因此,人工智能武器在电磁域、信息域和网络空间使用时,如果对特定地区的平民生活或属于全人类的资源造成重大持续的负面影响,国际人道法也应将其纳入禁止性行为之中,以更好地实现智能化战争中的人道主义保护。
战争是军队与军队之间、军人与军人之间的对抗。尽量减少作战行动对平民和民用设施的损害,是国际人道法的重要理念之一。但是,“信息化战争中,军民界限日渐模糊……很多关键性民用设施已是武器系统构成的基本要素,军民双重性高度统一”①王璐颖:《关于军事人道主义问题的几点思考》,载《指挥学报》,2014(12),57~59 页。。这使得在智能化战争的某些领域,对民用设施的军事攻击已成为必要,也必将对平民利益造成重大损害。
同时,在信息域、心理域和认知域的对抗中,平时和战时已经难以区分,适用于武装冲突期间的国际人道法与适用于和平时期的国际人道法似乎都可以适用,也似乎都无法适用。显然,这是智能化战争状态下战时平时难以明确区分所导致的法律适用尴尬。
“不管是国际人权法,还是国际人道法,其根本的作用和目的是通过法律制度给个人予以保护。”②朱文奇:《国际人道法概论》,103页,香港,健宏出版社,1997。适用时期的不同,并不能改变法律对人的保护性质,区别在于所能保护的程度。在智能化战争逐渐模糊战时与平时、军用设施和民用设施、战斗员与平民界限的情况下,在人的健康、生命和重要文化财产保护等方面,推进国际人道法和国际人权法在适用时期和保护程度方面的深度融合,也将是国际人道法发展的趋势之一。