蒋佩章
摘要:随着智能化武器的大量研发和战场投入使用,人工智能已成为推动军事变革的重要动力,与此同时,人工智能武器对传统的军事伦理造成巨大的冲击。这种冲击重点体现在和平与冲突困境、正义与非正义困境、责任主体模糊等几方面。国际社会应基于人类命运共同体的大背景下,共同努力破解人工智能武器发展所引发的伦理困境。
关键词:人工智能武器;伦理;规制性措施
当今世界处在一个人工智能飞速发展的时代。在军事领域,人工智能技术的发展催生了新一轮武器系统和战争形态的变革。美国国防部常务副部长的罗伯特·沃克认为,以智能化军队、自主化装备和无人化战争为标志的军事变革风暴正在来临。然而,与人工智能迅速发展不相适应的是战争法理和伦理观念的严重滞后,集中体现在对文明理念的冲击、对世界和平的威胁、对正义原则的挑战、“人”“机”责任区分困境等方面。在世界形势复杂多变、武装冲突日益加剧的今天,只有破解了这一难题,才能更好地构建人类命运共同体。
一、针对人工智能武器“低成本、高毁伤”所带来的和平与冲突困境,我们应当提高武备控制力度
2015年,史蒂芬·霍金、伊隆·马斯克等上千名学者、科学家曾发表联名公开信中指出:禁止“致命性自主武器”的研发和应用——“这种技术一旦开发成功,将有可能把战争冲突升级至从未有过的规模,而且会达到人类难以控制的速度”。[1]他们所担心的不仅仅是人类是否掌握开火权,而是智能化武器系统被激活后会受到何种程度的限制,是否会做出突破人类底线的行为,这是对人工智能武器系统稳定性和鲁棒性的必要怀疑。
首先是自主系统自身的问题。智能系统越复杂就越脆弱,在战场复杂电磁条件下,拥有高度智能的武器极有可能出现识别错误、通信降级甚至是被敌电磁、网络攻击后“倒戈反击”、滥杀无辜、系统失控等问题。更进一步考虑,由于致命性自主武器系统将人排除在决策之外,“如果算法程序不能百分之百的排除逻辑故障存在,则机器对人类的毁灭性风险就始终存在。”国际社会对该问题的关注主要集中于全面禁止“杀人机器人”,即致命性自主武器的存在。从目前情况来看,这是唯一解也是最佳解。
其次是已掌握相关技术主体的问题。人工智能武器成本低、易掌握,使拥有武力的可能不仅存在于理性国家实体之中,也存在于非理性的国家行为体、组织和个人之中,这无疑造成了全球性武力扩散和管控困难的问题。保罗·沙瑞尔在《无人军队:自主武器与未来战争》中也讲到,“无人机的迅速扩散代表着越来越自主的武器系统的未来走向,无人机已经扩散到全球近百个国家以及‘哈马斯、‘真主党、‘伊斯兰国等非国家组织,包括南非、尼日利亚和伊拉克等非主要军事大国都拥有了武装无人机。”这将进一步滋生社会动乱和恐怖主义。
有学者认为,人工智能与既有平台的结合反而会增加未来战争的伦理系数。由于人工智能的运用使击打更准、伤亡可控,本身就带有“减少附带伤害”的潜在伦理目的,同时也能使武装冲突所导致的伤亡率大大降低,这意味着战争行为其实变得更文明了。但事实上,人工智能武器“低成本、高效率”的优势更主要地体现在政治层面,超高性价比的成功体验使技术优势方在战略层面更倾向于使用武力而非对话的方式来解决争端。此外,由于人工智能武器的高毁伤性和高时效性,使得对战双方时刻保持高度戒备状态,处于这种高度紧张的压力之下,误判形势的几率将会大大增加,战争擦枪走火的可能性急剧增大。这在战术层面上也必然导致了武力应用走向泛滥。
由于国际法规体系对相关组织和个人的约束力度十分有限,且当前针对人工智能武器尚未形成一个完整清晰的规范,因此,我们应当呼吁推动全球范围内的人工智能武器军备控制。首先,应当建立起有效的国际组织,保证有关人工智能武器系统的研发、交易、部署和使用等每个环节都受到国际组织的严格约束和监控,以及对违反条约开发武器的实体问责。其次,人工智能武器作为一种成本低廉的产品,必须要通过采取限制技术流动的方式来限制其扩散,这其实是对武器研发者和使用者提出了更高的伦理要求。
二、针对机器“人”化所导致的责任主体模糊困境,我们应当将人作为“战争回路”的主体存在
由于人工智能的介入,现代战争的主体由传统的军队和军人变成了无人作战指挥平台和军用机器人。军用机器人能思考、判断,也会杀人,可以说它们既是战斗员又是武器,但它们事实上只具有行为能力却并不能承担行为责任。根据相关新闻报道,“截至到目前为止,全球已有 40 多个国家被披露正在设计、研发和试图使用所谓的‘致命性自主武器系统,其中尤以2013年韩国研发并投入使用的‘SGR-1哨兵机器人最为接近‘杀手机器人特征。”可想而知,当这些毫无感情、不知疲倦的杀人机器走上战场,极有可能成为“嗜血怪兽”。
首先,将决定人生死的权力交给机器,这本身就意味着“伦理的缺失”。即使是在人工智能时代,个人也享有不被任意剥夺生命的权利。欧洲议会安全政策发言人Bodil Valero称,“自主武器必须在全球范围内予以禁止,决定生死的权力绝不能被机器从人类手中夺走。”其次,这一问题也涉及到战后责任认定的伦理问题。战后的责任认定是传统的有人作战重要的伦理内容,对那些负有战争责任的国家、组织以及个人进行裁决是组成正义战争的关键。然而,当具有一定自主能力的无人化武器伤及平民或造成其他附加伤害时,应当如何认定责任归属?有人认为,智能武器只是一堆金属和数字代码组成的无生命体,对它进行追责惩罚没有意义,应当由它的发明者、设计者、使用者、决策者等几方面共同负责。但这种责任均摊的做法也会造成一种责任扩散的尴尬局面——谁都要负责任等于谁都不用负责任。此外,战争中智能武器的入场也导致责任分配方面存在着“责任转移”的问题,即军方和政府可能将人为责任转嫁给智能武器以逃避战争罪责。
针对上述问题,首先要正确处理好人与机器的关系,确保人的主体地位,使开火权牢牢掌握在人类手中。“使机器人在选择、识别、攻击目标时绝对由人类控制,而不是由機器自主选择。这一点是《特定常规武器公约》致命性自主武器系统专家会议所有国家和组织的共识。”其次,在智能武器作出决策时,必须有人进行监督和把控,加强指挥官责任落实和问责制度,同时对武器使用全过程实行可复盘式监控,一方面将人为地提高智能武器的决策可靠性,另一方面可以有效解决无人武器责任认定问题。
三、针对无人化武器所引起的基于国际人道法的正义与非正义矛盾,我们应当给予技术弱势方更多的技术支持和道义关怀
战争是做破坏功的,能够使战争造成的破坏得到合理辩护的才是正义战争。国际人道法作为国际通行的战争正义性判别依据之一,强调了两个核心原则:相称性原则和区分性原则。
相称性原则要求在毁伤效果上对合法攻击目标不能造成超过必要限度的损伤。在现代战争中,智能武器的加入使火力操控人员远在后方,与实际战场形成空间分离,对战争残酷性的感知度降低,难免使操控者“置身事外”、麻木不仁,这无疑会弱化人类对战争行为的约束力。另一方面,“机器VS人”的不对称打击,轻易地实现了“无风险、零伤亡、低成本、非接触”,这种过于保险的手段往往会导致滥用,显然与相称性原则相违背。
区别性原则要求作战部队区分清楚战斗员和平民、军用目标和民用目标,确保“非战斗人员豁免权”和“非军事资源的免毁性”。然而智能武器的存在使得真实的战场环境表现为虚拟的电子竞技,从而使依靠经验辨别军民身份出现前所未有的困难。“人权观察组织”(Human Rights Watch)武器部主任史蒂夫·古斯(Steve Goose)认为,自主性武器“无法区分战斗员和平民,无法分辨那些丧失战斗能力的人,无法判断投降的人,无法对每一次攻击进行国际人道法所要求的相称性评估,也无法用如今指挥官的方式判断军事必要性,结果将造成很多平民死亡。”出于问题的复杂性和算法的疏漏,将不可避免地导致许多平民受到无辜攻击。此外,定义的模糊不清也使这一问题变得更为复杂,“计算机程序需要一个非常清晰的非战斗人员的定义,但目前还没有这种定义。”
基于当前从技术上难以保证相称性和区分性原则充分实现的现状,针对技术优势方毫无负担地采取武力打击的可能,技术劣势方应当得到国际社会更具有倾向性的人道主义关怀和技术支持,包括但不限于国际人道主义声援、多方联合仲裁、提供防御性技术装备和提供避难场所等措施,尽量弥补由于技术代差所带来的力量失衡。
四、结语
军事技术由信息化发展到智能化是当前及今后一段时期的必然趋势。归根究底,人才是战争的主体,无论技术发展到何种地步,人类最大的敌人永远是自己。在实用主义至上的今天,伦理价值的失范比技术的盲目进步更令人悚然。
参考文献:
[1] 吴乾泽. 人工智能与未来战争的关系[J]. 国防科技工业, 2019, 277(5): 55-56.
[2] 董青岭. 新战争伦理:规范和约束致命性自主武器系统[J]. 国际观察, 2018,(4): 51-66.
[3] 徐英瑾. 人工智能将使未来战争更具伦理关怀——对马斯克先生的回应[J]. 探索与争鸣, 2017, (10): 66-71.
[4] 梁亚滨. 武装无人机,引发治理和伦理难题[N/OL]. 人民日报, 2014-6-17.
[5] 董青岭. 新战争伦理:规范和约束致命性自主武器系统[J]. 国际观察, 2018,(4): 51-66.
[6] 陈会斌,曾杨智. 军用无人系统的合法性及未来挑战[J]. 军事文摘, 2018, (11): 49-53.
[7] 保罗·沙瑞尔. 无人军队:自主武器与未来战争[M], 朱启超, 王姝, 龙坤译. 世界知识出版社, 2019: 285.
[8] 蘇令银. 当前国外机器人伦理研究综述[J]. 新疆师范大学学报(哲学社会科学版), 2019, (1): 105-122.