人工智能军事应用面临的全球伦理困境

2023-02-03 04:43
军事文摘 2023年1期
关键词:恐怖组织恐怖分子军事

尹 恒

实践证明,科学技术的革新在改变人类生产生活方式的同时,也对人类生存发展的总体境况产生持久而深远的影响。人工智能与军事活动的深度结合,不仅不可避免地引起军事作战方式的颠覆性变革,也可能在无形中打破全球政治、军事、经济、生态等领域的微妙平衡,进而引发一系列全球伦理问题。

全球战略稳定面临的新风险

冷战结束后,全球政治格局由两极逐步向多极转变,和平与发展成为时代主题,世界安全局势总体稳定。与此同时,美国凭借其惟一超级大国的地位和强大的军事实力,推行单边主义的对外战略,施行霸权主义,推动北约东扩,对全球政治格局多极化进程和全球战略平衡造成了巨大威胁。放眼未来,人工智能在军事领域的广泛应用,将使得全球战略稳定面临更大的不确定性。人类是借此迎来一个真正和平的世界还是不得不重新面对一个支离破碎的世界,人工智能军事应用将发挥举足轻重的作用。

世界格局由“两极争霸”转变为“一超多强”

人工智能军事应用对全球战略稳定的潜在影响,可归结为以下几个方面。一是引发全球军备竞赛。正如恩格斯所说:“暴力的胜利是以武器的生产为基础的,而武器的生产又是以整个生产为基础,因而是以‘经济力量’,以‘经济情况’,以暴力所拥有的物质资料为基础的。”现代战争中,由社会经济科技发展水平决定的武器装备整体性能往往对一个国家的军事实力有着重要影响。人工智能在军事领域的应用不仅能极大提高武器装备整体性能,还可以通过改变军队组织结构和作战模式,使战斗力实现质的跃升。也正是基于这一认识,世界各国纷纷把人工智能运用于国防军事重点领域。2018年1月,美国防战略报告中明确指出以人工智能为代表的新技术能够确保美国赢得未来战争,表示要将人工智能应用于军事领域的先进自动化系统建设,以确保美国始终保有对竞争对手的军事优势。之后,美国防部在人工智能上的资金投入呈逐年上升趋势,从某种意义上讲可以说已经拉开了人工智能领域军备竞赛的序幕。美苏冷战时期,军备竞赛主要在两个超级大国之间进行,而人工智能时代的军备竞赛,则可能在更大范围、更深程度和更多领域上进行。可以想见的是,如果这一可能性成为现实,必将使得国家之间面临更深的安全困境和信任危机,无论是对经济全球化进程,还是对全球和平事业都将造成不可估量的负面影响,而这与人们发展人工智能的初衷恰恰是背道而驰的。

二是影响国际权力格局。20世纪末期,随着东欧剧变、苏联解体,美苏对立的两极格局逐步为“一超多强”的局面所取代,世界政治格局朝着多极化方向发展,各国之间维持着微妙而脆弱的平衡。随着人工智能在军事领域的应用,这一局面面临被打破的风险。作为人类科技史上最有效的力量放大器,人工智能与军事活动的深度结合,将释放巨大的军事潜力,从而为拥有人工智能的国家赢得前所未有的力量优势。美国作为当今世界的头号军事强国,在全球各个角落以武力推行“美式民主”,充当世界警察的角色。一旦美国在人工智能军事应用领域取得绝对优势,势必进一步巩固其自身的全球霸主地位,以维护国家利益为由不断强化其话语主导权和资源控制权。短期看,此举必然会加剧国际紧张局势,进而压缩被美国列为竞争对手和“拉入黑名单”的国家的生存空间;长远看,单边主义和霸权主义必将扩大国家之间的隔阂和分歧,使世界重新退回到各自为政的孤岛,使综合国力相对落后的国家丧失发展权利和安全保障。行为体之间的军事力量差距将因为人工智能技术水平而再次扩大,国家的军事战略目标也将随之调整,传统的国际安全体系将变得不再稳定。

当恐怖分子将人质作为“人肉盾牌”,人工智能在攻击时可能发生误伤

三是降低战争发动门槛。随着人类社会的进步,在生命健康权得到前所未有重视的今天,来自各个国家内部的反战声音日益成为遏制国家贸然采取军事行动的关键因素。人工智能替代人类士兵上战场,将极大消解国内民众对于战争的恐惧和担忧,从而使得发动战争的舆论阻力和道德压力大大减小,为某些强权国家实施军事扩张移除阻碍。而这样的情况一旦出现,必将使原本就脆弱的国际和平环境雪上加霜,使世界朝着一个充满冲突、暴力和不平等的轨道滑去。

四是加剧核战争风险。人工智能与核武器的结合相比于常规武器而言,对国际战略稳定的威胁更为直接。在战术应用层面,人工智能领先的国家会更加喜欢使用或者威胁使用战略核武器获得整体优势,而在相应战争中失败的前景则会刺激某些国家利用战术核武器谋求局部主动。在战略稳定层面,它会强化国家之间的核军备竞赛,核危机管控也会面临更大风险。而无论何种情况,都无疑会使核危机出现的可能性大大提升。此外,人工智能应用于与核武器相关的指挥控制系统,还会为黑客和恐怖分子利用系统漏洞破解发射程序代码提供可能,而这样的后果,是无法估量和难以承受的。

当然,人工智能作为科学技术,具有两面性。以上着重分析了“危”的一面,“机”的一面同样不容忽视。如果管控得当,人工智能军事应用也可成为强化全球和地区战略稳定的“控制阀”,甚至为人类实现长久和平和持久繁荣创造可能。但就当下而言,最现实的还是立足最坏打算,从遏制人工智能军事应用的潜在风险着手,思考维护全球战略稳定良好局面的对策,而实现这一点,需要各国在达成基本共识的前提下共同努力。正如习主席谈多边主义要义时所指出的:“国际上的事由大家共同商量着办,世界前途命运由各国共同掌握。”

国际反恐斗争面临的新挑战

进入21世纪,以9·11事件为标志,随着恐怖主义上升为威胁世界和平和全人类共同安全的主要因素,反恐已成为现代军事活动中不可忽视的重要组成部分。由于恐怖主义攻击目标的不加区分和攻击范围的不受限制,国际社会对于反恐活动总体上采取支持和肯定的态度。人工智能刚刚兴起之时,反恐就被认为是人工智能最有前景的应用领域之一,也正因此,一部分专家学者看好人工智能在军事领域的发展前景。

支持者普遍认为,人工智能军事应用将大大提高反恐活动的效率和人道性,有效降低经济损失和人员伤亡。例如,通过人工智能的大数据分析和图像识别,可对恐怖分子的身份、位置等信息进行精确锁定,避免因人为判断错误导致的误伤。而微型杀手机器人的使用,可对恐怖分子实施一对一精准打击,大大降低因采用大规模杀伤性武器而导致的附带损伤。通过充分发挥人工智能在反恐情报收集和精准打击上的潜能,可形成一张覆盖全世界任何角落的天罗地网,使恐怖主义无处遁形。

人工智能的军事竞赛可能打破国际战略平衡

从宏观来看,以上观点不无道理,但联系具体情境,不难发现人工智能在为反恐事业带来正面效应的同时,也暗含着潜在风险。首先,理想状况下,人工智能武器系统可对恐怖分子进行一对一搜索、锁定、打击,从而最大限度减少人类士兵伤亡,解除人道因素对于行动的限制。但任何联系都不是单方面的,作用和反作用总是相辅相成、不可分离。恐怖组织针对人工智能武器的运行模式和基本特性也必将制定应对策略,在一定程度上抵消人工智能带来的技术优势。譬如,恐怖分子可使自己混迹在平民之中,或挟持人质作为“人肉盾牌”,从而使人工智能武器的攻击不可避免地造成平民伤亡,一定程度上削弱了反恐的法律和道德基础。其次,人工智能武器也有可能被恐怖组织所缴获,并被用于从事恐怖活动。恐怖分子可以通过拆装武器、下载软件等方式掌握人工智能前沿技术,进而策划并实施新型恐怖袭击。虽然部分学者指出,基于人工智能的“黑盒”特性,恐怖分子通过缴获人工智能武器破解核心技术的可能性不大,且可以通过内置自毁装置确保安全,但由于战场环境的高度复杂性,以上假设并不能完全确保安全。最后,恐怖组织自主研发人工智能武器的风险也现实存在。虽然,与主权国家相比,恐怖组织在人工智能武器的研发上,无论是资金、技术还是人力,都有着难以逾越的差距。因此,主要采用“模仿”而非“创新”的手段,在一种较低的水平上使用这种最新的科学技术。但近些年来,恐怖组织也加大了在相关技术科研上的投入。2017年,“伊斯兰国”极端组织招募大量工程师和科学家,研发“圣战无人航空器”,发展和使用无人机技术。虽然现在恐怖组织的科研重心主要放在无人机领域,但难保其未来不会投入相等甚至更大的精力用于人工智能军事应用的开发上。此外,由于恐怖活动追求杀伤效果的最大化而不受伦理法律方面的约束,智能武器可有助于恐怖势力达成这一目的,同时最大限度保存恐怖组织精干力量。恐怖组织可使用成本低廉的武装无人机组成“蜂群”实施无差别攻击,而国家政府却很难追踪到恐怖分子的实时信息,这使得恐怖活动有了更广阔的生存空间和更强的破坏力。

概言之,人工智能军事应用对于反恐事业是促进还是阻碍,在反恐活动中能发挥多大的效用,不取决于技术本身而取决于使用它的人。真正消除恐怖主义,不能单单靠技术和武力,而是要深入本质,探究恐怖主义产生的根源和背景。当今世界,个别强权国家以反恐为名,从自身利益和价值观出发,对恐怖主义者进行带有实用主义色彩的界定,本身就隐含着“恐怖主义”的内在逻辑。这种大国对“恐怖主义”界定的话语霸权恰恰表明了强权即公理的狂妄逻辑。因此,无论是人工智能军事应用的发展,还是人工智能在反恐活动中的应用,都不能关起门来搞“一言堂”,而是要在国际社会的共同见证下来探讨、摸索和规制,也只有这样,人工智能才能真正推动世界反恐事业向着一个更光明的未来迈进。

人工智能对反恐事业的影响还有待观察

全球生态安全面临的新威胁

随着人类战争形态的演变,战争对于人类生存环境的破坏呈现越来越不受控制的趋势。特别是生化武器、核武器的出现,使得本就脆弱的生态环境面临着前所未有的威胁。马克思深刻指出,“自然界,就它自身不是人的身体而言,是人的无机的身体”。因此,某种意义上讲,对自然生态的肆意破坏和践踏,实际上正是人类不自觉施行的一种集体自残行为。

人工智能在战场上的使用,有望改善这一局面。对目标实施一对一精准打击,可在不使用大规模杀伤性武器的前提下完成任务,大大降低对于生态环境的附带损伤;全部或部分代替人类执行作战任务,可大大减少在战争进程中产生的资源消耗,有效减轻对生态环境所造成的负担;取代传统大型机械化装备成为战场主力,可大大降低碳排放量,缓解对于大气带来的污染。但与此同时,一些新的生态风险也应运而生,如何在利用人工智能使人类军事活动变得更加绿色的同时,有效规避其可能带来的生态问题,是人工智能军事应用伦理研究的前沿课题。

人工智能将不可避免地改变未来战争形态

首先,大量小型机器人、无人机“蜂群”、深海无人潜航器的使用,可能会产生大量的战场垃圾。相比于坦克、传统机械化装备,这类装备具有体积小、成本低、活动范围广的特点,一旦在战场上大面积使用,将产生数量可观的废弃物,对生态环境造成二次破坏。同时,出于防止相关技术被敌方或恐怖组织窃取,未来在人工智能军事应用设备的内部可能会嵌入自毁装置,这也使得生态安全面临的威胁大大增加。再者,人工智能的使用将大大扩展人类军事活动的边界,使得一些过去难以涉及的疆域面临生态污染的风险。人类战争在一定程度上是为了争夺资源,随着资源开发力度的增加,太空、北极、深海等新型疆域将成为未来世界各国军事竞争的必争之地。人工智能由于不受人类生理、心理极限的限制,可在复杂环境下全天候遂行任务,理论上,可到达全球的任何一个角落,这也就为拥有人工智能先进技术的国家抢先占领新型疆域创造了条件,而随着围绕太空、北极、深海的资源争夺战日趋激烈,势必对地球生态平衡造成全新的威胁。另外,人工智能军事应用还存在和核武器、生化武器结合的危险,虽然《特定常规武器公约》对这两类武器的研发和使用均有明确的限制,并为绝大多数国家所认可,但难保人工智能的出现不会重新唤醒这两头“沉睡的巨兽”,并对人类生存环境带来毁灭性的破坏。

正如习主席指出的,“人因自然而生,人与自然是一种共生关系。”人类生活在生态系统中,不仅是生物链顶端的主体,而且是整个生态系统中的道德主体,人类的行为活动每时每刻都会对生态系统产生一定的影响,这就要求人类要用生态伦理的整体性看待问题。虽然战争对生态的负面影响不能避免,但最大限度地减小这一影响却是可以做到的,无论如何,人类也不可能脱离自然界而独立存在,军事服从政治,而政治也是以人类的生存为前提的。人工智能军事应用的出现既为实现这一可能带来机遇,同时也伴随着风险,能否化危为机,取决于人类以什么样的方式使用它。

猜你喜欢
恐怖组织恐怖分子军事
以牙还牙
如何探测到城市里的恐怖分子
谁杀了那个恐怖分子?
这是一个什么样的恐怖组织?
AK—47为何成为恐怖分子的杀人利器
《纽约时报》有关“本土恐怖分子”报道分析
军事幽默:局
军事
军事幽默
世界军事掠影