龙 坤 徐能武
(国防科技大学文理学院 长沙 410073)
随着人工智能为核心驱动的新一轮技术革命、工业革命和军事革命孕育兴起,各国尤其是技术强国纷纷加大了对军事智能化建设的投入和布局,力图抢占先机,塑造新一轮战略优势。作为以多次“抵消战略”成功维持世界军事霸权的国家,美国对于新一轮技术革命尤为敏感,在人工智能军事化这一领域高度重视。新近具有代表性的言论是美国参联会主席马克·米利的演讲,他于2021年8月2日在美国国家海军联盟(NLUS)举办的“海-空-天”全球海事博览会上宣称,人工智能、无人系统等技术是未来作战必须具备的新兴能力,将从根本上改变未来战争的作战样式。哪一国家掌握了这些技术,就将具备显著的乃至决定性的优势[1]。
人工智能的颠覆性潜力越来越受到美军高层的重视,制定和实施人工智能伦理规范也成为美军推进人工智能军事应用的重要一环。2019年10月,美国国防创新委员会(DIB) 发布《人工智能准则:推动国防部以符合伦理的方式运用人工智能的建议》(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)报告(以下简称《准则》),提出了国防部运用人工智能的五项原则和十二条建议[2]。2020年2月24日,美国防部首席信息官达纳·迪西和国防部联合人工智能中心(Joint Artificial Intelligence Center,JAIC)主任杰克·沙纳汉中将联合对外宣布,美时任防长马克·埃斯珀已正式采纳国防创新委员会推荐的五项人工智能伦理原则,使其成为国防部在人工智能军事应用领域的官方政策[3],引发国际广泛关注。2021年5月26日,美国防部副部长凯瑟琳·希克斯签署备忘录,进一步明确了“负责任地使用人工智能”(RAI)六项原则[4]。但从学术研究成果来看,目前国内外还尚未有学者对美军人工智能军事应用伦理准则这一领域的相关问题进行系统的分析和考察。有鉴于此,本文将以当前美军的人工智能伦理准则主要文件及具体举措为主要研究对象,结合其在应用过程的相关进展,分析美军高调推出人工智能军事伦理准则的出台背景、主要内容和基本特点,揭示其背后的动因,并在此基础上得出对我国和我军的启示。
美国防部出台军事人工智能准则有着重要的时代背景,并经历了一个长期的过程。随着人工智能快速发展和应用,深刻影响军事领域,与此相应的伦理问题也逐步凸显,从而引发美军对于制定人工智能伦理准则必要性的关注,并最终落实到行动中来。
1.1国际大势:制定人工智能伦理准则的全球浪潮方兴未艾人工智能是新一轮工业革命的主要驱动技术,而人工智能伦理与规范则是未来智能社会的发展基石,算法偏见、安全性、可靠性、责任缺位等问题的凸显使得制定人工智能伦理准则的必要性日益彰显。因而,人工智能的伦理问题成为了世界上的热点议题,已引起各国政府和学术界、企业界等的广泛关注。迄今为止,欧盟[5]、英国、日本等国际组织和国家行为体以及人类未来研究所[6]、谷歌[7]等大型跨国企业等非国家行为体,均发布了人工智能的伦理准则(见表1)。美军也意识到了制定人工智能伦理准则对其推动人工智能军事应用的重要意义,因此“引领军事人工智能伦理和安全标准制定”成为了美军人工智能战略的五大支柱之一。在这份人工智能战略报告中,明确指出美国防部将“阐明以合法和合乎道德的方式使用人工智能的愿景和指导原则,以推广我们的价值观。我们将与来自学术界、私营企业和国际社会的领导人进行磋商,以推进军事领域的人工智能伦理和安全。”[8]美国防部出台的这份伦理准则便是这一战略在伦理准则方面的落地,其之所以引起国际社会的广泛关注,主要在于首次正式将人工智能伦理准则延伸到军事领域,为美军推动人工智能军事应用提供了专门的伦理规范。从公开资料来看,目前其他国家在军事领域还没有出台官方的人工智能伦理准则。
表1 全球现有人工智能伦理准则倡议/政策
1.2国内考量:人工智能军事潜力、安全风险与伦理谴责的权衡产物人工智能在军事领域具有重大应用价值。美国防部认为,人工智能在提升军队态势感知能力、赋能武器装备、预测性维护与供应以及简化业务方面具有重大潜力,并专门成立国防部人工智能应用的统筹协调机构,着力推动人工智能在国家安全领域的运用。2018年6月27日,国防部副部长帕特里克·沙纳汉签署备忘录,指示建立联合人工智能中心(JAIC),以推动国家任务倡议,运用人工智能解决美国防部面临的关键问题[9]。2019年2月,这一机构成为了协调美国防部推动人工智能军事应用、贯彻美军人工智能战略的核心机构。据联合人工智能中心负责人美国空军中将约翰·杰克·沙纳汉指出,这一机构的研究重点领域包括情报探知、预测性维护与供应、救灾和人道主义援助以及网络空间等领域[10]。
美国政府和军队高度重视人工智能发展及应用,出台大量政策大力推动人工智能的研发和军事应用。特朗普政府2017年出台的《美国国家安全战略》中提到,美国将优先发展数据科学、先进计算、人工智能等对经济增长和安全至关重要的新兴技术[11]。《2018美国国防战略概要》进一步强调,先进自主系统是美军需要塑造的关键能力之一,国防部将大力投资于自主、人工智能和机器学习的军事应用,以获得军事竞争优势[12]。2019年2月11日,特朗普签署《维护美国在人工智能时代的领导地位》行政命令,强调维持美国在人工智能领域的领导地位对美国经济和国家安全至关重要[13]。2月12日,美国防部发布《2018国防部人工智能战略概要:利用人工智能促进安全与繁荣》报告,标志着美军人工智能战略的正式出台[14]。9月12日,美空军发布《2019空军人工智能战略》,确立了推动美空军推动人工智能嵌入空军力量建设的基本框架[15]。
但如前所述,人工智能军事应用又存在算法偏见、责任缺位等重大安全风险,加之舆论谴责压力,让美军越来越意识到制定人工智能伦理原则的重要性。分析来看,促使美军加快制定军事人工智能伦理准则的直接诱因是美军与科技企业近些年日益凸显的理念冲突。在人工智能快速发展和快速走向军事领域的过程中,关于自主武器日益凸显的国际争议、谷歌终止Maven项目事件等使得美军高层逐渐意识到制定军事人工智能伦理准则的重要性。随着人工智能日益走向军事领域,美国国内对这一趋向存在很多质疑和反对意见,尤其是一些人工智能科技企业不赞成将人工智能技术军事化,用于制造战争武器,对于美国防部存在强烈的不信任感,呼吁加强对于技术的监管。例如,2018年3月,谷歌公司3 100多名员工联名致信谷歌CEO,要求立即终止参与Maven项目,并声明永不开发战争技术。其中的主要理由是担心人工智能技术被用于战争目的,不符合公司“不作恶”的价值观。不久后,超过百名学者和科学家再次联合发声,要求谷歌承诺既不参与也不支持自主武器的研发、制造、交易和使用[16]。2019年2月,数十名微软员工也联名抗议公司与美国陆军签署4.8亿美元的合同[17]。正是在与人工智能私营科技企业关系日趋紧张的背景下,美国防部试图通过制定人工智能伦理准则的方式,向外界保证美军会以符合伦理和负责任的方式推动人工智能的军事应用,从而塑造美军内外对于人工智能军事应用的信任和信心,减少舆论障碍。
1.3美军人工智能伦理准则的制定过程:从酝酿到出炉从时间周期来看,美军人工智能伦理准则从初步酝酿到正式出炉历经了将近两年的时间。2018年7月11日,美国国防部人工智能战略首席设计师布伦丹·麦考德宣布启动联合人工智能中心的同时,指示国防创新委员会围绕人工智能伦理原则指导为国防部递交一份报告,指导未来人工智能系统以符合伦理的方式运用于军事领域。该委员会是美国一个独立的联邦顾问委员会,旨在为美国防部高层提供政策建议,其成员包括来自谷歌、脸书等科技企业的高管和专家,目前的在研项目包括国防部5G生态系统、人工智能军事应用原则等。美国国防创新委员会主席埃里克·施密特要求国防创新委员会科学和技术小组承担这项工作。自此,美军制定军事人工智能准则的进程拉开了帷幕。在这一过程中,国防创新委员会召集了16位人工智能领域的杰出专家,进行了为期15个月的研究。在这一过程中,国防创新委员会科学技术小组委员会收集了大量线上和线下的意见建议,并与学术界、工业界数十位专家进行了三次圆桌讨论会和两次公众听证会,包括人工智能技术专家、军方专家、人权律师、政治理论家、军备控制活动家、科技领域企业家等。此外,国防创新委员会还举行了一次“桌面推演”,以对现实政策情景中的原则进行测试。在此基础上,国防创新委员会科学技术小组专家撰写了这份《准则》报告,并在2019年10月递交美国防部审议。如前所述,2020年2月,美国防部正式签署这一文件,使其成为了美军指导人工智能发展应用的官方政策。在此基础上,2021年5月26日,凯瑟琳·希克斯通过备忘录的形式进一步明确了“负责任地使用人工智能”(RAI)六项原则。自此,美军在人工智能军事伦理准则领域的制度框架和规范基本成型。
美国国防创新委员会在《准则》中针对人工智能军事运用问题提出了五大伦理原则,并提供了十二条具体的建议。其中,五大原则已经被国防部采纳,成为美军在人工智能军事应用领域的指导原则。
2.1五大核心原则《准则》共明确了人工智能军事运用的五大原则,强调运用于作战和非作战领域的人工智能系统应当是负责任的、公正的、可追溯的、可靠的和可管控的,具体如下:
一是“负责任”原则。这一原则要求在美军人工智能系统的开发、部署、使用等整个生命周期中,都应确保人类的适当判断和介入。《准则》指出,只有人本身是法律赋予权利和义务的主体,因此,人而非人工智能系统才是需要承担法律责任的实体所在。具体而言,按照军事人工智能系统事故发生的时间顺序,可以区分三个层次的责任链条:设计、开发和部署人工智能系统的决策责任机制;决策者在与敌方作战期间采取行动的责任机制;以及作战结束后的补救责任机制。这一责任链条的划分将有助于将人类的判断和责任挂钩,避免问责空白这一后果的出现。
二是“公正”原则。这一原则强调美军应采取审慎的行动,避免在开发战斗或非战斗人工智能系统时出现意外偏差和无意中对人造成伤害。美国防部有责任采取措施,确保人工智能军事应用不产生歧视或其它有失公平的不良结果。但同时,报告也强调一些人工智能系统的“偏见”是有必要的,例如对军人和平民、军用物品和民用物品,应该使用更成功地瞄准特定敌方战斗人员的人工智能系统,并尽可能减少对平民、非战斗人员的不利影响,这体现了美军鲜明的实用主义色彩。
三是“可追溯”原则。该原则强调美军人工智能工程学科应足够先进,以便技术专家对美军人工智能系统的技术、开发流程和操作方法有足够的了解,提升其透明度。在人工智能系统的开发和部署的整个生命周期,都要确保可追溯性。具体而言,在开发阶段,应将设计方法、相关设计文档和数据源提供给适当的攸关方。在部署阶段,则要创建适当的用户访问和权限日志。
四是“可靠”原则。这一原则要求美军人工智能系统应具有明确的使用领域,并且此类系统的安全性和鲁棒性应在其整个生命周期内进行测试和保证。可靠性是衡量系统发生故障频率的指标。当前,实现人工智能系统的可靠性面临诸多挑战,包括非线性模型、复杂的自适应系统、自学习系统、对抗性攻击等问题。美国防部在武器系统的“测试和评估”(T&E)以及“验证和确认”(vV&V))方面拥有较为成熟的经验,以确保武器系统性能符合预期。然而,当人工智能系统是不确定的、非线性的、高维的时候,传统的测试和验证技术就存在很多局限性。
五是“可管控”原则。该原则强调美军人工智能系统的设计应符合其预期功能,同时要具有检测、避免意外伤害和及时中断的能力。《准则》特别提及了人工智能系统可能带来非预期事故这一问题,并建议美国防部采取一定措施降低意外升级的风险。参考在股票市场的“熔断机制”,《准则》指出美军可以通过对特定系统授权使用武力的类型或数量进行限制,各种操作的分层授权等方法,来管控人工智能可能带来的相关应用风险。
分析来看,《准则》中明确的这五大原则以“负责任”为统领,强调了人工智能系统中的人类判断是实现责任的关键。接着强调“公正”,直指算法偏见这一问题,同时又融合了国际人道法中的区分原则,强调不应片面追求公正,而忽视军民和敌我区分。第三和第四原则聚焦系统的两大特性——可靠性和可预测性。可靠性是衡量系统发生故障频率的指标,而可预测性则是衡量系统在特定情况下性能(运行过程、产生结果等)的指标。相比可靠性作为所有复杂系统都存在的指标,可预测性则是自主系统特有的要求,这与原则中的“可追溯性”所要求的的透明和可审核是相互联系的。最后强调的“可管控”原则结合了前面的可靠性、可追溯等原则,旨在避免系统出现重大事故,是一个兜底的原则。
2.2十二条技术和政策建议《准则》还提出了落实这五大原则的十二项具体建议,部分建议已经被美国防部采纳,成为未来的行动蓝图。笔者按照技术研究和政策措施两方面将其总结如下:
技术研究方面,该报告提出了以下建议:依托美军负责研究与工程的副部长办公室培育和发展人工智能工程学科,将该部门的安全和责任传统融入人工智能领域,将人工智能技术纳入更大的领域复杂的工程系统;依托发展、测试与评估办公室强化人工智能测试和评估技术研究,改进现有的测试、评估和验证程序,并在必要时为人工智能系统建设新的基础设施。这些程序应遵循国防创新委员会“软件获取与实践”研究中详述的软件驱动的测试与评估指南;制定人工智能系统的可靠性基准;强化对人工智能带来新型安全问题的研究力度;加大对提升可重复性的研究力度;研究管理人工智能风险的具体方法;召开关于人工智能安全性和鲁棒性的年会等。
在政策措施方面,《准则》建议通过官方渠道正式将这些原则政策化(目前美国防部已正式签署);建立一个美军范围内的人工智能指导委员会,负责确保监督和执行美军人工智能战略,并确保美军人工智能项目符合人工智能伦理原则;强化在人工智能领域的人才培训计划,要求各军兵种、作战司令部、国防部长办公室等都应制定与相应的人工智能技能和知识的培训和教育计划,使初级军官、现役军人和平民在职业生涯早期都可以接受人工智能培训;联合人工智能中心对这些伦理准则的具体落实进行监督和审查,确保各部门正确落实这些伦理准则[18]。
2.3关于“负责任地使用人工智能”(RAI)六项原则在前述《准则》所提出的五项基本原则的基础上,美国防部副部长凯瑟琳·希克斯进一步明确“负责任地使用人工智能”(RAI)六项原则如下:
一是负责任的人工智能治理。确保美军各层级有明确的治理结构和流程以进行监督和问责,并阐明RAI的指导方针和政策,加速美国防部内部采用RAI相关激励措施。
二是作战人员信任。对作战人员持续进行人工智能相关知识的教育和测试,建立其对人工智能的信心。通过教育和培训,建立一个测试、评估、验证和确认的框架,整合实时监测、算法信心指标和用户反馈,以确保可信赖的人工智能能力。
三是人工智能产品和采办生命周期。通过系统工程和风险管理方法,开发工具、策略、流程、系统和指南,与整个人工智能产品采办生命周期的RAI保持同步。
四是需求验证。将RAI纳入所有适用的人工智能需求,联合需求监督委员会建立并批准的联合性能要求,以确保将RAI纳入美军适当的人工智能能力。
五是负责任的人工智能生态系统。建立国家和全球层面的强大人工智能生态系统,改善美国国内政府、学术、行业和其他利益攸关方之间的关系,强化与盟友和伙伴国之间的合作,推进基于共同价值观的全球人工智能规范。
六是人工智能人才队伍。重点是要建立、培训、装备和维持一支符合RAI要求的人工智能人才队伍[4]。
相比之前提出的五项原则,这六大原则在“负责任”这一首要原则的基础上,对人员信任、产品周期、生态系统等方面进行了具体和细化,变得更具操作性。
综合分析来看,美国防部出台的这份人工智能军事应用伦理准则呈现出以下特点。
3.1冷战思维与意识形态斗争色彩明显《准则》延续了特朗普上台后强调大国竞争的一贯思路,意识形态斗争色彩与冷战思维十分明显。特朗普政府的2017年《国家安全战略报告》将中国视为战略竞争对手,并指称中俄等竞争对手国正在利用人工智能和机器学习技术进行情报搜集和数据分析,这将会增大美国的国家安全风险,美国必须要在人工智能等新兴技术上保持领导地位[19]。此次美国国防创新委员会出台的这份报告也彰显了浓厚的意识形态对立色彩,将人工智能技术高度政治化。《准则》称当前关于军事人工智能领域的国际规范制定还是一块“处女地”,因此近期在这一领域的举措就会影响到这些国际规范是反映专制还是民主的理念,关乎专制主义与民主规范之间的竞争,将其拔高到意识形态斗争的高度。此外,《准则》还将中国与俄罗斯等国家推进人工智能研发应用的做法进行无端放大,大力渲染其带来的安全威胁,歪曲其防卫意图,并抹黑其为所谓“数据集权主义/专制主义”,以此为美国加快推动人工智能军事应用提供合理性。但事实上,不管是在人工智能军事应用相关的作战概念(如算法战、马赛克战),还是组织建设(如算法战跨职能小组、联合人工智能中心的建立)和实际应用(如运用智能无人机猎杀苏莱曼尼),美国试图通过人工智能谋求绝对安全的这些霸权思维和现实行动更大程度上诱发了当前世界上的人工智能军备竞赛。因此,这也体现了美国鲜明的“美国例外论”和“双重标准”色彩。
3.2注重与美国现有理念和法律政策的协调作为世界上首份军事领域的人工智能伦理准则报告,《准则》提出的五项原则十分注重与美国现有法律制度的协调。《准则》强调所提出的五项人工智能伦理原则是在美国防部现有伦理框架下制定的,与美军心价值观、政策指令和民主理念相一致的。报告梳理了美国防部现有伦理框架,包括美国宪法(U.S. Constitution)《美国法典》第十条、战争法( the Law of War)以及现有国际公约和国防部理念等。具体而言,美国国防部的核心价值观包括领导力、专业精神、职责、诚信、道德、荣誉、勇气和忠诚等。美国的民主理念包括个人尊严、个人权利(隐私权等)和法治(国际法相关条约)等。国防创新委员会专家将这些理念融入到了人工智能伦理准则中去,使之具体化。例如,“负责任”原则中强调了人对于武器系统进行必要控制的重要性,这一理念在美国防部2012年出台的《3000.09指令》中已经得到体现,该文件强调“自主和半自主武器系统的设计应允许指挥官和操作员对其进行适当的人为判断”,以及“授权使用、指挥使用或操作自主和半自主武器系统的人必须严格地服从,并执行战争法、适用的条约、武器系统安全规则和适用的交战规则(ROE)”[20]。但需要指出的是,《准则》只注重吸收国内和少数盟友及伙伴国的观点,强调所谓的“民主价值观同盟”,却几乎无视了与世界上其他国家的合作,具有明显的“小圈子文化”和排他性特征。
3.3重视可操作性和实用性美国防部出台的这份人工智能伦理原则十分注重可操作性。与国际上一般的人工智能伦理准则不同的是,这份《准则》不是对于人工智能“应然”伦理的空洞描述,而是提出了与五大伦理准则相适应的具体落实方案。例如,“负责任”原则强调人对武器系统的判断和负责。人-机关系问题是对于如何运用自主武器系统的关键所在,而美国防部明确人应当对人工智能系统的整个生命周期行使适当的人类判断和负有责任,一方面是为了确保自主武器系统不脱离人的控制,避免系统故障等造成的误杀误伤事故。另一方面,这一原则也有利于使得自主武器的使用遵守国际人道法,避免问责空白这一困境的出现。因为,现有的国际人道法是针对人而非机器设立的,只要人对武器系统的整个周期保留适当的判断、介入和控制,一旦发生事故就可以将问责链条对应到具体的人,避免机器的滥杀滥伤行为无法问责。基于这些理解,这份报告明确了人在整个人工智能系统研发、部署和使用等整个生命周期的责任。此外,美军在五项原则基础上提出的RAI六项原则,使之更加具体化,也充分体现了可操作性这一特点。
同时,《准则》也体现了鲜明的实用主义色彩。当前,人工智能的应用出现了很多算法偏见方面的问题,例如谷歌公司的人脸识别算法存在曾将黑人识别成“黑猩猩”的种族歧视问题,对当事人和整个黑人群体都带来了伤害[21]。因此,国际人工智能技术社群十分强调算法公正这一问题。但美国防部这份准则在论述“公平”原则时,报告使用的是“equitable”而非“fair”一词,并强调美国防部认为战斗不可能也不应该是绝对公平的,因为美军的核心目标是保持对任何潜在对手的不对称优势,强化军事实战和威慑能力,以有利于己方的方式遏止冲突或在威慑失败时快速打赢战争。从美军的三次“抵消战略”可以看出,美国一直以来的理念都是通过新兴尖端科技塑造高于对手的不对称战略优势。如果一味强调对对手的公平,就会犯理想主义的错误。不难理解,美国防部是更想强调人工智能系统对于美军内部人员的公平,而非针对对手的公平,具备显著的实用主义乃至单边霸权色彩。此外,这一报告十分注重提升人工智能系统的可靠性和安全性,提出要加大对研究人工智能带来的新型安全问题的投资力度,对人工智能时代的战略竞争和新型威慑领域进行重点研究,特别是人工智能与网络安全、量子计算、信息战或生物技术等其他领域结合所带来相关问题的研究。同时,《准则》还建议要研究应对人工智能军事应用风险的具体方法。
应当看到,美军率先推出人工智能军事应用伦理准则既是迫于各方压力的无奈之举,同时背后也隐含着霸权逻辑。对此,应理性分析其带来的客观影响和局限,并得出一些对我军事智能化建设的有益启示。
4.1根本目的是为运用人工智能护持美军霸权、化解安全风险和舆论障碍从历史上看,美国的国家安全战略观倾向于通过树立假想敌来带动军事力量建设和国家团结,并以试图以自身的技术优势和军事霸权来确保自身的绝对安全,在人工智能这一新兴战略领域也体现了这样的逻辑。美国防部认为,鉴于其他大国(尤其是中俄)在军事人工智能领域的加快布局,美国推动人工智能的军事应用刻不容缓,而伦理准则的制定是为安全、符合伦理和负责任使用人工智能的关键所在,因此也应当成为优先事项。如果不尽快制定军事伦理准则,美国将面临两方面的重大风险。一是人工智能系统在军事应用时可能会出现问题、危害国家安全的风险,具体包括内部的可靠性问题和外部的易受攻击问题[22]。二是遭受外界批评制造战争机器、毫无伦理道德约束的舆论谴责,国际声誉和软实力受损。这一点已经在上文所述的谷歌员工抗议Maven项目事件中得到了充分体现。有鉴于此,美军高度重视防范这些风险,例如在数据安全方面,就采取了很多举措。2021年6月23日,凯瑟琳·希克斯在国防部人工智能技术交流研讨会开幕式上表示,美国防部已启动“人工智能与数据加速”(ADA)计划,力图快速推进“联合全域指挥控制”等相关概念深入发展,强调“必须确保所有数据都是可见的、可访问的、可理解的、可连接的、可信赖的、可互操作的和安全的”,必须“将数据视为战略资源”[23]。总而言之,人工智能军事应用的安全风险以及国内外舆论道德压力,都给美国制定人工智能军事应用的伦理准则提出了需求和动力。正是看到了伦理准则对于以可靠和保证问责清晰的方式推进人工智能的军事应用的重大意义,美军才如此迅速地推出了军事人工智能的伦理准则。因为唯有如此,美军才有可能推进“第三次抵消战略”的顺利进行,维持美军的科技优势与军事霸权,这也是美军抢先推出人工智能伦理准则最本质的目的。
4.2理性看待美国推出军事人工智能伦理准则的影响与局限正如美时任防长埃斯帕在美军人工智能伦理准则发布会上所提到的那样,“美国必须与我们的盟友和伙伴一道,加速采用人工智能,并在国家安全应用方面发挥领导作用,以维持我们的战略地位,在未来的战场上占据优势,维护以规则为基础的国际秩序。”[3]客观分析来看,美军高调推出人工智能伦理准则,既有规范自身军事人工智能发展应用之目的,也有为在世界范围内抢占先机和制高点积极准备之用意,最终希望在规范自身军事人工智能发展的同时,在该领域塑造大幅领先于对手的绝对优势地位,为赢得未来战争提早进行战略准备。换言之,美军试图以一种符合自身伦理道德和美国价值理念的方式,为人工智能军事化扫清舆论障碍、引领国际军事人工智能规范制定、维护美国的作战优势和军事霸权。未来,美军能否将这些伦理原则落实还有待时间检验,能否通过这一准则完全弥合科技企业和国防部的理念分歧也存疑。同时,人工智能伦理与人工智能军事应用存在一些固有矛盾有待解决,例如完全自主的致命性自主武器系统究竟能否研发和部署?各国在人工智能领域的军备竞赛是否会对全球战略稳定带来严重冲击?人工智能运用于核指挥系统是否符合战争伦理和引发意外核升级风险?这些问题目前在国际上存在较大争议,也是这份伦理准则没有涉及的。但在人工智能快速发展和应用的背景下,美国防部率先推出军事领域的专门人工智能伦理准则,在国际上产生重大影响,这一动向仍然值得我们高度关注。
4.3重视我国军事智能化发展过程中的安全管控和伦理规范制定中国作为人工智能发展大国,正加快推进“军事智能化发展”和“机械化信息化智能化融合发展”[24],这体现我国已经将基于人工智能的军事智能化建设视为建设世界一流军队的关键支撑和基本向度,而军事人工智能伦理规范制定则是为我国推进军事智能化建设保驾护航的必要途径。目前,在国家整体层面的人工智能伦理准则制定方面,我国已经开始重视并初步采取了一些举措。国务院于2017年出台的《新一代人工智能发展规划》强调,要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”[25]。2019年3月25日,北京智源人工智能研究院联合一些高校、科研院所和产业联盟,共同发布《人工智能北京共识》,对人工智能的研发、使用和治理三方面提出了各个参与方应该遵循的15条原则[26]。2019年6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的基本框架和行动指南[27]。2019年7月,我国正式组建中国国家科技伦理委员会。此外,我国还派出代表团多次参与联合国《特定常规武器公约》框架下关于致命性自主武器系统(LAWS)的探讨,就人工智能技术定义、伦理法律风险提出了见解[28]。2021年9月25日,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求和人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求,旨在为从事人工智能相关活动的主体提供伦理指引[29]。军队方面,我国军内智库专家曾于2017年在新加坡香格里拉对话大会演讲中呼吁国家研发部署人工智能武器必须兼顾伦理道德约束[30]。然而,客观上而言,我军目前还没有制定官方的军事人工智能伦理原则文件,这不利于我们顺利推进人工智能军事应用和提升制定军事人工智能规范中的国际话语权。一旦美国联合盟友和伙伴国等所谓“民主价值观同盟”将这些原则向全世界推广,以占领“道德高地”的方式批判他国军队在人工智能军事应用方面“没有任何道德约束和禁忌”,我国可能面临很大被动和国际舆论压力。有鉴于此,应尽快结合我国实际情况和国家利益,联合俄罗斯等国家,组织专家制定符合我国及广大发展中国家发展利益的军事人工智能伦理规范。
在人工智能迅速发展和走向军事应用的背景下,美国防部在美国法律和长期价值观的现有伦理框架基础上,率先制定并推出了军事领域的人工智能伦理准则,提出了军用人工智能系统应当是“负责的、公平的、可追溯的、可靠的和可治理的”五项原则,并配套系列举措大力推动这些原则的落地。一方面,我们要高度重视美军在这一领域的动向,看清美军率先推出军事领域的人工智能伦理准则,既有规范美国军事人工智能发展与应用之目的,也是为了破除阻碍美军运用人工智能的舆论障碍,管控人工智能军事应用可能带来的内外部风险,同时为抢占军事人工智能伦理准则制定的国际主导权,维持美军科技优势和军事霸权、赢得未来战争提早进行战略准备。另一方面,也要反思我国在这一领域的不足,借鉴其通过制定伦理准则来为推动军队智能化建设管控安全风险、减轻舆论压力的做法,加快推进适合我国国情、符合我军军情的军事人工智能伦理准则制定,为推动和加快我国军事机械化信息化智能化融合发展提供坚实支撑和有效保障。同时,还要积极参与人工智能领域的国际安全治理,探索构建相应的国际规则和规范,为化解人工智能带来的伦理、法律和安全风险,构建人工智能时代的人类命运共同体贡献中国智慧和中国方案。