以大模型为代表的生成式人工智能技术不断发展,展现出前所未有的战争应用潜力。智能化时代,以大数据、巨模型和超算力为标志的新型作战能力建设,成为大国博弈和军事竞争的重要疆域,引发军备控制领域技术发展前瞻应对的新课题和新思考。
大模型是指具有大量参数和复杂结构的机器学习模型,能够处理海量数据,完成自然语言处理、计算机视觉、语音识别等各种复杂任务。大模型具有的强大泛化能力,能够从原始训练数据中自动学习并发现新的、更高层次的特征和模式,这种“涌现”能力对于快速突破专业准入门槛、实现知识增值具有划时代意义,也给突破大规模杀伤武器反扩散约束体制带来较大风险。
算力优势曾在核导技术研发中发挥重要作用。第二次世界大战中,美国发现计算炮弹和导弹弹道太复杂,为此专门组建了一支计算机制造团队,研制出世界上第一款电子计算机ENIAC。以计算机为代表的新的计算方式的出现,极大加快了核武器研发和试验进程,美国氢弹的模拟计算耗时从40小时缩短到了20秒,后来苏联、英国和中国在核武器研制速度也因算力突破而明显加快。
在电视剧《功勋》中可以看到,无论是研制氢弹的于敏、还是研制核潜艇的黄旭华,都有在大型计算机房里没日没夜排队计算数据的场景。当时大型计算机运算速度每秒一万次,而现在一部老款小米11手机上的骁龙888处理器,运算速度就可以达到每秒26万亿次。算力的指数级增长带来了武器系统的代际跃升,也深刻地影响了军控领域的技术发展和理念更新。
今年2月,美国智库詹姆斯·马丁不扩散研究中心发布报告,探讨了大型语言模型助推化学、生物、放射性和核(CBRN)扩散进程的风险,指出大模型可以在研制过程头脑风暴、技术支持、生产仿真脚本和代码编写、协助部件设计和高效联创制造服务等五方面为核生化武器扩散提供潜在帮助。而这种技术反向赋能作用一旦扩散并应用于致命性武器仿制研制,必将加速高端战争环境下的军备竞赛,改变国际战略力量对比,影响全球战略稳定,增加武装冲突的风险。
人工智能技术快速迭代更新,不断拓展延伸生产力发展的各个领域,构建起具有超级算力、巨量数据、大型模型和泛在网络支撑的新型战略竞争能力,新的力量控制体系必将深刻冲击传统国家安全和发展利益。如深度造假生成技术发展迅速,以假乱真的文字、图像、声音等可以“一键生成”,已在乌克兰危机认知对抗中崭露头角,成为大国竞争的战略性工具,给全球网络和安全治理带来新难题。美国欧亚集团在其2023年全球风险评估报告中,将“生成式人工智能”称为“大规模扰乱性武器”。
掌握大模型研发能力的强国,可以依托其垄断资源优势和技术支配地位,构建发展壁垒形成非对称“卡脖子”优势。生成式人工智能核心技术和相关产业已被视为相关国家战略竞争重要资产,美国商务部今年5月就启动新的监管措施,限制中国、俄罗斯、朝鲜、伊朗等国使用美国企业开发的人工智能软件,旨在与此前针对芯片的出口管制措施形成互补,实施对先进大模型闭源限制,为人工智能模型技术扩散应用设置防护栏。
技术发展与应用都有双刃效应,AI算法虽异军突起,但也存在内部机制不可控、数据投毒风险大等短板,仍离不开“人工+智能”的运行模式。核大国为保证核反击速度,通常建立了基于预警的发射联动体制,连接整合所有作战领域的传感器和通信系统,将核常系统融为一体,大大提升战略指挥控制系统的自主性。如果将人工智能引入战略指挥预警控制系统,会给战略安全与稳定带来新隐患,给传统战略安全稳定和常规军控态势带来新的不确定因素。
应对数据安全风险挑战也已成为各国共识。对于涉及国家安全重要事件、涉及军事敏感信息以及关键核心产业、科研高校学情、语言文化心理和公共卫生环境等方面的数据具备重要标签价值,是大模型武器化部署应用必备的学习训练样本,应纳入国家信息安全范畴加强防护。中国2023年发起《全球数据安全倡议》,呼吁各国采取措施防范制止利用信息技术破坏或窃取他国关键基础设施重要数据、侵害个人信息,反对滥用信息技术从事针对他国进行数据窃取,为维护全球数据安全所作出的庄严承诺。
人工智能不同于核武器,各国应在这一领域加强合作,避免其无限制发展引发灾难性后果。