人工智能时代背景下的国家安全治理

2020-11-15 22:43阙天舒张纪腾
社会观察 2020年4期
关键词:人工智能

文/阙天舒 张纪腾

作为新一轮科技革命和产业变革的核心驱动力量,人工智能技术的发展与应用在为社会提供强大发展动力的同时,也对国家安全治理造成了一系列影响。人工智能技术能够基于进化赋能的实践应用,从传统安全、非传统安全以及两者间的重叠领域,为国家安全提供更为有效的维护和保障机制。人工智能技术的应用也存在着超出预期设想的可能性。因此,对于国家安全而言,人工智能的创新性蕴涵了高度的战略价值,但其演进路径的不确定性则带来了相应的风险。而全面评估人工智能技术对国家安全治理带来的机遇与挑战将是解决这一技术安全悖论的关键所在。

人工智能:作为新的历史起点的深刻技术革命

本轮人工智能技术发展热潮建立在图形处理器通用计算高性能运算架构所形成的计算资源与移动互联网兴起所产生的大量数据的基础之上,而在这两者的催化下又形成了基于套嵌式的多层次模式识别的深度学习算法。在“数据、算力与算法”三者的共振下,人工智能就逐渐进化为一种能够进行自我学习、自我推理以及自我适应的技术,并具备以近乎“人类思维”处理复杂问题的能力。

人工智能技术具有通用目的性、自我学习与进化、开源性、系统性和数字性依赖等特性。根据技术解决问题的能力可以将人工智能技术分为针对特定任务而设计和训练的弱人工智能和具备足够的智能解决不熟悉问题以及通用化应用能力的强人工智能。

由于人工智能的广泛应用将对交通、医疗、教育、法律、金融、传媒等诸多社会领域产生巨大影响,因此,多数研究将人工智能视为第四次工业革命的引领性技术,也将这次革命称为“智能革命”。当然,目前的人工智能发展成果主要集中在弱人工智能域内,并且在一些重难点问题上仍旧无法形成实质性的突破。与此同时,尽管人工智能已经形成了一定的先期能力优势,但这一技术发展的范式迁移必然有一个过程,并且人工智能所造成的社会影响既有其内生的不确定性,又有外部延递的模糊性。

人工智能在国家安全治理中的应用范式

根据国家安全的主要关注领域,可以将人工智能在国家安全中的应用范式分为传统安全与非传统安全两个方面。传统安全领域主要关注人工智能在军事力量与战略对抗中的威胁性使用与控制,非传统安全领域则主要关注人工智能在经济、政治和文化等社会领域中的应用与规范。

第一,从传统安全来看,人工智能的军事化应用将推动形成新的军事能力和战略博弈模式。人工智能可以更为完整地还原全部战场信息,并据此全盘推演和模拟分析作战策略的预期结果。同时,人工智能就能够推动传统的指挥模式向智能化指挥与控制机制转变。此外,人工智能还将推动无人化、智能化武器的大规模应用,并催生诸如算法战、意识战等新型战略对抗方式。当然,人工智能技术应用的全质性还使其能够同多种物质力量相结合,进而在态势感知、威胁分析、策略生成以及攻防对抗等方面形成更为有效的作战能力。因此,人工智能不仅能够通过强化物理效能、生物效能或者重塑武器能量来源、作用原理等纯粹的技术层面来影响战争形态,还能从战略决策与作战指挥等主体选择层面来推动战争形态变革。当前人工智能技术的军事化应用多数仍停留在以信息技术和精确打击武器为核心的“初智”阶段,但如果伴随着技术的突破,人工智能也有可能推动战争从“精确化”向“智能化”转变,使其跃升为以整合多项技术为支撑的“高智”阶段。

第二,从非传统安全来看,人工智能技术能够为各类社会风险的应对提供更为有效精准的预测、感知和纠错机制。人工智能技术的嵌入将统合安全防护中的“预测、防御、检测与响应”来构建一种自适应安全架构。在此基础上,人工智能便能够构建相应的模型来捕捉各类风险因子的作用路径及推断其发生的概率,并根据当前的分析结果主动快速地选择应对策略。目前,人工智能技术已在经济安全、医疗保护、环境安全、网络安全、能源安全、打击恐怖主义和跨境犯罪等诸多领域得到较为广泛的应用。

总的来看,人工智能基于进化赋能的实践应用在国家安全治理中存在着一定的技术发展正循环,并且人工智能在传统安全与非传统安全两个领域之间存在着相互支持的作用。因此,人工智能将成为保障国家安全的重要驱动力,而且也将进一步拓展国家安全治理的理念、方式与界域。

人工智能在国家安全治理中的风险识别

人工智能不仅对国家安全及其战略行为模式具有极强的“破壁效应”,同时这一技术的应用也存在着超出预期设想的可能。具体来看,人工智能技术将从国家战略竞争的稳定性、社会治理的有序性以及技术应用的稳定性等方面对国家安全产生一定冲击。

(一)将对现有国际战略竞争平衡产生一定的冲击

从竞争领域来看,人工智能的军事化应用将在各个军事领域内实现全面的扩散,并为非传统的军事行动提供更为有效的技术支撑。同时,拥有人工智能技术优势的一方将在多领域中研发出打击效用更大与预期风险更低的军事设备,技术劣势方则难以用数量叠层或策略战术等手段进行中和或弥补这一力量差距。

从冲突成本来看,人工智能的军事化应用降低了战争的门槛及其负面效应,即人工智能的军事化应用不仅能够实现作战效率的全方位提高,并且还能够以无人化的作战形式来降低可能造成的伤亡,进而将显著地降低损益、周期、规模以及性质等诸多因素在内的预期成本对于战争决断及其进程的限制。

从核威慑体系来看,拥有人工智能技术优势的一方能够对原有不确定的战略意图以及复杂的对抗情况进行全景式的智能化分析,并能够在核威慑的决策上做出更加灵活、准确的战略判断与选择。此外,人工智能所导致的军事竞争领域的扩大还将催生不对等的战略威胁手段,技术弱势方所具备的威慑战略趋于低效。

因此,各国在人工智能发展上的不对称性逐步放大为国家安全偏好上的差异性,即技术强国所具备的“积极幻想”的适应性优势使其更易形成获取霸权的进攻性需求,技术弱国所处的被动位置则使其形成获取维护安全的防御性需求。这样看来,在人工智能军事化应用的影响下,国家安全的客观外延性与主观意向性极有可能发生重叠,进而导致国际体系出现更大的不稳定性与不确定性。

(二)将进一步拉大国际行为主体间的能力代差

人工智能所推动的生产方式变革将对全球性的整合与现代性的扩散产生一定的限制。人工智能所推动社会生产的自动化与智能化将稀释发展中国家在劳动力资源上所具备的比较优势,发展中国家难以通过自身的人口红利来吸引国际产业的转移,进而就面临着外资红利与全球技术知识外溢的红利缩减的风险。

人工智能技术的前期研发与布局上本身就需要投入大量的成本,并且其发展初期还存在着“索洛悖论”的难题,即人工智能所推动的社会生产率的提升与技术进步之间存在迟滞,并且劳动生产率的提升难以同步转化为人们收入的普遍增长和消费成本的普遍下降。因此,人工智能技术创新与应用的高门槛将导致发展中国家面临“技术边缘化”的风险。

技术强国凭借自身在人工智能技术上的优势而成为新的权力中心。这将使得个别技术强国的主观竞争意愿体现为国家之间的技术竞争现实,进而激化国家间的技术竞争。而过度竞争就会导致人工智能的发展出现更为无序的状态,尤其是技术割裂所造成技术生态的封闭与失序极易诱发一系列的新生技术风险。因此,人工智能的过度竞争还将催生新的地缘政治风险与技术风险。

(三)将导致使资本获得“超级权力”

人工智能技术的复杂性以及科技企业的优势将导致后者在相关技术治理准则的制定中拥有相当大的话语权。因此,人工智能在一定程度上将强化资本权力的垄断地位,其中科技巨头企业极有可能成为新型的权力中枢。人工智能还将推动新一轮的“温特尔主义”的形成,即为了保持自身的技术优势,技术强国与市场结构性权力之间形成一种相互利用与共谋的关系。这些巨头垄断地位的强化将对技术创新、产业制造以及社会治理等方面造成极大的挤出效应,并且企业间的商业性竞争上升为国家间的竞争将使得人工智能面临更多的消极竞争因素。

(四)将导致社会治理面临新的挑战

人工智能将导致依靠劳动密集型产业和依赖信息不对称而存在的部分行业遭受极大冲击。这种不平等与不对称扩大了人工智能所造成的社会各产业间、群体间与阶层间在发展能力、资源占有程度与社会影响力等方面的失衡。

数据隐私、数据质量缺陷以及算法平衡价值观念缺失所导致的算法歧视也是当前人工智能发展急需解决的问题。人工智能技术对用户隐私的侵权主要表现为个人数据的不当收集、数据收集方滥用、数据二次使用与扩散。数据本身不完整或者存在某种倾向性,算法就可能把数据中的干扰因素或数据噪音进一步放大或固化,进而导致“自我实现的歧视性反馈循环”。这种因数据或算法而导致的歧视,就可能引发种族歧视、性别歧视等社会偏见得到技术性的强化。

(五)将加剧“技术恐怖”现象的发生

从技术外溢风险来看,人工智能技术的成熟以及相关数字资源的开放不仅会催生新的技术扩散风险,而且人工智能本身的技术漏洞也会增加其被攻击或利用的可能。与此同时,人工智能技术研发的秘密性、分散性与不透明性加大了打击技术犯罪以及调控技术稳定性的难度,并且人工智能技术应用边界的模糊性更是加剧了管控技术扩散的难度。从技术内生风险来看,不确定的技术缺陷与安全防护措施的不完善是导致人工智能技术出现这一风险的主要原因。使用者既无法充分理解算法运行的原理,也无法完全掌控智能系统的决策及其实施进程。情感、道德等主观性因素无法被充分嵌入人工智能的决策机制,基于历史数据的算法模型对潜在的突发性变化并不具备完全的预判能力与应变能力。

综上所述,人工智能技术的发展及应用将对国家安全带来新的挑战。一方面,人工智能技术的介入将加速新型军事能力和战略博弈模式的形成,打破传统的战略对抗模式及其博弈的平衡,进而导致国际体系出现更大的不稳定性与不确定性;另一方面,人工智能技术的应用还将拉大国际行为主体间的能力代差,扩大资本垄断技术与市场的能力,导致社会治理面临诸如算法歧视、数据垄断以及隐私保护等问题,并催生一系列“技术恐怖”现象。

对中国的启示:人工智能时代下国家安全治理路径选择

对于兼具大国与发展中国家双重身份的中国而言,人工智能的发展及其应用所带来的挑战与机遇是尤为突出的。因此,我们既要紧抓人工智能技术发展的契机,推动、容纳和接受这一新兴技术的突破和创新,更要处理好这一技术对国家安全所可能造成的风险。

(一)持续完善人工智能技术发展的战略布局

第一,加强人工智能技术的自主性和掌握发展的主动权,构建自主可控、可持续发展的人工智能技术创新体系和应用产业体系。第二,建立更强有力的公私伙伴关系以推动政策与各类社会资本的共同发力,加强技术与产业紧密结合的相互增益和提升人工智能技术发展的可持续性。第三,克服从研发端到部署端的功能孤岛,将包容性、开放性等原则充分纳入到人工智能技术发展的战略规划中,加快技术成果转移和促进其他前沿技术的共同发展。

(二)构建人工智能技术的风险评估机制与保障体系

第一,加强对数据垄断、算法歧视、隐私保护以及伦理道德等问题的预判,为人工智能技术的发展制定相应的规范框架。第二,建立诸如技术风险评估机制、灾难性风险管理机制和技术错误纠正机制等相关可管理安全机制,从算法容错容侵设计、漏洞检测和修复、安全配置等方面来增强人工智能技术自身的安全性。第三,提高人工智能技术的可检验性来加强技术应用的透明度与信任度,具有高风险的公共领域内则应尽量减少使用具有黑箱特性的人工智能技术。

(三)规范技术设计的价值向度以引导技术发展

第一,要加强技术伦理规范性和建构性的统一,通过恰当的技术设计规范和制约实现正面伦理价值的“预防式置入”,将人工智能伦理从抽象准则落实到相应的技术研发与系统设计中。第二,要努力贯彻“以人为本”的技术发展观,促进科学与人文两种精神的充分融合与互补,以保证人工智能的人性化转向。第三,在人工智能技术的发展与国家安全的维护之间保持平衡,避免陷入因泛技术安全化误区而导致的“技术滞涨”困境。

(四)构建社会治理新型框架以承接技术更新

第一,构建涵盖技术开发、行业监管和公共治理等在内的成体系化的法律和规范,增强技术风险决策和立法的针对性与可操作性。第二,明确设计者、使用者、监管者之间的权责关系,并将技术应用的公共安全纳入现有的监管框架。第三,应搭建起连接“行动者网络”和“利益相关者”讨论与合作的新平台,努力创造一个政府、技术专家、公众等多元一体化的治理决策参与机制。

(五)加强全球合作以提升技术风险管控的效能

第一,推动国际社会在一些根本性、原则性的规则和伦理上达成共识,力促国际认同技术风险的治理框架和协调一致的治理机制的形成。第二,推动全球分散的、相对孤立的治理程序与要素资源的积极整合,构建以主权国家、非政府组织、市民社会和跨国公司为主体的综合治理体系。第三,积极推动开展持续、直接、权威的多边沟通,对于人工智能技术开展合作性与建设性的管理,确保人工智能技术的和平开发和加强对国际性技术风险事故的防范能力。

结语

人工智能在国家安全治理中的应用极易在“界域与有效性”“效能与可靠性”以及“竞争与稳定性”之间出现矛盾。尤其是在因人工智能技术嵌入所导致的力量失衡以及安全格局的转变下,国家安全极有可能在国家竞争的稳定性、社会治理的有序性与技术应用的稳定性三方面遭受巨大的冲击。

对于中国而言,如何统筹人工智能技术发展与国家安全治理,并实现这两者综合成本的明确化、内部化与协调化将是未来工作的重点之一。在这一过程中,最为重要的仍是保持中国在人工智能技术领域的领先性与自主性,并通过多样化方式对这一技术发展的潜在风险进行研判和预防。我们也应积极地同各国在人工智能技术的发展上展开深度对话,力促在人工智能的战略竞争与合作上形成“竞争性共荣”,进而塑造一种能够推进务实合作和建设性竞争、有效管控技术风险与防范重大冲突的国际秩序。

猜你喜欢
人工智能
人工智能6月大事件
我校新增“人工智能”本科专业
人工智能AI
人工智能之父
2019:人工智能
人工智能
人工智能与就业
数读人工智能
人工智能时代,就业何去何从
下一幕,人工智能!