■ 赵瑞琦
在人工智能赋能的网络安全领域,已经出现了军备竞赛、人工智能攻击手段扩散和技术失控的苗头与风险,并进而成为新兴的复杂、严峻的非传统安全问题之一。人工智能能否顺利应用于网络安全领域或者是否会利大于弊,很大程度上取决于人类是否有足够的能力来建构适切的治理规范并确立适切的伦理规范,以驾驭这种技术。
本文综合考虑技术可能与战略、政策和伦理的需要,基于人类应该对自主系统拥有权力这一人工智能发展中不可偏离的原则,尝试从理论知识和实践知识出发,思考在建立普遍遵守的人工智能国际规范的过程中需要在本阶段回应与解决的现实问题的思路,包括:评估错误或失控的风险,探讨构建共同准则的可能,解析人工智能发展的伦理理念等等。本文所述是根据已经发生的人工智能事件或学术界普遍认可的发展趋势,来分析人工智能对网络安全的影响,并初步探讨构建共同准则时的可能路径及面对伦理困境时的可能抉择,具体构建的过程和结果将是开放的,何为适切的伦理抉择也是有待讨论的。
为了在新一轮以科技为主导的国际竞争中掌握更多的主动权、赢得先机,许多国家和区域,尤其是美国、中国和欧盟,均出台相关战略或政策进行总体和全面的布局,以全力推动和引导人工智能在网络安全领域的发展与应用,全方位重塑网络安全模式、优化网络安全结构、增强网络安全能力。
网络安全本就是目前全球面临的最复杂、最现实和最严峻的非传统安全问题之一。而人工智能的嵌入,解锁了新的攻击与防御渠道,可能导致网络冲突频繁化、尖端化并日益具有破坏性。有两种前景特别引人担忧:人工智能广泛、无节制使用甚至恶意软件泛滥,会导致新一波的网络军备竞赛;人类无法控制网络攻防中人工智能胜负角逐,面临技术失控的风险,只能任其发展,而战争的流动性、联网设备的数量以及移动计算能力的缺陷,会使得并不成熟的人工智能有引发现实的动能战争的危险。
在2016年,两个预示人工智能技术快速进步和潜在应用的里程碑事件出现:其一,美国国防高级研究计划局(Defense Advanced Research Projects Agency,简称DARPA)网络挑战赛(Cyber Grand Challenge)的获胜者“Mayhem”证明了自动检测和修补软件漏洞的潜力——这改变了网络安全的防护规则;其二,谷歌的AlphaGo战胜需要出类拔萃直觉和评估技能的围棋世界顶级选手——这显示,在一定规则下的逻辑思维领域,计算机的学习能力与思考能力至少可以与人类并驾齐驱。对此中意义,中共中央军委联合参谋部有明确认知:“阿尔法围棋”对韩国围棋选手李世石的压倒性胜利“展示了人工智能在作战指挥、方案推演、辅助决策中的巨大潜能”①。
目前,人工智能进展主要涉及机器的深度学习技术,例如涉及计算机视觉模式识别和自然语言处理等使用深度神经网络的技术领域。在网络安全领域,人工智能的应用主要体现在两个层面:
其一是由人工智能驱动的机器很可能成为未来战场上主要的网络“战士”。基于人工智能的复杂算法可用来操作恶意软件,支持其在传播过程中自我学习,不断进行改革,并模仿系统中用户的行为以弄清楚其周边环境并隐藏自己,从而尽可能长时间地隐藏在计算机系统中。同时,由人工智能提供支持的自动化系统可以探测网络和系统,搜索可能被利用的未发现的漏洞。由此,基于人工智能恶意软件的网络钓鱼②、基于内部人员(包括员工、临时员工、承包商和业务合作伙伴)的社会工程攻击(Social Engineering Attack)的比例越来越高。比如,通过人工智能的深度造假(Deepfake)技术,可以创建以假乱真的视频和音频或精心设计的电子邮件以欺骗目标个体。随着人工智能驱动攻击工具的网络易得性和技术平民化,使得即使是个体罪犯也能够发起复杂的有针对性的攻击。而且,这种基于人工智能的工具包可以使进行每一个额外目标攻击的边际成本趋于零。
其二是采用混合人工智能方法,可以提高网络安全防御能力,甚至起到革命性作用:利用人工智能来验证密码、识别漏洞和脆弱性;相应的回应和反击将更迅速、更准确并更具破坏性。由此,威胁将在数小时内而非数天或数周来处理。并且,防御者可以使用人工智能来对自身的网络发动模拟攻击,以找到漏洞识别威胁并在攻击者发现之前关闭或修补漏洞,以更好地加强自身的系统以免受攻击。
军事需求历来是推动技术变革的重要力量,特别是在一些战略性领域,新技术与军事变革之间是个彼此助推的互动过程。美国是世界上第一个引入网络战概念的国家,它一直在利用信息通信技术领域的先发优势及美国企业在网络基础设施方面的垄断地位,监视和获取全球通信数据。
同时,美国军队和情报机构也正在打造堪比其核武力量的全球最大网络武器库。2009年,美国军方成立网络司令部,在2010年正式运行并在2017年升级为美军第十个联合作战司令部。2013年,美国网络空间司令部从900人扩编至4900人,并一度宣布3年内扩建40支网络战部队。美国军队和情报机构还通过打造堪比核武库的全球最大网络武器库,用于网络攻击甚至网络战。“维基解密”根据代号“穹顶7”(Vault 7)的8761份秘密文件揭露了美国中央情报局在2013年至2016年间所实施的一系列高度机密的全球性网络入侵活动,内容涉及攻击手法、攻击目标、会议记录、海外行动记录,以及使用的攻击工具和7亿行源代码。③美国大量开发网络武器所引发的军备竞赛,已经给全球网络安全带来严重的威胁和风险。
计算能力增长、算法的突破、数据的量与质的提升为人工智能在网络军备竞赛领域的应用,提供了新的可能,非常有可能引发国家间的全球军备竞赛从子弹转向键盘:人工智能赋能的网络进攻使威胁变得更快速也更先进,这种更新换代的威胁迫使被威胁方必须及时进行辨别和反应,从而助推本就非常危险的网络军备竞赛。更有甚者,由于计算能力和数据可用性的进步,机器得以能够完成一度需要人类参与或被视为不可能的任务,比如,人工智能可以替人来执行那些“肮脏、沉闷和危险”的战场任务;人工智能系统可以比人类处理更多的信息,而且速度更快,更精确,也更协调,这使得它们成为实时评估混乱战况的宝贵工具。最终,人工智能将在现实操作的基本层面上占据主导地位。这也许会带来新的军事力量,从而引发军备竞赛,对手之间将开发对抗或干扰彼此人工智能系统的对策,以歪曲数据或攻击算法本身,从而可能增加国家在危机中有意或无意间动用核武的可能性。④
同时,美国利用技术优势追求霸权的作法会恶化国际信任,因为超前发展人工智能的“先发优势”,将会使一国获得并强化后来者所无法企及的地位和利益。为避免竞争落后而遭遇“降维打击”的可能性,各国将在人工智能能力建构方面增强对彼此追赶迫切性的认知和行动,从而导致国家越来越倾向使用攻击性的人工智能赋能战略,并在遭到攻击时进行更加猛烈的反击。可以预计,如果无法建立相应的国际规范与法律,任由这种恶性循环导致的安全困境无限发展,将导致人工智能军备竞赛的程度远高于人工智能合作的可能。
人工智能的军事应用会极大地降低了伤亡风险,从而在一定程度上降低战争的门槛。这有可能鼓励减少自我约束,使各国更倾向于采取进攻性的行动来达到相应的目的,从而形成国际安全领域新的不稳定因素。
基于人工智能的网络和物理军备竞赛,可能导致两种前景:以人工智能为主的防御措施与以人工智能为主的进攻手段在网上决一胜负,人类只能站在一边观看;目前人工智能的军事应用尚不直接涉及到致命武器,但可能会导致引发不稳定危机或加剧风险升级的错误,从而导致物理攻击并引发国家间的传统动能战争。
雪上加霜的是,目前的人工智能技术发展仍然相当不成熟且缺陷很多:其一,多数先进威胁检测技术都会采用某种形式的人工智能来标记某个潜在事件,但是,这一技术会造成大量误报问题,如果不进行适当校正,则会导致“威胁疲劳”,形成“狼来了”的局面。例如,一项研究表明,IT和安全组织每周会收到大约1.7万次恶意软件告警,但其中只有19%被认为是可信的,只有4%需要进一步调查。⑤考虑到战争的流动性、联网设备的数量以及移动计算能力的缺陷,机器学习必须进一步发展才能提高在真实战场上的预警能力与实用性。其二,在当前的发展阶段,人工智能尚达不到人类智能的水平,更非万无一失。由人编写的代码无法确保程序完全安全、可靠、可控、可信,数据质量获取、加工、存储和使用等环节都存在着一定的数据质量和安全风险,作为人工智能发展核心的算法和数据都存在着潜在的安全问题,从而往往会犯一些人类不会犯或意想不到的错误。更有甚者,如果某个情况超出了算法的预期参数,可能导致错误或意外引起的突发行为,进而产生严重的后果。
人工智能其实很脆弱。通过注入损坏或错误的数据,成功的网络攻击可以改变人工智能的训练数据,进而改变人工智能的结论。客观来看,即便成熟的自动武器的使用也可能会导致一系列现实风险,包括在复杂系统中因新因素的介入而导致的不可避免的失败,敌方对自主系统的攻击或破坏(例如欺骗和行为攻击),或者敌我系统之间发生不可预知的交互等等。况且,当前的人工智能系统虽然功能强大但并不可靠,许多人工智能设备很容易受到复杂攻击的影响,或者在训练环境之外使用时失灵。
更有甚者,对于每一个参与竞争的国家而言,目前更大的危险并不是在人工智能领域落后于竞争对手,而是人工智能军备竞赛所带来的紧迫感将促使各国急于部署不安全的人工智能系统能:即使其他国家还没有处于重大突破的边缘,但不前进即落后的竞争压力会带来“抄近路”的选择。由此,会导致一国基于未雨绸缪、防患未然的想法而部署一项未经测试的甚至是具有瑕疵的人工智能设备,以迎头赶上并超越其他国家。这样的结果对于每个入局者而言都将是灭顶之灾。
除了以上问题,伴随着人工智能武器的开发,国际社会面临的另一大难题就是反扩散问题:人工智能技术的扩散还会给全球安全带来新的威胁,比如,恐怖主义组织以及不负责任的国家获取了人工智能武器,将会使人工智能成为产生恶意软件、勒索软件及其他各种恶意计算机代码的温床,从而威胁国际社会的安全与和平。另外,人工智能的军备竞赛还会对技术逻辑和商业逻辑产生破坏。人工智能具有军民两用性质,其最初的目的是发展经济,增加社会福利,而过度地强调军事用途会对人工智能的全球研发体系和产业链造成严重威胁,⑥甚至形成反噬作用。
鉴于人工智能嵌入网络攻击而导致的安全问题具有跨领域和全球性的特点,国际社会有必要确立大致原则和可能路径,通过加强国际合作及威胁情报和经验的分享,以建构人工智能在网络安全领域的使用规范,维护网络空间的战略稳定。
清华大学人工智能与安全项目小组认为人工智能的发展要遵循六点原则,包括:福祉原则、安全原则、共享原则、和平原则、法治原则与合作原则。⑦应该说,这些原则可以作为讨论和制定人工智能国际规则的基础,但因没有具体细化而略显空泛和抽象,且没有具象到网络安全领域。在网络安全领域,人工智能的使用应在如下原则和路径上进行深层次的、有实际意义的国际规范建构。
就目前大国的不同立场而言,制定一个全球性网络空间条约是不可能的。不过,除了正式条约,对国家的规范性约束还包括行为准则、国家的传统实践,以及群体对合理行为的普遍期待(它形成普通法)。在范围上,这类约束可以有全球、多边、双边等多种形式。⑧
在目前的网络冲突中,就目标选择、攻击范围和破坏程度而言,各国政府多会严格选择、谨慎行动,以避免伤害溢出殃及无辜,要避免冲突扩大化。但是,政治审慎、整体考量、综合判断的原则,能否在人工智能网络武器的现实使用中得到遵守,或在多大程度上得到遵守,仍需要不断观察,目前疑问和不确定性较大。
2019年4月8日,欧盟委员会发布人工智能伦理准则,列出“可信赖人工智能”的7个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。欧盟认为“可信赖的人工智能”有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。尽管制定准则是一个好主意,部分批评人士也认为,“可信赖人工智能”这一概念的定义尚不明确,且目前还不清楚未来的监管如何实施;准则过分细化会难以操作,阻碍行业发展;准则中没有禁止使用人工智能开发武器也是不恰当的。
网络武器泄露已经给全球安全与民心稳定造成相当大的威胁,类似于 WannaCry 和 NotPetya 这样源自于美国国家安全局武器库中网络武器泄露再次开发而成的勒索病毒给国际社会带来了几百亿美元的经济损失和重大的公共安全危害。⑨可以想象,更具危害的自主攻击网络武器扩散造成的网络安全危害将更加严重,尤其是伴随相关技术平民化的发展,恐怖主义组织完全可能获得并使用的情况下。
为此,就像核武器的使用那样,人工智能网络武器在存储和使用时,必须建立严格的加密与解密的规定和措施。为此,在技术展开层面,自主攻击的网络武器开发应当被严格限制在特定的环境之下,并且精确地开展测试。在技术防扩散层面,需要设定攻击手段的自毁功能,即,加入在泄露后可以自我删除、取消激活等功能。
这样的限制性规范是完全可能的。比如迄今为止发现的最大规模和最为复杂的网络攻击病毒火焰病毒,是迄今为止发现程序最大的网络武器,其复杂性和功能性已经超过其它任何已知的网络武器,就内置自毁机制:它在收到指令的情况下,会自我删除。
在人工智能赋能的网络攻防中,指挥官和操作人员要加强安全与伦理考虑,减少错误或失控的风险,首先需要某种原则来决定成比例的反应,就像要确定明确的门槛或红线来区分合法的和非法的网络攻击,并且对非法行动进行适当的制裁。⑩
“罚当其罪”的比例原则,这个战争法的根本原则同样适用于网络空间。在国际争端中使用武力,必须考虑适当性、必要性和相当性的问题。适当性原则要求武力的使用能够或有助于正当目的的实现;必要性原则要求武力的使用是实现目的的最后手段;而相当性原则是要求使用武力与造成后果的均衡。三项原则分别从“目的导向”“手段选择”“价值取向”上规范目的与武力使用之间的关系,进而成为衡量国际争端中武力使用是否正当的基本依据。
同时,成比例原则也要求避免攻击关键基础设施和伤及无辜,不能进行“无区别的杀戮”。要保障个人基本权利,防范因人工智能技术滥用而造成的负面影响。战争、冲突中的生死决断必须由人做出,机器无权自主决定杀伤目标,毕竟,算法黑箱或者自主武器失控有可能导致误杀和误伤,因此,计算机和算法只能对决定起辅助作用。在这方面,战争的目的与手段要整体考虑,因为,战争通常被评判两次,第一次是以结果评判,第二次是以手段评判,被侵略者并不因为其牺牲者的身份而被免除对文明战争所应担负的责任。
因此,人类尚需要在许多重要层面达成一致:区分合法目标和非法目标的界线,网络防御战略的成比例反应的定义,如何检查和监控基于人工智能的国家网络防御行动。同时,类似联合国安理会那样有执行力的第三方权威,应该监控成比例原则和国际规范是否被违反;如果违反,应采取相应的经济与政治制裁措施。
长久以来,科技发展都影响着世界经济与国际安全。面对当下人工智能引发的科技大进步,其规模与速度使世界各大国都难以充分利用现实机会并应对未来挑战。科技发展的不同渠道,特别是数据使用,威胁着本就分裂的世界,造成错综复杂的地缘政治竞争格局;而且,悖逆常理的是,新时代里的科技可能事实上反倒会削弱先前突破所带来的全球影响,使世界处于“自动化的冲突”中。过去两个世纪里,西方近乎垄断了全球的价值输出。但如今在数字领域,人工智能的规则却无法定于一尊:迄今为止,世界各地的企业、政府和民间机构已经发布了大约50套人工智能准则。腾讯和百度等中国最大的一些科技公司也在此列。然而,单边主义无法保证网络安全,主权国家政府需要在联合国层面、区域层面和大国合作层面,用规范治理的合作性来克服新技术的分裂性。
研究区内属暖温带季风型大陆性气候,四季分明,气候温和,年平均风速3.5m/s,多年平均气温11.4℃(1979—2017年),多年平均降水量648.27mm(1979—2017年),多年平均蒸发量1745.7mm,多年平均无霜期199d[1]。
1.联合国层面合作的难度很大
2004 年,联合国设立了信息安全政府专家组,以商定国家在网络空间中行动的自愿性规则。2017 年,专家组第五次会议以僵局告终,无法就国际人道主义法和现有正当防卫、国家责任等的相关法律是否及如何应用于网络空间达成一致。美国认为网络防御法规应该基于这些法律,而其他国家(包括古巴、俄罗斯和中国)则认为这会使网络空间军事化并持否定态度。最终专家组无法形成报告,也无法判断他们是否会再次开会,更不知接下来会发生什么。2018 年9 月,在联合国召开的常规武器公约讨论中,各方同样未能就制定禁止人工智能驱动的致命性完全自主武器的条约达成共识:26国支持全面禁止人工智能武器,而绝大多数国家仍在观望之中。
实际上,因为主权国家主导的全球治理机制存在霸权逻辑和冲突逻辑的特征,这使得某些发达国家滥用权力、不愿自我约束的不负责任行为,与发展中国家因自身的不发达而导致的频繁发作的全球性问题协同作用,共同导致一些复杂性问题,进而导致通过联合国加强网络空间国际合作的进程已经实质性地搁浅。由于政治、文化、宗教、战略及后勤方面的诸多障碍,再加上太多的不确定因素,即便国际合作得到加强,其最终效果也未可知。因此,人工智能国际规范方面的合作更有可能是地区性行为,或者发生在某些特定国家之间,而非全球任何国家间的合作。
2.区域共同体先行的原则较为现实
近年来,基于人工智能进行网络攻击软件的最新、最有创意和最具潜在危险的使用在不断出现。因此,为了打破网络安全建构的联合国进程僵局,本已形成各级各类协作的区域共同体层面的合作就成了必不可少的替代选择,既可以维护网络安全,也可以为进一步在联合国层面的合作进行探索。
在实践层面,区域共同体之间可以运用攻防演习来测试基于人工智能的防御战术并培育合作惯性。演习可以包括网络部队的实战模拟,也可以包括多国、多部门的联合应急响应演习,以提升区域国家合作能力。人工智能就是要通过经验、练习来学习,类似的演习可以提升区域的战略防御水平。在规范层面,区域的探索可以为确保人工智能足够安全可靠的国际共识提供参考。在关系层面,区域各国要公布本国的政策框架和战略路径,同时要随时公布关键系统和关键基础设施的致命缺陷,借此种分享来提升区域的警戒和安全水平。
3.大国协调原则需要克服障碍不断推进
人工智能是典型的军民两用技术,国际监管或国际条约很难限制甚至是减弱大国人工智能的发展。然而,像美国、中国和俄国这样的大国和重要军事力量,绝不希望因人工智能技术的扩散,给军事和战略稳定带来系统性的风险。因此,大国应该承诺并采取协调行动,以评估和减轻人工智能在军事应用上的盲目扩张,从而规避类似核扩散那样的风险。
在避免发展致命的自动武器以打开“潘多拉的盒子”释放“恐怖武器”方面,中美两国是典型的“能力强、责任大”。两国已经积聚了足够多的人才、市场份额和数据。在人工智能产品和系统对全球经济的贡献中,中美两国是主导。为避免误差和误判,中美应采取更符合实际的行动,以建立彼此之间和全球层面信心的措施。在彼此关系层面,美国应减少对中国的攻击,以示诚意。在这方面,美国有大量诚意需要展示,减少对中国网络的干扰和利用——在此方面,美国的行为相当恶劣,比如,仅就木马和僵尸网络而言,2018年位于美国的1.4万余台木马或僵尸网络控制服务器,控制了中国境内334万余台主机,控制服务器数量较2017年增长90.8%。在树立社会信心层面,中美可以在研究如何确保军事人工智能系统“有意义的人类控制”方面进行合作。
作为一种影响面广的颠覆性技术,人工智能对就业结构、法律与社会伦理、个人隐私、国际关系准则、政府管理、经济安全和社会稳定乃至全球治理有深远的影响。因此,深受影响的各利益攸关方需要积极参与规范制定,以作为政府的一种补充或制衡。
2018年6月,谷歌员工成功向该公司施压,避免与五角大楼续签合同。很多技术专家不愿意为国防项目工作,因为担心自己会造出失去控制、杀人的机器人来——这使得华盛顿想要在硅谷和军方之间建立联系的努力困难重重。2018年9月,中国信息通信研究院发布的《人工智能安全白皮书》呼吁中国政府继续努力,“避免国家间的人工智能军备竞赛”。马云在2019年达沃斯世界经济论坛上表示,他担心全球人工智能军备竞赛可能导致战争。这些非政府性质的主体,在呼吁建立人工智能使用规范方面,有重要作用。当然,全球民间社会也应该减少关于人工智能军备竞赛的言论,并寻找与其他国家合作的机会,以减少人工智能带来的风险。
实际上,在互联网发展的进程中,技术社区、大型企业和个人都发挥着重要作用。在人工智能领域,依然如此。这些主体在培养理解人工智能的经济、道德、政策和法律含义的思想领袖,领导全球数字道德、数据伦理的交流、融通方面,有重要的作用。为此,作为专业人员的计算机专家,也要避免闭门造车的现象,积极发声、积极行动,提升社会对于风险和治理的认知,比如,要使利用人工智能进行网络攻防的问题、局限性和缺点透明化,让专业问题大众化,以引起社会的注意;同时,要主动参与,和策略制定者、终端用户一道,设计该技术的测试和监管机制等。
大国竞争在技术发展上的巨量和加速的态势与效应,促使人工智能浪潮到来。由人工智能技术提供的平台将助推用户创造性的发挥,创造出新事物、新武器和新攻击模式,因此而引发的革命性变革,将成为导致地缘战略和国际格局重大变革的一个助推因素。兹事体大。然而,人工智能的未来是开放的、不确定的,人工智能的广泛应用无疑放大了网络安全的隐患,各利益相关方能否成功处理潜在问题并制定适切战略,使其最终演变成一股稳定的力量,没有人可以给出肯定答案,尽管利用国际规范约束攻击和非法利用无疑是一条正确路径。
在涉及人工智能的国际观念结构中,西方仍然占据主导地位。英国已逝著名物理学家史蒂芬·霍金曾表示,人工智能的全面发展可能会给人类带来终结:在目前的初级阶段,人工智能就已经证明了其巨大用处,发展到高级阶段,它有可能赶上或是超过人类,最终可能控制人类。霍金并非人工智能领域的权威,在尊重其作为理性思维传播者的同时,对他的观点和看法不应夸大。不过,随着人工智能技术的发展和进步,特别是“机器代替人”的可能与风险不断展现,在相应的哲学、道德与伦理层面,人类应该达到一定程度的共识。
从全球态势来判断,像在2016年美国大选和英国脱欧运动中那样,利用假新闻进行黑客攻击的信息战正有可能变得司空见惯。类似的行为不仅篡改事实,更强有力地改变某些政治观点和态度。对此,人工智能可能无能为力:一种算法会从一个有影响力的账户中读取假新闻,并根据优化的内容因素来推广它,而不是像新闻工作者在发布前那样检查新闻来源或想法。推而广之,这将日益加剧政治紧张局势与全球混乱形势,尤其是通过深度造假技术(Deepfake)来篡改图像和视频可能会对全球秩序造成灾难性影响,比如,发布美国总统唐纳德·特朗普宣布核战争的唇形同步视频。
在人工智能嵌入网络安全这样的全球安全与情报领域,也面临类似的道德风险。目前,像微软之类的公司已经悄悄地宣布他们愿意向五角大楼出售先进的自动识别系统。无疑,利用人工智能机器人取代人类士兵或制造自动化武器,可能会在一定程度上降低政府防御性力量可能造成的伤害风险,但人工智能所造成的伦理困境与核弹相当。如果人类研制的人工智能系统拥有与人类不一致的价值观,那么,文学作品中“恶意机器人霸主”的想象可能会成为现实。由此引发的思考是:若没有了自主权,作为人类的我们还是万物灵长吗?当机器人被赋予自主权时,他们会有怎样的行动边界或者根本没有?当二者被给予同样的自由和智慧时,如果面临一场生存竞争,两者谁赢谁输?
实际上,面临人类无法控制网络攻防中人工智能胜负角逐导致技术失控的风险,人类社会已经逐渐生发出针对人工智能技术应用前景的两种不同认知与伦理理念,其中的差异与竞争反映了社会基本认知的分歧——由此引申出来的不同策略、逻辑和路径,将影响人类社会未来的发展轨迹。
第一种理念更倾向于保守主义。这种倾向强调维持人工智能技术的可控性即坚持人类应该对自主系统拥有权力是技术发展不可逾越的界限。伴随深度学习算法对人工智能技术发展潜力的释放,相当多领域里的人工智能应用系统,都可以在短时间的学习后,便能够超越人们经年累月沉淀下的知识与技术。人类自己曾颇为自得的思维能力,在纯粹的科学力量面前微不足道甚至不堪一击。尤为甚者,深度学习算法的“黑箱”效应,使人类无法理解神经网络的思维逻辑。未来世界无法预知和自身力量有限,使人类产生了双重焦虑,由此形成的无力感导致对人工智能的恐惧甚至是排斥,以此来降低整个体系的动荡强度、减少对人类熟悉环境的干扰。然而,目前大概没有国家敢于采取这种观念,因为人工智能的冲击还只是一种可能性,但放缓对新技术的研发和使用将在短时间内使得国家间力量差距被显著放大,从而在国际经济和政治竞争中因为技术落后陷入非常不利的局面,却是一种现实性。
第二种理念更倾向于自由主义。基于科技进步会为人类社会带来积极影响的信念,通过调整制度和社会基本原则,构建一个更加适应技术发展特性的人类社会,从而充分释放人工智能技术发展的红利,进而突破人类自身的局限。这种理念的问题在于:面对人工智能这把双刃剑时,过于关注实用性与机遇,过于忽视破坏性与风险,毕竟,如果有人工智能,那么也会有人工愚蠢(artificial stupidity)——人工智能系统的使用导致军备竞赛、战略误判和矛盾升级的可能性是相当大的。
相较之下,一种比较行得通的路径是基于建构主义的:一方面,要努力促进人工智能快速发展,不必惧怕其成功跨越“奇点”(singularity)从而实现飞跃甚至成为“超级人类”,因为世界的运转不可能永远依照摩尔定律,人工智能未必会一路快速前进直至呈现爆炸式发展;另一方面,在人工智能向“奇点”突破的过程中,要未雨绸缪,构建人工智能使用的国际规范,坚持人类主权,即应在涉人工智能的高层次战略决策中保持优势和决定权。这并非不可能:人类在研发和使用人工智能技术、软件与产品时,可以设计为一部分功能自主决定,另一部分功能由人类控制。同时,通过一种各利益攸关方参与的全球协商机制对人工智能的发展节奏进行调节,将可解释、安全的人工智能确定为未来发展方向。如此,就有可能对于人工智能这种既可产生大善也可招致大恶的技术,进行实属必要的控制。
当下,对人工智能进行国际规范、道德约束、伦理建构和哲学反思的时代已经来临,迁延时机将是重大错误:辨析人工智能技术对于人类的影响,从而扬长避短、创造性地建构既能促进人工智能的发展也能体现人类文明与尊严的体系与制度,已经刻不容缓。
很多技术专家与行业领袖认为,人类在21世纪面临的最大威胁就是人工智能。面对现实与未来的人工智能引发的全球治理问题,传统治理手段与理念在实践中将会越来越失能甚至南辕北辙。
不过,只要人类在全球层面达成一些最低限度的共识并加以实践以形成惯习,进而建立一套决策制定的知识框架和一个国际规范的基本框架,就可概括出在类似网络战和机器人技术等场景中运用人工智能的可接受方式。由此,即有可能形成对于人工智能发展过程中所存在技术风险和伦理隐患的一种制约。“人类始终处于控制地位”,不是、更不应是一句空话,它既是一种过程性价值,也是一种目标性价值。
注释:
① 中央军委联合参谋部:《加快构建具有我军特色的联合作战指挥体系》,《求是》,2016年第16期。
② 钓鱼是指把危险的东西藏在看似无害的信息里的恶意软件。钓鱼软件是最受欢迎的网络攻击形式之一,虽然它们在很大程度上取决于攻击者是否能够编出让欺骗受害者打开链接或附件的信息。
③ 赵瑞琦:《美国中情局网络攻击全球,始作俑者必搬砖砸脚》,观察者网,https://www.guancha.cn/ZhaoRuiQi/2017_04_13_403358.shtml,2017年4月13日。
④ Edward G A,Lohn J:HowMightArtificialIntelligenceAffecttheRiskofNuclearWar? https://www.rand.org/content/dam/rand/pubs/perspectives/PE200/PE296/RAND_PE296z1.zhs.pdf.May 28,2018。
⑤ 唐宁:《美军探索人工智能在网络安全中的应用》,《安全内参》,https://www.secrss.com/articles/7469,2018年12月28日。
⑥ 鲁传颖:《人工智能安全:挑战与机遇》,《光明日报》,2018年09月19日,第14版。
⑦ 傅莹:《人工智能变动国际格局,中国倡导什么规则?》,《国际政治科学》,2019年第1期。
⑧ [美]约瑟夫·奈:《防止网络战的规范性方法》,http://cn.chinausfocus.com/m/show.php?id=14011,2017年3月27日。
⑨ 封帅、鲁传颖:《人工智能时代的国家安全:风险与治理》,《信息安全与通信保密》,2018年第10期。
⑩ Taddeo M:CyberConflictsandPoliticalPowerinInformationSocieties,Minds and Machines,No.27,2017,pp.265-268。