将影响并改变未来战场
去年,在日内瓦举办的联合国特定常规武器公约会议上,一段可怕的视频公诸于众:视频中,一群神似机器杀人蜂的小型机器人,通过人脸定位瞬间杀死了正在上课的一众学生,场面血腥。
小型机器人拥有完全基于人工智能的先进技术,并且蕴含可怕的黑科技:广角摄像头、传感器、面部识别,在其中部还有3克炸药。
在视频结尾,伯克利大学教授、资深AI研究者斯图尔特发出警告,尽管这段视频和其中的杀人机器人并非真实,但视频中的科技目前已经存在。
在墨尔本举行的2017国际人工智能联合大会上,116位机器人和人工智能公司创始人发表公开信,呼吁联合国在国际范围内禁止“致命性自主武器系统”的使用。
公开信指出,致命性自主武器系统足以构成第三次武器革命的威胁——前两次革命分别是火药和核武器。这种技术一旦开发成功,将有可能把战争冲突升级至从未有过的规模,而且会达到人类难以控制的速度。
西安政治学院军事法学系教授宋新平分析,致命性自主武器的运用,意味着自然人在武装冲突中直接发挥的作用越来越小,武器所发挥的作用则越来越大,将影响并改变未来战场的战斗员构成与战斗能力的变化,特别是这种武器的集群式运用,对未来作战的指挥体制、力量运用、供给保障等方面将产生革命性影响。
但是,随着致命性自主武器系统的发展,它所带来的争议也越来越强烈。
首先,有人担忧,机器打仗使得人員伤亡大大减少,反过来又会降低战争发动的门槛,武装冲突发生的机会会增加。
其次,在伦理方面,致命性自主武器运用于未来的武装冲突中,这意味着将剥夺自然人生命的权利交给非自然人。有学者认为,这是将人的生命和人格尊严交给机器来判定,不具有平等性,也是对人类生命权以及人格尊严的侮辱。
或落入坏人之手用于达成邪恶目的
并且,只要是软件,就一定会出错。
美军在这方面有真实案例。2007年10月,美军第3机步师下属部队携带3台“利剑”机器人进攻一个反美武装据点。由于没有及时更新软件,其中1台“利剑”竟把枪口对准美军操作人员。
美国《国家利益》杂志网站2016年11月4日刊发文章指出:“无论计算处理技术取得多大进步,如果没有人类监督和控制,完全自主化的武器系统必将犯错。”一旦系统出错,可能丧失辨别敌友与平民的能力,导致暴行发生。而基于智能软件的自主杀人机器可能在同一时间内集体出错,造成的破坏更大。
支持发展智能武器的人们认为,人工智能作为一种工具,不受情感、态度等主观因素的影响,具有客观公正的优势。但实际上,人工智能建立在算法和大数据的基础上,而算法难免会反映出设计者本身的喜好,“脏数据”则会导致人工智能产生偏见。
不难想象,一旦将存在认知偏见的智能化武器投入未来战场,很可能会对某一类人群滥用武力。
与核武器不同,自主杀人武器不需要昂贵的稀缺材料,其核心能力来自智能软件,因此比较容易获得,因此随着人工智能技术日益平民化,犯罪分子、恐怖分子、叛乱分子等邪恶势力在黑市上获得自主杀人武器只是时间问题。
一旦自主杀人武器落入坏人之手,将成为实施杀戮、制造动荡的工具,后果不堪设想。
人类战争史表明,一旦某种武器能够带来非对称性优势,必将由于国家、部族或群体之间的猜疑、野心和安全感缺失而逐渐扩散,自主杀人武器也不例外。
会使得人类作战意图得到更精确的贯彻?
但也有人认为,在未来,致命性自主武器系统如果应用于战争,在军事方面会起到许多正面作用。例如,降低己方士兵的风险,降低人与人之间近距离战争的代价。此外,自主武器系统也省去了军人的薪水、住房、养老、医疗等开销,又在速度、准确性上高于人类,而且不用休息。
还有人认为,以上反对意见作为禁用致命性自主武器的理由站不住脚。研究人工智能哲学的复旦大学教授徐英瑾表示,人工智能技术运用于军事,会使得人类作战意图得到更精确的贯彻,可使得正义战争快速结束。
人工智能公司、国际组织纷纷呼吁禁止致命性自主武器系统,但现状是,至今国际社会仍然没有就致命性自主武器系统问题达成统一认识,甚至还没有统一的定义。
(《中国国防报》2018.3.15、《重庆晨报》2017.11.21等)