自动杀人机器人时代来临

2013-12-29 00:00:00朱江明
南方人物周刊 2013年19期

近日,在联合国人权理事会会议上,有代表提交报告,呼吁关注自动杀人机器人的问题。这份报告指出,美英等国正在积极推进研发能代替人类士兵的机器人武器。一旦这类机器人研发成功,战争形态大变的时代就将到来。该报告要求联合国通过决议,冻结此类研发项目,并成立专门委员会,研究如何规范机器人在未来战争中的使用。

机器人大战人类一直是科幻电影的热门题材。早在上世纪80年代,以《终结者》为代表的好莱坞影片就提出:如果机器人有了智能,会将人类视为敌人。而早在上世纪40年代,著名科幻小说家阿西莫夫就指出机器人叛变的可能性,并且提出“机器人三原则”:机器人不得伤害人类;机器人必须服从人类的命令,除非这条命令与第一条相矛盾;机器人必须保护自己,除非这种保护与以上两条相矛盾。

他的科幻小说机器人三部曲,就是围绕机器人智能化后的伦理和法律问题进行探讨。

如今,无人化的战场已经成为未来的发展方向,自动杀人机器人早就不是科幻电影的道具了。

上世纪80年代,各军事大国开始普及全自动地面防空系统。也就是说,电脑根本无需人工干预,只要发现可疑空中目标,就会对其进行跟踪、锁定和射击等一系列的战术动作。战斗机和空对地导弹的速度越来越快,防空系统如果需要人工判定攻击与否,反应速度会滞后,无法应付现代化的空中攻击力量。此外,自主攻击的无人机、无人战车和潜艇均已完成了此类测试。

既然自动杀人机器人并不是新生事物,为何联合国现在才提出这个问题呢?

过去,这类武器主要应用于要地防空,或者阵线防御等区域。尽管也曾出现过法律上的问题,毕竟其影响仅限于较小的范围。随着无人机、无人车辆以及无人潜艇等装备的普及,未来战场无人化的趋势越来越明显。

这些武器往往用于深入敌后执行侦察或攻击任务,任何国家的后方均可能遭到此类武器攻击。在这种情况下,如果对其使用不提前加以规范,很可能造成非常严重的人道主义灾难。

近年来,美军在反恐战争中的无人机应用越来越肆无忌惮。美国的无人机不仅频繁入侵他国领空,奥巴马总统更授权中情局和国防部可以用无人机消灭参加恐怖活动的美国公民。

尽管在无人机大规模应用之前,自动化杀人机器人主要还是应用于防空作战,但其危害性早已显现。1988年7月3日,一架伊朗民航客机被美国海军“文森斯”号导弹巡洋舰判定为伊朗空军的F-14战机,并且认定其存在威胁。在无线电联系不上的情况下,美军发射两枚“标准”防空导弹,其中1枚直接命中。客机随后坠落于波斯湾,机上290人全部遇难。

在上述案例中,美军导弹的操作模式并未设定成全自动模式。由此可见,即便是半自动模式的防空系统,在电脑出现误判后,仍然可能造成重大的无辜人员伤亡。可想而知,全自动杀人机器更不可靠。

以往攻击一个目标需要人工录入信息到无人机的电脑中。在未来的战争中,可能不需要设定攻击目标,只要发出一个模糊的指令。指挥官可以把无人机派到敌人的领空,然后喝着咖啡,等待隐藏目标被摧毁。但是,如果无人机的判断出了问题呢?它可能攻击民用目标,造成重大伤亡,而无人机本身不会有任何负罪感!我们必须考虑的是:由此带来的法律后果由谁承担?是无人机的指挥官,还是它的设计制造者?

近年来,美军在反恐战争中的无人机应用越来越肆无忌惮