一个大雪纷飞的日子,在爱沙尼亚与俄罗斯的交界,两国士兵在边界例行巡逻。双方皆配备履带机器人,这种机器人配有自动枪械和光学系统,还可分辨外来的威胁,例如人类或是交通工具。当双方士兵与机器人在凹凸不平的地面慢慢交会时,一名爱沙尼亚士兵不慎跌倒时误发射了他的突击步枪。俄罗斯机器人记录到枪声后将此举解释为攻击行动,随即决定进行适当回应。不到一秒钟,爱沙尼亚和俄罗斯的机器人在算法的命令下,将武器转向人类目标然后发射。一阵枪林弹雨过后,12名或死或伤的士兵四散倒卧在他们的机器人同伴旁,最后两国对此番事故自我检讨,或者将此次攻击归咎到对方身上。
虽然上述情景只是个假设情况,而且看似荒诞,但如今这些战用机器人早有雏形。爱沙尼亚的米尔兰姆机器人公司研发出一款名为THeMIS的机器人,全名为“履带混合模块化步兵系统”。它靠小型坦克履带移动,上方有远端武器炮塔,可搭载小口径或大口径的机械枪。机器人还具备镜头与目标追踪软件,让炮塔可按照设定追逐人类或物体。米尔兰姆公司坚称,目前这套系统仍由人类控制,但其实机器人身上的零件组成已能让它自行判断眼前情况,辨别可能的作战目标并进行追踪。米尔兰姆公司官网上指出:“THeMIS有近乎无限的潜在用途。”
过去一直是由人类做出在战争中使用致命武器对抗作战目标的决定,但这种情况可能很快面临改变。人工智能、机器影像辨识和机器人等现代科技产物将组建全球一部分的军队,让武器系统不需人类参与,便可确认并杀死战场上的敌人。
俄罗斯、中国、美国都在努力研发可将武器与感应器、定位计算机配对的自动平台;英国和以色列早已使用具有自动化功能的武器,包括可找寻并攻击敌人雷达的飞弹、无人机,以及无需人类命令便可立刻决定发射炮火的交通工具与船舰。
什么情况下军事武器可以或应该代替人类,决定由机器取走人类的生命?这个问题跨越道德,让人思考战争本质,军事策划者、人权组织、国防官员、研究分析师和伦理学家如今尚未取得共识。
自动杀人机器并不是新科技,数十年前已有武器系统可以独立辨识并攻击目标的技术。20世纪80年代及90年代,美国战争策划者已测试可独自辨认目标的鱼叉反舰飞弹和战斧巡弋飞弹,两种飞弹至今仍在人为监控的情况下使用。
美国最先进的自动武器主要着重防御应用。2003年美国在伊拉克的大型基地遭攻击,美国陆军研发出反火箭、火炮和迫击炮系统来侦测空中威胁,向人类操作员示警。当操作人员按下按钮,该系统可追踪并发射可在空中自行爆炸的弹药来炸毁威胁来源,藉此减少人员伤亡与损害。
华盛顿智库“新美国安全中心”高级研究人员沃克表示:当大量飞弹袭来,人类不可能说:好,你先击毁那个飞弹。作战信息中心的人员没办法跟上飞弹速度,因此美国策划人员发展出方阵近迫武器系统(Phalanx)和神盾战斗系统,这可以连结到船舰和飞机上的感应器辨认空中威胁,操作人员输入资料后,可自动发射舰上飞弹攻击。这些系统已被事先安排好,只要人类在某个时间点按下按钮,机器就可做出一切决定。在沃克看来,致命自动武器的定义为:一旦人类解除限制,便可独立决定摧毁对象与目标的武器。
沃克于2014年~2017年担任美国国防部副部长,当时他负责执行国防部的“第三次抵消战略”,即利用美军军事最核心的创新科技来打击敌人的可能优势。美国第一次抵消战略在美国前总统艾森豪威尔任内实施,旨在建立美国核优势;第二次在上世纪七八十年代,强调美国计算机和导弹科技;第三次抵消战略结合人类与机器的优点,利用人工智能、机器自动化来打造更快、更聪明的网络。
独立致命武器的支持派认为,机器可降低错误发生率,机器人可在几毫秒内分析人类想象不到的大量数据,并判断出使用武器限制损害的最佳时间点。但是反对派表示,一旦致命机器人犯错,将招致更血腥的严重冲突,这需要自动武器持有国相互合作与约束。
联合国工作组织也拟定方向,作为未来国际自动杀人机器人的规范,希望让制造商承担更多责任。联合国召开为期五天的联合国特定传统武器公约(CCW)会议,希望可制定自动武器的管理规范。虽然多数国家支持自动武器在某种程度上由手动控制,但却难以解释“实务上有效人为控制的意义”,因此外交官认为达成条约的机会不高。
美国海军战争学院军事伦理教授波林·尚克斯·考林表示,人类会谴责某种行动或将之合理化,这牵涉到人类会判断这些行动是否符合道德,如果今天不是人类作决定,那这就变成机器对机器的问题了。
特斯拉创办人马斯克、已故英国理论物理学家霍金、苹果共同创办人沃兹尼克及多位人工智能研究人员于2015年曾签署一封公开信,其中警告自动武器可能成为暗杀、颠覆国家、压迫人民和选择性杀害特定种族的工具。马斯克曾指出,人工智能武器恐成人类最大威胁,一旦打开了潘多拉的盒子,就再也关不上了。
尽管如此,沃克对道德问题的看法显得稍加乐观,他认为未来人类不用过分担心将控制权交给自动武器代理,但他坦言人类必须采取行动,而且还有漫漫长路需要努力。