高峰
组建军用机器人军团,是压缩军队规模、降低作战人员风险、颠覆现有战争形态的必然选择。军用机器人自问世以来,一直在蓬勃发展的科技加持下不断冲破障碍,一路向前发展。到目前为止,尽管军用机器人家族“人丁”兴旺、种类繁多,然而仍无法满足军队在未来信息化战争中不断增加的需求,当前主要面临以下5个亟需解决的重要问题。
电池性能是决定电动汽车续航里程的最大要素,电源问题同样限制了军用机器人的研发和运用。2019年8月,一名来自伊斯兰国的恐怖分子在操控携带炸弹的小型无人机时,由于忘记充电,导致无人机起飞不久就启动了自返航功能,飞回了恐怖分子的头顶,竟把他自己给炸死了。
受体积、重量和机动性能等的限制,战术级军用机器人大多采用高性能电池供电,如美军的“魔爪机器人”,它根据任务环境,续航时间为3~4小时。想要完成更长时间的工作,就要带上备份电池,这在无形中增加了士兵携带的战斗负载。
那能不能使用燃油发动机呢?中大型高空无人机就可以使用航空发动机,如美国的“全球鹰”无人机可载7000千克燃油,续航时间为42小时,航程高达2.6万千米,一天就能完成约13.7万平方千米区域的侦察,可持续跟踪目标24小时。但出于任务隐蔽性和噪音的考虑,如低空飞行或伴随步兵使用的机器人,则不宜使用燃油发动机。2014年,美国就曾验证过使用燃油发动机驱动新型“大狗”LS3型机器人,燃油足以使用24小时,可载重近200千克,自主持续航程达到32千米,并能通过计算机视觉自动跟随使用者,但由于噪音大,加上无法通过某些特殊地形,LS3项目次年就被取消了。因此,着力解决好高性能电源问题,对战术级的军用机器人尤为关键。
操作过民用无人机的玩家都知道无人机迟钝带来的困扰,总是不能在第一时间发送和接收指令。这就是无人机传输延时造成的结果。大型军用机器人的地面遥控站通常都部署在离应用目标上千千米以外,美军在伊拉克战争中就控制无人机在离站9660千米以外的地点执行任务。大型远程军用机器人主要采用卫星链路通信,尽管对于电波信号的光速而言,这个距离影响不太大,但延时仍是客观存在的。再如,无人机通过“2G-3G-4G-56”网络,传回实时图像和视频等情报信息与地面站进行“人机”的交互控制时,两者之间的传输带宽大小和通信制式各异,必然会影响接发信息的速度。
此外,操作手的思考时间、反应速度以及无人机从接收到信号到转码生成指令再执行的工作流程,也会造成延迟,所以只要“人在回路”控制范围内,延迟问题难以避免。在时间敏感的状况下,几秒钟延迟就能导致任务失败。2002年12月,伊拉克的“米格-25”战斗机和美国携带毒刺空空导弹的“捕食者”无人机爆发空战,双方都发射了导弹,但毫无悬念,“捕食者”无人机被当场击落。可见如何尽量缩短传输延时,对于军用机器人提升即时反应能力尤为关键。
军用机器人能否稳定可靠地执行任务,会严重影响士兵对军用机器人的信心。2006年,美国上一代“魔爪”机器人第一次投入战场时,竟然不受控制地调转枪口狂扫操作手,无奈之下,附近的士兵只能用火箭筒将其摧毁。
无论军用机器人智能化程度多高,也都是由成千上万个元器件组成。系统越复杂,出现硬件或软件故障的可能性就越大,再加上受战场环境、当下天候和能见度等的影响,机器人的作战效果都会打折扣,严重时还危及己方安全。在叙利亚城市作战中,俄罗斯的“天王星-9”无人战车就发生过19次以上的“宕机”事故,另有17次掉线,最少1分钟,最长90分钟。
此外,工作环境严酷也是影响军用机器人发挥功能的重要因素。例如,美军“全球鹰”无人机主计算机的最大工作温度为40.5℃,外界温度过高就可能无法正常工作,在西南亚地区的高温环境下,其传感器也不能发挥作用,迫使美国空军白天不得不把飞机停放在有空调的机库中。
尽管如今半自主机器人已广泛投入使用,美俄军队的高级有人—无人作战系统已投入实战,如陆军阿帕奇武装直升机和灰鹰无人机、海军P-8“海神”反潜机和“人鱼海神”无人机,以及海上蜂群水面艇与微型无人机分系统等都已日趋完善,但由于仍需要人工干预,就作战效率和使用领域而言,仍不能完全做到自主发现、自主判断、自主决定、自主遂行任务。
因此,解决智能化问题,是推动未来全自主机器人进入军事领域的必由之路。由于深度学习技术、算法和计算能力的不断进化发展,人工智能系统在特定的任务中会经常胜过人类。战胜人类围棋高手的2个人工智能系统中,“深蓝”是基于手工规划并且以每秒2亿次的速度进行位置评估的“暴力方式”取胜的,而“阿尔法狗”则采用更智能的机器学习技术来“教会自己”更为复杂的“位置—移动”映射函数,走出了“非人类”的一步棋,逼得李世石离开赛场15分钟来平复心情。由此可见,解决军用机器人的智能化问题,关键是继续摸索底层的机器学习技术,研究类脑智能技术,并且通过开展类脑计算系统、类脑信息处理、多模态感知、自主学习、认知脑模拟和基于神经网络的类脑机器人等关键研发,来提高军用无人机器人系统的认知、学习、推理、决策和计划能力。
在2015年美国“第三次抵消战略”的5个核心建设方向中,第一个就是机器的“自主深度学习系统”。2017年“第三次抵消战略”制定推进的研究重点中,就包括海军自主货物补充平台、自主型水下无人艇和人机组队作战项目,并计划到2025年,使水下自主潜航器能够独立或者协作完成原来由有人潜艇才能执行的任务。
技术问题迟早能解决,但真正最大的威胁是:我们会不会制造出“人类毁灭者”。人类对于全自主军用机器人的态度是非常纠结的:既怕它不来,又怕它乱来。在美国耶鲁大学生物伦理学研究员瓦拉赫等人合著的《道德机器:如何教会机器人辨明是非》中,提到了军用人工智能系统所构成的伦理学问题是最为尖锐的,因为此类系统的任务就是直接杀戮生命,或为杀戮提供间接帮助。
这自然也就牵涉到特定军事暴力行为自身的合法性问题。一方面,如果自主机器人决策及行动是错误的,又如何将犯下错误的机器人战士告上军事法庭呢?另一方面,尽管机器人战士的每一个部件与每一步算法都是人类设计者的产物,但是人类难以预测并控制这些军事自主系统。正如2016年阿尔法狗在圍棋大赛中击败李世石一般,未来具备复杂自适应能力和深度学习能力的全自主机器人,它们自主作出的决策往往是设计者难以判断并超出设计者预期的,自然也就增加了军事自主系统的不可预见性。因此,未来我们能否按照设计初衷去要求自主机器人运作,自主机器人会不会失控?这是一个大问题。电影《终结者》反映的正是人类设计的机器人以人类为敌的恐怖局面。为此,尽管进程缓慢,但科学家仍在加强“伦理决策的程序化”研究,从而为研发并绝对控制机器人提供稳固的理论基础。为了防止出现不可控制的情况,很多科学家纷纷提出限制研发具有致命性自主能力的军用机器人。
作为大势所趋,军用机器人未来将广泛投入战场,我们所应该做的就是要想好该如何去面对它。总之,随着研究的不断深入,一种高智能、多功能、反应快、灵活性好、效率高的机器人群体,将逐步接管某些战斗岗位,军用机器人异军突起的时代已为期不远了。