张蓓蓓
摘要:机载传感器信息融合技术能够将多个传感器探测的信息进行智能分析和综合,使作战飞机快速获得战场全局态势感知、精确的目标参数和威胁评估信息,辅助飞行员提高决策效率。由于涉及的传感器种类繁多且融合策略复杂,飞行试验中缺乏有效的评估方法对这一综合能力进行考核。针对这一问题,本文通过设计多传感器组合方式、建立评价指标体系以及构建试飞对象典型使用场景和作战场景,提出了一种面向多传感器综合探测的信息融合试飞方法,并在实际试飞过程中加以验证,为机载传感器信息融合功能的验证与改进提供支持。
关键词:信息融合;综合探测;飞行试验;试飞方法;多传感器
中图分类号:V249文献标识码:ADOI:10.19452/j.issn1007-5453.2021.09.004
传感器信息融合的内涵是把来自多平台多传感器的数据加以关联、组合,以获取精确的目标位置估计、完整的目标身份估计,并对战场情况、威胁及其重要程度进行适度估计[1-3]。给飞行员提供更全面、精准的态势信息,去除冗余信息,减少飞行员作战负荷。
信息融合始于1973年美国多声呐信号融合,用于检测敌方潜艇[4],早期称“数据融合”。20世纪80年代末,演变为“信息融合”,信息源由单传感器拓展到多类介质和技术手段,应用拓展到各个领域,如自动目标识别、战场监视、自动飞行器导航、机器人、遥感、医疗诊断、图像处理、模式识别和复杂工业过程控制等[5]。在军事领域,目前该项技术在欧洲“台风”“阵风”,美国F-22、F-35等先进战斗机上均有应用,“台风”战斗机可通过雷达、敌我识别(IFF)、红外搜索和跟踪系统(IRST)、电子支持措施(ESM)系统的数据和数据链获取的外部源数据,为飞行员构建统一的战术态势图,并提供简单的目标提示功能,而F-35通过专门的MADL数据链,与其他武器系统形成态势共享,可支持超视距攻击,具有很强的协同作战能力[6]。如今,国内对无人机、预警机的传感器数据融合已经有了一定的研究[7-9],越来越多的学者也致力于基于深度学习的融合方法的研究[10],在各型飞机上也有相关应用,但是还止步于航迹信息融合与综合识别,与国外还有一定差距。
而在试飞领域,2013年,李靖等[11]在多传感器数据融合技术逐渐开始在机载航电系统中应用时,分析了该项技术的作战应用,设计了基本的试飞方法,为试飞奠定了理论基础。2014年,梁葆华等[12]在此基础上提出了试飞结果的评价方法,并在实际飞行试验中针对光电探测设备和雷达作为传感器输入的融合系统进行了应用。时至今日,随着航电系统的飞速发展,针对三代半飞机的多传感器信息融合技术已经基本成熟,而针对多传感器信息融合综合能力的验证却缺乏有效的考核方案,试飞方法与评估体系的发展尚不完善,亟须建立有效的信息融合试飞方法与评估指标,对这一综合能力进行评判,为机载信息融合技术的发展提供技术支持。
1融合原理
多传感器信息融合利用是雷达、电抗、光电探测设备(光雷)、数据链对目标进行探测与侦察,各传感器形成目标航迹,上报至数据融合软件(DF),而DF针对传感器自身特点,设置合理的融合门限值,对目标同一时刻的位置进行门限判断,从而判定是否融合。
以雷达、光雷目标融合为例,两个传感器同时对目标A进行探测[13],雷达将时标、斜距、方位、俯仰角上报给DF,而光雷将时标、方位、俯仰角、距离上报给DF,各自对目标A形成两条不同的航迹[14],DF根据其上报的目标信息进行门限值判断,当通过门限值次数累计至一定比例后,可对目标进行关联,如图1所示。
航迹融合的具体关联流程为:DF获取不同传感器的时标、经纬度、斜距、方位、俯仰角等信息,结合本机惯导数据对目标信息进行预处理,对于可能融合成功的目标进行粗门限判决,通过后进行时空对准,对该时刻目标的位置信息进行精门限判决,通过门限后进行关联解算,得到多目标融合的信息:目標编号、目标运动信息(位置、速度、航向)、目标识别信息(敌我属性)等,如图2所示。
2面向多传感器综合探测的信息融合试飞方法
机载多传感器信息融合功能通过多源信息的关联和融合,完成目标的位置关联和属性综合,形成对作战区域内各类目标的准确、完整描述,由于融合涉及的传感器类型多且覆盖范围广,如何通过试飞从整体性能出发对融合进行综合全面评估成为最大的难题,基于信息融合使用场景,结合正交试验设计思想,对试飞方法进行设计。通过试飞需求分析、任务分解、指标建立和场景构建,对融合功能进行评估,如图3所示。
2.1试飞需求分析
参与融合的信息源分别为雷达、光雷、电抗、数据链,根据实际飞行中机上态势融合结果,结合试飞总线数据,面向设计,验证融合过程是否符合设计要求,面向使用试飞,验证融合输出精度是否符合使用要求。
2.2信息融合试飞多传感器组合方式设计
(1)面向设计
(2)面向使用试飞
主要考虑部队作战时,雷达受干扰/雷达故障、光雷激光测距失效/光雷故障、电抗故障,地面指挥所向机上发送数据链消息失败等情况,由于传感器故障状态等效于该设备未参与融合,因此可与该设备去除时剩余传感器的组合等效,不再重复验证,剩余组合方式按传感器数量进行分类,见表2。
2.3信息融合评估指标
机载多传感器信息融合主要评估其融合的正确性,以及与基准GPS比较,精度是否满足使用要求。
对于融合正确性的判断,首先判断融合逻辑是否正确,即各传感器是否通过设定的粗门限值与精门限才能进行融合,其次对其设置门限值是否合理进行判断。
2.4试飞场景构建
试飞场景构建原则:(1)对接设计:验证功能是否符合设计原则;(2)对接部队:针对部队日常作战训练时典型使用场景,在试飞时进行侧重。根据以上设计原则,试飞场景构建分两部分进行,其示意图如图4所示。
(1)理想条件下试飞场景
试飞时采用一架载机、一架目标机迎头对飞,在各传感器状态良好条件下开启,对目标机进行探测,验证稳定平飞时各传感器目标融合效果。
(2)作战条件下试飞场景
试飞时采用一架载机、1~2架目标机迎头对飞,对空域内目标机及其他威胁目标进行态势感知,目标机释放干扰,验证作战条件时融合的效果。
3案例应用及分析
选取场景2作战场景,表2对雷达和光雷(测距失效)融合情况进行说明。采用一架载机、一架上势目标机迎头对飞,双机距离80km,雷达、光雷正常工作,光雷不开激光测距,模拟测距功能失效时能否依靠DF对目标信息进行补充,融合输出结果是否正确,精度是否满足使用要求。
3.1融合正确性分析
融合正确性试飞考核主要是判断融合逻辑的正确性,是否在门限内正确融合。首先,在态势画面中该时间段内雷达、光雷目标稳定融合,反推试验数据可发现,试飞中当光雷不开启激光测距时,光雷无法提供目标斜距信息,因此雷达和光雷目标依靠测角门限进行融合,机体系方位角、俯仰角及其门限如图5所示,以雷达数据为基准,画出其上下门限,光雷测角数据均在融合门限内,因此融合正确。
3.2融合精度分析
在融合逻辑正确的基础上,进一步分析融合精度,当光雷激光测距未开启时,光雷无法测得目标距离信息,只能测得其角度信息。
图6(a)为雷达斜距与双机GPS解算斜距对比及误差值计算,融合结果由雷达数据进行输出。图6(b)为机体系方位角与双机GPS解算角度对比及误差值计算,由图中可知,当雷达和光雷同时测出机体系方位角时,以误差更小的雷达数据作为该目标的融合输出。
当光雷激光测距未开启时,光雷只能得到目标机角度信息,距离信息缺失,从融合后的结果看,目标距离由融合后雷达的距离信息进行补充,因此信息融合软件能够对单一传感器探测目标的缺失信息进行补充。当信息冗余时,选取误差更小、更优的传感器数据进行输出。
4结论
面向多传感器综合探测的信息融合利用传感器信息的冗余,提高目标探测识别的准确性、连续性和稳定性,对飞行员快速掌握战场态势信息有极大的帮助。本文从多传感器综合探测的信息融合设计原理出发,构建试飞场景,结合正交试验设计理念选取不同的传感器组合,形成完整的试飞考核方法及评估体系,为后续信息融合试飞提供参考。
参考文献
[1]王永成.机载多传感器信息融合技术研究[D].南京:南京理工大学,2005. Wang Yongcheng.Researchontheinformationfusion technology of airborne multi-sensor[D]. Nanjing: Nanjing University of Science and Technology,2005. (in Chinese)
[2]黃友澎.多传感器多目标航迹相关与数据合成若干关键技术研究[D].哈尔滨:哈尔滨工程大学,2009. Huang Youpeng. Research on several key technologies of multi-sensor multi-target track correlation and data synthesis[D]. Harbin: Harbin Engineering University,2009. (in Chinese)
[3]胡学海.机载多传感器目标信号属性融合研究[D].成都:电子科技大学,2008. Hu Xuehai. Research on airborne multi-sensor target signal attribute fusion[D]. Chengdu: University of Electronic Science and Technology of China, 2008. (in Chinese)
[4]崔硕,姜洪亮,戎辉,等.多传感器信息融合技术综述[J].汽车电器, 2018(9):52-54. Cui Shuo, Jiang Hongliang, Rong Hui, et al. Overview of multi-sensor information fusion technology[J]. Automotive Electronics, 2018(9):52-54. (in Chinese)
[5]王耀南,李树涛.多传感器信息融合及其应用综述[J].控制与决策, 2001, 16(5):518-522. Wang Yaonan, Li Shutao.Overview of multi-sensor information fusion and its applications[J]. Control and Decision, 2001, 16(5):518-522. (in Chinese)
[6]古悅源.机载信息融合的现状与发展[J].电讯技术,2013,53(8):1100-1105. Gu Yueyuan. The status quo and development of airborne information fusion[J]. Telecommunication Technology, 2013,53(8):1100-1105. (in Chinese)
[7]杨华.多传感器数据融合技术在某新型无人旋翼机中的应用[D].南京:南京航空航天大学,2019. Yang Hua. Application of multi-sensor data fusion technology in a new type of unmanned rotorcraft[D]. Nanjing: Nanjing University ofAeronautics andAstronautics, 2019. (in Chinese)
[8]董文方,罗欢吉.预警机多传感器信息融合技术研究[J].航空科学技术, 2012, 21(5):46-48. Dong Wenfang, Luo Huanji. Research on multi-sensor information fusion technology of early warning aircraft[J]. Aeronautical Science & Technology, 2012, 21(5):46-48. (in Chinese)
[9]陈伟,罗华.多传感器信息融合技术与无人机PHM系统[J].航空科学技术, 2009,9(6):6-7. ChenWei,LuoHua.Multi-sensorinformationfusion technology and UAV PHM system[J]. Aeronautical Science & Technology, 2009,9(6):6-7. (in Chinese)
[10]张红,程传祺,徐志刚,等.基于深度学习的数据融合方法研究综述[J].计算机工程与应用,2020,56(24):1-11. Zhang Hong, Cheng Chuanqi, Xu Zhigang, et al. Research review of data fusion methods based on deep learning[J]. Computer Engineering and Applications, 2020, 56(24): 1-11.(in Chinese)
[11]李靖,袁大天,张兴国.多传感器数据融合技术飞行试验方法研究[J].航空电子技术, 2013(3):12-15. Li Jing, Yuan Datian, Zhang Xingguo. Research on flight test method of multi-sensor data fusion technology[J]. Avionics Technology, 2013(3):12-15. (in Chinese)
[12]梁葆华,侯玉宏.机载多传感器信息融合试飞技术研究[J].航空计算技术, 2014(2):128-130. Liang Baohua, Hou Yuhong. Research on airborne multi-sensor information fusion flight test technology[J]. Aeronautical Computing Technology, 2014(2):128-130. (in Chinese)
[13]朱斯平.战场多传感器管理系统研究[D].成都:电子科技大学,2012. Zhu Siping. Research on battlefield multi-sensor management system[D]. Chengdu: University of Electronic Science and Technology of China, 2012. (in Chinese)
[14]Richard O,Yaakov B S,Peter W. Track-to-track association with augmented state[D]. IEEE Transactions on Information Fusion,2011(2):1119-1133.
Information Fusion Flight Test Method for Multi-sensor Comprehensive Detection
Zhang Beibei
Chinese Flight Test Establishment,Xian 710089,China
Abstract: Airborne sensor information fusion technology can intelligently analyze and synthesize information detected by multiple sensors, enabling combat aircraft to quickly obtain global battlefield situational awareness, accurate target parameters and threat assessment information, and assist pilots to improve decision-making efficiency. Due to the variety of sensors involved and the complex fusion strategy, there is a lack of effective methods to assess this comprehensive ability in flight tests. Based on this, this paper proposes an information fusion flight test method for multi-sensor comprehensive detection, which supports the verification of the airborne sensor information fusion function by constructing typical use scenarios of test flight objects, designing multi-sensor combination methods, and establishing evaluation indicators based on flight test results.
Key Words: information fusion; comprehensive detection; flight test; flight test method; multi-sensor