基于改进核极限学习机和集成学习理论的目标机动轨迹预测*

2021-10-10 04:15寇英信奚之飞李战武杨爱武
国防科技大学学报 2021年5期
关键词:机动轨迹神经网络

寇英信,奚之飞,徐 安,李战武,杨爱武

(空军工程大学 航空工程学院, 陕西 西安 710038)

轨迹预测是根据目标的历史运动轨迹,学习和推理其包含的内在信息,进而对目标未来的运动趋势做出合理推测的过程。在空战对抗过程中,对敌方目标的未来运动轨迹做出合理的预测具有重要意义。现代空战获取胜利的关键在于先于敌方形成观察—判断—决策—行动(Observation Orientation Decision Action, OODA)循环,从而达到先发制人的目的[1]。而实现这一切的基础是能够对目标机动轨迹进行精确预测,因此探索一种能够对目标机动轨迹实现准确预测的理论方法具有重要意义。

近几年,对于目标机动轨迹预测方法的研究方向主要分为两种。

一种是参数法,主要包括卡尔曼滤波、α/β滤波以及线性回归等传统预测方法。例如文献[2]针对目标运动模式不断变化、机动幅度较大的情况,提出一种基于多项式卡尔曼滤波的运动轨迹预测算法;文献[3]针对目标历史位置信息存在缺失的情况,提出一种融合系统噪声估计的改进卡尔曼滤波算法;文献[4]针对传统轨迹预测算法存在预测精度低以及算法实时性差的不足,提出一种基于卡尔曼滤波的动态轨迹预测算法;文献[5]针对精确目标运动模型存在高度非线性、数据处理难度大以及预测精度低等问题,提出一种改进的交互式多模型轨迹预测算法。上述预测方法都只适用于目标运动特性相对简单的轨迹预测问题,但是在实际空战中,目标的运动往往是高度复杂的时序动态变化过程,目标的运动受到多种因素的影响,传统的预测算法无法充分学习目标的机动特性;同时,为了更加准确地描述目标的运动,在建模时一般模型的复杂度较高,导致预测算法的实时性和适应性较差,从而无法满足空战对抗的需求。

另一种是以神经网络为核心的非参数预测算法,主要基于目标历史运动数据对目标未来机动轨迹进行预测。例如:文献[6]基于广义回归神经网络(Generalized Regression Neural Network, GRNN)良好的非线性映射能力、高度的容错性以及鲁棒性,提出一种基于GRNN的高超声速飞行器轨迹预测方法;文献[7-8]针对逆传播(Back Propagation,BP)神经网络存在对初值敏感且全局搜索能力较差的不足,分别提出一种基于遗传算法和粒子群算法优化的BP神经网络轨迹预测模型。非参数法不需要建立准确的目标运动模型,也能实现对目标机动轨迹的精确预测,但是这些方法需要通过烦琐冗长的迭代训练才能达到精确预测的目的,并且神经网络在训练的过程中容易陷入局部最优解,因此在实际预测中很难达到最佳的预测效果。

无论是参数法还是非参数法,应用到目标机动轨迹预测中,在实时性、精确性和模型复杂性等方面都存在一定的不足。总体而言,参数方法的特点是预测性能与模型精度成正相关,主要存在模型学习能力不足、难以处理模型内在不确定性及目标运动数据突变影响预测精度等缺点。非参数方法则基于数据挖掘和神经网络[9]等方法根据目标历史机动轨迹数据学习数据变化的内在规律,建立输入输出映射关系。其缺点是预测精度对历史数据的数量和质量依赖程度高,且模型参数确定难度较大。受空战对抗以及空战环境等不确定因素影响,实际目标机动轨迹数据具有较强的非线性、时变性和易受随机噪声影响等特征。现有目标机动轨迹预测建模方法存在模型参数确定困难、预测精度不高和泛化能力较差等不足,难以满足复杂空战环境下的目标机动轨迹预测的要求。此外,采用单一预测模型对目标机动轨迹进行预测时往往采用给定的全部训练样本进行全局建模,导致需要建立具有复杂结构的全局模型对大量样本支撑的复杂假设空间进行全局逼近[10],从而进一步增加预测模型的优化难度。另外,全局预测模型容易出现对样本数据局部信息利用不充分的情况,导致难以完整描述训练样本支持的假设空间,进而影响目标机动轨迹的预测精度。

为了克服参量法和非参量法以及单一全局建模存在的不足,本文提出一种基于改进的(Kernel Extreme Learning Machine, KELM)和集成学习理论的目标机动轨迹预测模型。以AdaBoost.RT算法为集成框架,KELM神经网络为弱预测器,通过不断训练得到强预测器。为了进一步提高模型的预测性能,一方面针对KELM神经网络的预测性能容易受到惩罚系数和核参数的影响的问题,利用改进的蝙蝠算法对这两个参数进行寻优,确定最佳的模型参数;另一方面,考虑到AdaBoost.RT算法存在对阈值敏感的不足,提出一种自适应阈值的AdaBoost.RT算法。

1 核极限学习机

极限学习机(Extreme Learning Machine,ELM)是一种新型性能优良的单隐含层前向神经网络。与传统的神经网络相比,ELM神经网络只需要一步即可确定网络的输出权值,极大地提高了网络的泛化能力和学习效率,具有良好的非线性拟合能力,算法的计算复杂度和搜索空间也大大减小[11]。ELM神经网络的结构如图1所示。

图1 ELM神经网络结构Fig.1 Structure of ELM neural network

(1)

式中,ωi为第i个隐含层节点与输入层节点之间的权值向量;bi为ELM的第i个隐含层节点的阈值;βi为隐含层节点与输出层之间的权值;yj为ELM的输出值;gi(ωi·xj+bi)为第i个隐含层节点的激活函数。

(2)

上述的N个方程可以表述为:

Hβ=T

(3)

H(ω1,…,ωK,b1,…,bK,x1,…,xN)=

(4)

式中:H为ELM神经网络的隐含层输出矩阵;T为样本真实值构成的矩阵。

通过求解Hβ=T的最小二乘解,即可得到最优的权值β*使得实际值与预测值之间的误差趋近于零。根据求解广义逆的相关理论,最优权值可解算为:

β*=H†T

(5)

式中,H†为ELM隐含层输出矩阵的Moore-Penrose广义逆。其值可以通过正交投影法或者采用奇异值分解(Singular Value Decomposition,SVD)等方法解算得到[12]。

在对ELM网络进行训练时,如果ELM神经网络的隐含层节点数与样本数相等,ELM能够零误差拟合所有训练样本。由于在实际应用中需要考虑算法的实时性,故隐含层的节点数通常取值小于训练样本数目,训练样本可能存在复共线性问题[13],从而导致ELM神经网络的稳定性和泛化能力都不太理想。

为了进一步增强ELM算法的泛化能力和稳定性,Huang等[14-15]通过对比分析ELM和支持向量机(Support Vector Machines, SVM)的机理,提出将核函数引入ELM,构造KELM[16]。

1)基于Mercer′s条件定义核矩阵:

(6)

式(6)用核矩阵Ω来代替ELM中的随机矩阵HHT,利用核函数将ELM网络的所有输入样本从低维度空间映射到高维度隐含层特征空间。在核函数的参数设定之后,核矩阵的映射是定量。h(x)为ELM网络隐含层节点的输出函数;核函数K(μ,v)主要采用径向基函数(Radial Basis Function,RBF)核函数、线性核函数和多项式核函数等,通常设定为RBF核函数。

K(μ,v)=exp[-(μ-v2/σ)]

(7)

2)将参数I/C增加到单位对角矩阵HHT中的主对角线元素上,使得单位对角矩阵的特征根不为零,再基于此确定权值向量β*。这样的处理使得ELM具有更好的稳定性和泛化能力。此时的ELM神经网络的输出权值可描述为:

β*=HT(I/C+HHT)-1T

(8)

式中:I为对角矩阵;C为惩罚系数,主要用作平衡结构风险和经验风险之间的比例;HHT是通过核函数将输入样本进行映射得到的。

由以上公式可以得到KELM的输出为:

(9)

式中,KELM模型的输出权值可以描述为:

β=(I/C+ΩELM)-1T

(10)

2 改进的集成学习算法

基于单一的KELM神经网络对目标机动轨迹进行预测时,由于KELM神经网络的预测性能容易受到惩罚系数和核参数的影响,为了提高目标机动轨迹预测的精度,引入集成学习理论,以改进的AdaBoost.RT算法为集成框架,将KELM神经网络作为弱预测器,提出一种基于KELM-AdaBoost.RT算法的目标机动轨迹预测模型。基本思想是预先设定一个阈值φ,利用样本数据对KELM神经网络进行训练,然后根据KELM神经网络的预测结果来更新训练样本的权值,保持各个弱预测器KELM的训练样本不变,基于新的权重对弱预测器继续进行训练,以此不断循环,训练M轮得到M个弱预测器,给每一个弱预测器的输出赋一个权值,将所有弱预测器的输出加权得到最终预测结果。KELM-AdaBoost.RT集成学习算法流程如图2所示。

图2 KELM-AdaBoost.RT集成学习算法流程Fig.2 Flow chart of KELM-AdaBoost.RT integrated learning algorithm

由于AdaBoost.RT算法的性能受阈值的影响较大,数值过大过小都会影响算法的性能,因此阈值的确定难度较大。此外,在样本权重进行更新时,预测精度较低的样本在下一轮迭代中的权重保持不变,导致样本之间的区分度不大。针对AdaBoost.RT算法存在的不足,提出两点改进策略:引入自适应阈值和增加预测误差大的样本权重。改进的KELM-AdaBoost.RT算法实施过程描述如下。

步骤1:确定样本数据和初始化KELM网络。

步骤2:初始化训练样本的权值Dj(i)=1/N(i=1 , 2 ,… ,N),设定算法的初始阈值φj和初始预测误差ej。

(11)

(12)

其中:hj(xi)为训练样本i第j次迭代计算的预测值;ti为真实值。

步骤4:更新预测误差阈值。根据KELM预测误差自适应调整阈值。基于KELM神经网络的训练误差的阈值自适应调整策略为:

(13)

步骤5:更新训练样本权值。计算第j+1轮算法训练样本的权值,其更新公式为:

(14)

其中,Bj为归一化因子。

步骤6:重复上述步骤T轮,得到T个弱预测器KELM,每一个弱预测器的输出可以表示为ft(x)(t=1 , 2 ,…,T),加权得到强预测器输出:

(15)

3 改进的蝙蝠算法

由于KELM的性能与惩罚系数和核参数的选择密切相关,为了提高KELM的预测性能,引入改进的蝙蝠算法(Improved Bat-inspired Algorithm,IBA)对KELM的惩罚系数和核参数进行优化。蝙蝠算法(Bat-inspired Algorithm, BA)相对于经典的粒子群算法引入了局部搜索,具有更好的搜索能力,有助于算法跳出局部最优,因此相对于传统的智能算法具有更好的优化能力。

蝙蝠算法是一种新的元启发式智能优化算法,相较于粒子群算法和遗传算法[17]具有明显的优势。与粒子群算法相似,BA随机初始化种群,蝙蝠个体进行如下位置和速度更新:

fi=fmin+(fmax-fmin)β,β∈[0,1]

(16)

(17)

(18)

BA的独特之处在于其结合了局部搜索。在进行局部搜索时,蝙蝠个体将在最优个体附近采取随机搜索的方式进行局部寻优,具体可以表示[18]为:

Xnew=Xold+εAt

(19)

式中,ε为取值在0和1之间的随机数;At为当前所有蝙蝠群体的平均响度。

随着算法进化程度的增加,蝙蝠个体的响度Ai和强度ri也在不断变化,变化过程可以表述[19]为:

(20)

(21)

其中,α和γ是常量。

每一次迭代计算之后都需要找到最佳位置X*,直到满足算法的结束条件,输出全局最优位置。

蝙蝠算法与粒子群算法、遗传算法等群智能算法相比具有更好的优化性能,但是在收敛精度和收敛速度上还存在着不足。因此,为了提高蝙蝠算法的优化性能,避免算法陷入局部最优解,提高算法的收敛速度和精度,本文借鉴粒子群算法寻优过程[20]。借鉴粒子群算法的粒子位置更新策略,以提高算法的局部搜索能力和优化精度[21],对蝙蝠局部搜索策略做出以下改变:

(22)

式中,β和ρ为取值在0和1之间的随机数。

为了使算法的局部搜索能力和全局搜索能力达到平衡,将脉冲速率变化率α改进为动态变化的参数,借鉴模拟退火算法中冷却进程表中的冷却因素,对其进行如下改进[22]:

(23)

4 基于改进的蝙蝠算法优化的KELM-AdaBoost.RT目标机动轨迹预测模型

针对目标机动轨迹预测问题,将改进的AdaBoost.RT算法与经过改进蝙蝠算法优化的KELM神经网络相结合,提出一种基于改进蝙蝠算法优化的KELM-AdaBoost.RT目标机动轨迹预测模型,流程如图3所示,具体实施步骤如下所示。

步骤1:输入训练样本数据,初始化蝙蝠算法以及AdaBoost.RT算法的参数。

步骤2:采用改进的蝙蝠算法优化KELM神经网络的参数。

步骤3:利用改进的蝙蝠算法优化的KELM神经网络进行训练,生成弱预测器,用训练好的弱预测器对所有训练样本进行预测并计算预测误差。基于弱预测器的预测误差对样本权值和算法阈值进行调整,直至满足算法终止条件,得到基于若干个KELM弱预测器构成的强预测器。

步骤4:利用训练好的强预测器对目标未来机动轨迹进行预测,输出预测结果。

图3 目标机动轨迹预测流程Fig.3 Flow diagram of the target maneuver trajectory forecasting

5 仿真分析

5.1 数据预处理

利用从空战对抗训练系统(Air Combat Maneuvering Instrument,ACMI)中提出的时间连续的4 000组飞行轨迹数据,数据之间的间隔为0.25 s,每一个数据组包括目标的三维坐标。以对目标轨迹x坐标进行预测为例,假设利用目标n个历史轨迹数据,预测第n+1时刻的目标轨迹x坐标。输入与输出之间的函数关系可表达为:

x1+n=f(Xn)

(24)

式中:x1+n为第n+1时刻模型的输出;Xn为第n+1时刻模型的输入。对于预测模型的输入数据,可以通过采用C-C法对历史目标机动轨迹x坐标时间序列进行相空间重构得到,可表示为:

(25)

式中:τ为时间延迟;m为嵌入维数。

5.2 实验设置

将目标机动三维坐标分离单独进行预测,以x坐标为例,采用C-C法[23]确定时间延迟和嵌入维数,以确定的嵌入维数作为KELM神经网络的输入节点数。由于本文对目标机动轨迹进行单步预测,故输出节点数为1。

各个算法的参数设置如下:KELM神经网络的核函数采用RBF核函数,惩罚参数C和核参数σ通过改进的IBA算法寻优得到;IBA的最大循环次数为200,种群规模为50,蝙蝠的最大和最小频率为2和0,初始化响度为1,脉冲速率为0.5;KELM弱预测器数目为20,阈值初始化为0.2。

将改进前后的BA性能进行了对比,证明了IBA的优越性;在此基础上构建ELM和KELM预测模型,结合AdaBoost.RT算法,分别建立基于ELM-AdaBoost.RT和KELM-AdaBoost.RT的预测模型,同时还构建基于BP和SVM的目标机动轨迹预测模型,仿真对比这六种预测模型性能优劣。

5.3 算法的优化性能对比

5.3.1 算法收敛准则

蝙蝠优化算法的收敛准则是基于整个群体收敛的,以最优群体为搜索目标,但是最终需要的是解空间中的一个最优个体,并不要求整个群体最优。为此基于算法中最优个体保存策略,可以观察到种群最优个体的进化情况。如果最优个体经过若干次进化没有被更新,或者变化的幅度较小,则可以认为算法已经收敛。可以将算法的收敛判断依据表示为:

(26)

如果蝙蝠个体的全局最优位置的适应度值连续ξ次变化满足式(26),则认为算法已经收敛。

5.3.2 算法性能评价指标

为了更加客观准确地评价改进前后蝙蝠算法的性能差异,选取四个评价指标对算法性能进行评价[24]。

1)收敛率(Converge Ratio,CR):算法成功收敛次数与算法执行总次数的比值,反映算法的可收敛性。

2)平均迭代次数(Average Iteration Times,AIT):对算法进行多次仿真实验,得到算法成功收敛时的平均迭代次数,反映算法的收敛速度。

3)平均迭代运行时间 (Average Iteration Running Time,AIRT):算法运行最大迭代次数所需的平均中央处理器(Central Processing Unit,CPU)时间,反映算法的实时性。

4)迭代次数标准偏差(Iteration Times Standard Deviation,ITSD):算法成功收敛时迭代次数的标准偏差,反映算法的收敛稳定性。

5.3.3 仿真实验与结果分析

在对目标机动轨迹的三维坐标分别建立模型进行预测时,采用IBA对KELM神经网络进行优化。为了对比改进前后的蝙蝠算法性能变化,分别采用改进前后的蝙蝠对KELM神经网络进行30次优化仿真,算法性能对比见表1。

表1 算法性能对比

评价指标CR体现了算法的收敛性,CR越大,这说明算法的收敛性越好,通过表1中CR的数值可以看出,改进策略能有效提高蝙蝠算法的收敛性;评价指标AIT体现了算法的收敛速度,AIT越小,则算法的收敛速度越快,通过表中的AIT数值可知,改进之后的蝙蝠算法收敛速度明显加快;评价指标ITSD反映了算法性能的稳定性,通过表中数值可知,改进之后的蝙蝠算法优化同一个问题的性能更加稳定;评价指标AIRT反映了算法的实时性,通过表1可以看出,改进之后的算法实时性有一定程度的降低,这是由于改进之后的算法的复杂度变高了,从而影响了算法的实时性。

通过图4中算法的平均适应度下降曲线对算法的收敛过程做进一步分析。在图4(a)中,BA和IBA的适应度函数值达到稳定时的迭代次数分别是87,72;在图4(b)中,BA和IBA的适应度函数值达到稳定时的迭代次数分别是96,82;在图4(c)中,BA和IBA的适应度函数值达到稳定时的迭代次数分别是113,68。这说明IBA收敛速度更快。通过图4可以看出,IBA对KELM进行优化时的最终收敛数值都小于BA,这说明IBA具有更佳的收敛精度,适用于优化KELM算法参数。

(a) X坐标下平均收敛曲线对比(a) Comparison of average convergence curve in X coordinate

5.4 预测模型仿真对比分析

利用ACMI记录的目标机动轨迹历史数据对KELM神经网络进行训练,使其具备预测目标未来机动轨迹的能力。不仅KELM神经网络的参数会对其学习和预测能力造成影响,KELM神经网络的训练样本规模也会对其性能造成影响。因此,在确定KELM输入输出结构以及网络参数的基础上,研究和分析样本大小对预测误差的影响尤为重要。

为了更加客观地评价本文预测模型的有效性,从ACMI系统中提取两组数据作为预测模型训练和测试的样本数据,样本设置见表2。

表2 仿真样本设置

表2中大样本的训练数据包含了小样本的训练数据。根据六个预测模型的预测结果,绘制BP,ELM,KELM,ELM-AdaBoost.RT,KELM-AdaBoost.RT和SVM模型基于不同规模样本数据的预测结果对比图。仿真分为两个部分:第一个部分采用样本1中的大小样本,样本1中的大小样本的数量差异不大,通过该样本对比说明训练样本的变化是否会对模型的预测结果造成影响;第二个部分采用样本2进行仿真实验,样本2的大小样本的训练数据存在量级差异,通过该样本对比说明样本的量级差异将会对模型的预测结果产生一定的影响。

为了进一步检测目标机动轨迹预测模型的预测效果,用平均绝对误差(Mean Absolute Error, MAE)、均方误差(Mean Square Error, MSE)、归一化均方误差(Normalized Mean Square Error, NMSE)以及相关系数(Correlation coefficient, Cor)等指标对模型预测性能进行评价,定义如下所示:

(27)

(28)

(29)

(30)

5.4.1 样本数量差异仿真

图5~7为目标预测结果对比情况。通过图5~7中的BP、SVM、ELM以及KELM模型的预测结果以及误差对比可以看出,四种预测模型的预测值与目标机动轨迹的实际值的变化大体上保持一致,这说明四种基本模型可以对目标机动轨迹进行有效预测。但是从整体上可以看出,基本的KELM模型预测结果相较于其他模型更加接近真实值。

通过图5~7中的ELM、ELM-AdaBoost.RT、KELM以及KELM-AdaBoost.RT模型的预测结果以及误差对比可以看出,结合了AdaBoost.RT算法的ELM和KELM模型的预测结果相较于基本的ELM和KELM模型而言误差更小,且在目标机动轨迹波动时也能对其进行很好的预测,这些都说明AdaBoost.RT算法能够有效提高弱预测器的预测性能,并且具有更好的泛化性能。

通过图5~7中的图(a)和图(b)对比可以看出,训练样本较小差异将会对模型预测结果造成影响,同时也可以看出本文预测模型可以处理样本较少的情况。通过曲线对比可以初步看出,训练样本规模较大时,模型的预测结果更加精确,并且在数据波动时的预测效果也表现得更好一些。

(a) 样本量为2 499(a) Sample size was 2 499

(a) 样本量为2 499(a) Sample size was 2 499

(a) 样本量为2 499(a) Sample size was 2 499

为了进一步说明本文预测算法的预测效果,表3~5定量比较了BP,ELM,KELM,ELM-AdaBoost.RT,ELM-AdaBoost.RT和SVM模型基于不同规模样本数据的预测性能。

通过表3~5数据可以发现,与小样本的预测结果相比,较大的样本量将导致神经网络在预测过程中生成的MAE、MSE和NMSE略有减小,同时相关系数Cor也略有增加,这说明预测结果与真实值之间的接近程度高,可以很好地反映真实数据的情况。通过数据分析可知,MAE、MSE、NMSE算法性能评价指标与样本量的大小呈负相关,样本容量越大,评价指标的数值越小;而相关系数Cor与样本量成正相关,这些都可以说明样本的大小将会对预测性能产生一定的影响。从算法预测机理上对上述现象进行分析可知,较大的样本量可以更好地训练预测模型,使得模型可以更好地学习和了解目标历史机动轨迹的内在规律,从而可以实现对目标未来机动轨迹更精确的预测。因此,样本量越大,训练之后的预测模型中包含的目标运动的历史信息就越多,误差也就越小。

表3 不同预测模型对目标X坐标预测性能对比

表4 不同预测模型对目标Y坐标预测性能对比

表5 不同预测模型对目标Z坐标预测性能对比

通过表3~5可以看出,结合了AdaBoos.RT算法的ELM和KELM模型的预测性能相较于基本的ELM和KELM模型而言更优,这些都充分说明AdaBoos.RT算法能够有效提高弱预测器的预测性能。

5.4.2 样本量级差异仿真

为了进一步说明训练样本的规模差异将对模型的预测结果造成一定程度的影响,利用样本2进行仿真验证。在进行仿真实验时,将大小样本的规模设置为300和3 000,从而体现大小样本之间的量级差异对模型预测结果的影响。基于大小样本采用六种预测模型的预测结果对比如图8~10所示。

(a) 样本量为300(a) Sample size was 300

通过图8~10的对比结果,结合5.4.1节中的仿真结果可以看出,不论是样本规模存在量级差异,还是仅仅存在一定的数量差异,都会对模型的预测结果产生一定的影响。通过模型的预测性能的对比分析,可以进一步分析样本规模的量级差异对模型预测效果的影响程度。表6~8给出了六种预测模型基于不同规模样本的预测性能。

(a) 样本量为300(a) Sample size was 300

(a) 样本量为300(a) Sample size was 300

通过对比表3~5与表6~8中对应预测模型的性能指标,可以看出,样本规模差异越大,模型的预测性能差异也越明显。通过对比指标数据可以看出,样本的规模的不同导致了部分算法的MSE和NMSE指标出现量级差异,这都充分说明了训练样本的规模将会对模型的预测性能造成较大的影响。同时,也可以看出本文预测模型可以处理样本的较少的情况,模型的泛化能力较强。本质上,样本的大小反映了模型可以学习的历史信息的多少,历史信息越多,模型的预测结构越完整,泛化能力越强,从而模型的预测性能也越好。

表6 不同预测模型对目标X坐标预测性能对比

表7 不同预测模型对目标Y坐标预测性能对比

表8 不同预测模型对目标Z坐标预测性能对比

6 结论

针对目标机动轨迹预测问题,借鉴集成学习理论,将集成学习理论与KELM神经网络相结合,构造一种基于KELM的强预测器模型。基于ACMI记录的目标历史机动轨迹数据,对模型进行训练学习,进而将其应用于目标机动轨迹预测。基于理论分析和仿真验证,可以得到以下结论:

1)从算法性能指标对比结果来看,KELM-AdaBoost.RT模型以及ELM-AdaBoost.RT模型的预测结果相较于KELM预测模型和ELM预测模型好。这些说明基础学习理论可以有效提高弱预测器KELM的预测精度。

2)通过仿真充分验证了训练模型的样本大小将会对预测模型的性能产生较大的影响,训练样本越大,模型的预测性能越好。

3)多组仿真实验验证了基于改进KELM和集成学习理论的预测模型具有良好的泛化性能和预测性能,因此本文算法不仅可以应用于目标机动轨迹预测,还可以应用于其他空战问题研究。

猜你喜欢
机动轨迹神经网络
基于神经网络的船舶电力系统故障诊断方法
解析几何中的轨迹方程的常用求法
MIV-PSO-BP神经网络用户热负荷预测
基于改进Hopfield神经网络的对地攻击型无人机自主能力评价
What Are the Different Types of Robots?
轨迹
轨迹
12万亩机动地不再“流浪”
机动三轮车的昨天、今天和明天
三次样条和二次删除相辅助的WASD神经网络与日本人口预测