基于元学习的雷达小样本目标识别方法及改进

2022-05-23 09:15孙晶明虞盛康
系统工程与电子技术 2022年6期
关键词:源域类别样本

孙晶明, 虞盛康, 孙 俊

(1. 南京电子技术研究所, 江苏 南京 210039;2. 中国电子科技集团公司智能感知技术重点实验室, 江苏 南京 210039)

0 引 言

雷达自动目标识别(radar automatic target recognition,RATR)是雷达研究与应用的一个重要领域。高分辨距离像(high resolution range profile,HRRP),即一维距离像,能够反映目标的几何结构、散射点能量分布等特征,且易于获取和处理,是实现实时目标识别的重要雷达特征,因此成为国内外备受关注的研究热点。特别是近年来,随着机器学习特别是深度学习理论的快速发展,RATR性能也随之大幅提升。

由于雷达探测的目标、环境极其复杂,雷达系统性能的限制导致获取的目标信息较为有限。相对于传统的目标探测,目标识别需要测量更深层次的目标特征,将占用更多的时间、频谱、能量等雷达资源,给RATR工程实现造成较强的约束。而且,由于当前较成熟的目标识别技术采用的都是有监督学习,需要大量带标签样本进行训练才能获得较好的性能。另外,HRRP信号因其数据采集环境的不确定性导致同类样本之间也存在较大差异。其特点可以归纳为3个敏感性:姿态敏感性、平移敏感性、幅度敏感性。以这3个敏感性为代表的数据特点给RATR带来巨大挑战。然而在实际雷达探测过程中,特别是实战环境下,受不确定环境、时效性约束、资源受限等条件的制约,很难获取目标的完备数据,使得需要大量且完备数据用于训练的深度算法在面对小样本识别任务时无法得到满意的判别结果,这是深度学习应用于RATR的局限性。

针对RATR的小样本识别问题,目前主要有3大类解决方法。第1类方法是数据生成。文献[12-13]都基于生成对抗网络生成高质量的样本并实现数据增扩,使判别器在标签样本监督学习的基础上得到进一步优化,提高其在小样本条件下的识别能力。第2类方法是迁移学习。通过从大量其他任务的数据中充分挖掘各种判别及表示信息,并将其作为知识或者先验传递到小样本识别任务中,以减轻过拟合问题。文献[15-16]在多任务学习框架下,只使用一个比较复杂的大模型,使用不分帧的所有样本对模型参数进行学习,提高了训练效率,参数估计也更加准确。第3类方法是元学习。元学习的泛化目标和学习内涵使其能够有效提升小样本识别性能,特别是其中的度量学习方法非常简单高效。度量学习的目标是学习一个具有较好泛化能力的图像到嵌入特征空间的映射,然后在嵌入特征空间中直接求解最近邻达到预测分类的目的。该嵌入特征空间的显著特点是:同类之间的图像嵌入特征距离较近,异类之间的图像嵌入特征距离较远。上述三类方法中,数据生成方法可视为从数据角度解决小样本识别问题的方法,迁移学习和元学习方法可视为从模型角度解决小样识别问题的方法。

本文借鉴元学习在图像识别中的应用,建立了适用于HRRP-RATR的基于元学习的小样本识别框架。以卷积神经网络(convolutional neural network,CNN)为主干网络,利用其强大的特征提取和表示学习能力,通过从多个相关任务中学习到的元知识改善新任务的性能。并引入迁移学习思想,提出一种改进的小样本学习方法,针对新任务对网络参数进行微调更新,进一步提升识别精度。基于实测HRRP数据,通过详细的性能对比实验分析了所提方法和元学习、迁移学习方法的应用边界条件,获得了以下有实用价值的结论,可指导算法实际应用:

(1) 训练集和测试集的类别越相近,用训练集学习到的特征对新的小样本识别任务越有用,性能提升越大。类别相关度较大,推荐使用元学习;类别相关度较小,推荐使用迁移学习。

(2) 极小样本条件下,元学习的识别性能优势很明显,其泛化性很突出。当样本增多时,迁移学习的识别性能更稳健。

(3) 元学习的适用条件较苛刻,要求历史积累样本所含目标类别较多。这一点对实测数据积累提出了要求。

(4) 所提方法可显著提升元学习的综合识别性能,具有更突出的识别泛化性,不受样本数和类别相关度的限制。测试集与训练集的类别越不相近,样本越多时,性能改善越明显。

1 两种典型的小样本识别方法

小样本识别在理论上属于小样本学习问题。小样本学习的定义如下:

小样本学习。小样本学习是由经验、任务和性能共同确定的一类典型机器学习问题,其特征是对于任务,经验仅包含少量的有监督信息样本。

由定义1可知,解决小样本学习问题的关键是要引入先验知识,即任何不依赖于当前任务所获取样本的信息。下面简要介绍两种解决小样本学习问题的典型方法:元学习和迁移学习。

1.1 基于元学习的小样本识别方法

针对定义1中的小样本学习问题,元学习主要通过元学习器跨任务提取的元知识改善新任务的性能。元学习器作为先验知识用以引导小样本学习任务。

元学习的代表方法之一为度量学习,也称为相似度学习,采用距离计算的方式度量样本间的相似度。距离函数一般采用欧氏距离或余弦距离等。基于度量学习的元学习方法的识别处理框架,即本文提出的适用于HRRP-RATR的基于元学习的小样本识别框架,如图1所示。该框架具有两个核心模块:特征嵌入模块和距离度量模块。特征嵌入模块将样本映射到特征向量空间,距离度量模块计算出待测样本和已知样本的相似度,则相似度最大(即距离最近)的已知样本所属类别即为待测样本的识别结果。

图1 基于度量学习的元学习方法的识别处理框架

从基于度量学习的元学习方法的识别处理流程可以看出,其实现非常简单,下面结合元学习的学习内涵和泛化目标对元学习方法在小样本识别任务中具有突出的泛化性进行分析。

在元学习的训练阶段,从原训练集中随机采样了一批子集,每个子集(包括1对支撑集和查询集)都对应一个类似目标任务的-way-shot分类任务(表示类别数量,表示每一类样本的数量)。每一轮迭代都对多个任务{}依次进行训练,每个任务训练后特征嵌入模块的参数都会更新。

从元学习的训练过程可以看出,元学习学习的是多个相似任务间存在的共性,不同任务都有一个与自己适配的最优函数,因此元学习是在整个函数空间上做学习,要学习出这些最优函数遵循的共同属性。

普通学习和元学习的目标函数分别为

(1)

(2)

通过对比式(1)和式(2)可以看出,与普通学习只考虑最小化给定任务下训练集上的损失函数不同,元学习的目标函数考虑所有训练任务,最小化其在各自查询集上的损失函数之和。

另一方面,从元学习的训练过程还可以看出,元学习的泛化目标是从多个不同但相关的任务入手,推广到新任务。

普通学习和元学习的评价指标分别为

(3)

(4)

通过对比式(3)和式(4)可以看出,与普通学习只评估给定任务下测试集上的预测准确率不同,元学习评估的是所有测试任务在各自查询集上的平均预测准确率。

因此,从上述对普通学习和元学习的学习内涵和泛化目标两方面的对比可以看出,元学习针对的是小样本、多任务的学习场景,可解决在小样本识别任务中快速学习和快速适应的问题,具有突出的泛化性。

1.2 基于迁移学习的小样本识别方法

不同于元学习,针对定义1中的小样本学习问题,迁移学习将样本充足的源任务中所获取的知识迁移至目标任务,用以改善小样本学习任务的性能。其中迁移的知识即为先验知识。

迁移学习的代表方法之一,基于网络的迁移,即构建参数共享的模型,其中最经典的是微调。首先在源域大样本训练集上预训练一个网络模型,然后将该模型的较浅层参数直接迁移到目标域的网络模型上,再用目标域的少量训练数据进行微调即可,其原理图如图2所示。一般来说,源域和目标域之间的关联性越强,迁移学习从源域数据中学习到的特征(知识)越鲁棒,迁移学习的效果就越好。

图2 基于网络的深度迁移学习方法原理图

2 改进的HRRP小样本识别方法

根据第1节所述的基于元学习的小样本识别方法,本节提出一种改进的小样本识别方法,以进一步提升识别精度。先采用元学习的训练方式,基于源域大样本训练集构建以CNN为主干的特征表示网络,再结合迁移学习思想,针对新任务利用目标域的少量训练数据对网络参数进行微调更新,即可获得适用于目标任务的泛化性突出的识别模型。

需要指出的是,后文中的HRRP均指原始HRRP的幅度信息的简称。

图3给出了改进的元学习小样本识别方法的流程图。整套流程分为3个阶段:训练阶段、迁移阶段和测试阶段。其中训练阶段在源域进行,迁移阶段和测试阶段在目标域进行。训练阶段的数据预处理步骤包括幅度归一化和样本平移扩充,而迁移阶段和测试阶段的数据预处理步骤仅包括幅度归一化。训练阶段基于源域大样本训练集进行网络模型训练,训练完成即得到源域识别模型;迁移阶段在源域识别模型上利用目标域的少量训练数据对网络参数进行微调更新,即得到目标域识别模型;测试阶段利用目标域识别模型对待测样本一一进行判别,得到识别结果。

图3 改进的元学习小样本识别方法流程图

下面对所提方法采用的数据预处理步骤和网络模型进行具体介绍。

2.1 数据预处理

针对HRRP的幅度敏感性问题,采用幅度归一化方式。对于给定的HRRP∈,按极差变换方式进行归一化处理:

(5)

式中:min(·)表示取最小值;max(·)表示取最大值。归一化HRRP的动态范围会统一到[0,1]内。

针对HRRP的平移敏感性问题,采用样本平移扩充方式。对于归一化后的HRRP′∈,按循环平移方式,得到平移后的HRRP″∈。″可以是′的左循环平移或右循环平移。采用这种方式,既解决了平移敏感性问题,也起到了数据增扩的效果。

训练阶段采用幅度归一化和样本平移扩充两步是为了保证源域识别模型具有一定的泛化性;而迁移阶段仅需针对目标任务对模型进行微调,因此不需要再进行样本平移扩充。

2.2 网络模型

所提方法采用的网络模型如图4所示。其特征表示网络(对应图1中的特征嵌入模块)采用CNN,包含5个卷积层,每层都后接一个非线性激活层,以及5个最大池化层。分类器部分(对应图1中的距离度量模块)采用欧氏距离度量,后接一个Softmax输出层。在距离度量时,采用每类支撑集样本特征向量的平均值作为原型,计算查询集样本特征向量到原型的欧式距离。模型输入是经过数据预处理后的HRRP,且每个HRRP的维度是1×1 024。模型输出是各目标类型的近似后验概率分布。该模型的显著特点是采用不同于一般图像识别的一维卷积核。

图4 网络模型结构图

需要指出的是,在图3所示的迁移阶段,需要对图4中最后一个卷积层的参数进行微调更新,以适用于特定的目标任务。而前面几层经过源域大样本训练集的训练,已获得足够的共性特征表示能力,因此不需要进行参数微调。

结合图3和图4可以看出,所提方法的整套流程没有繁琐的数据预处理过程,核心步骤就是网络模型的训练、迁移、测试,且网络模型仅采用5层一维卷积,每层都用64个卷积核,网络宽度统一,模型参数量较小,因而具有较简单的算法逻辑和网络模型,可用于雷达目标识别的工程化应用。

3 性能对比实验与分析

3.1 实验设置

实验数据采用某波段雷达录取的9种飞机目标的实测宽带HRRP数据。其中5种飞机属于P类,另4种飞机属于Q类。该实测数据的有关参数和实验设置情况如表1所示。由表1中信息可知,所有HRRP样本均匀覆盖0°~180°的目标姿态角,且信噪比水平较高,都被预处理为统一维度1×1 024。由于该数据集包含较多的目标类别,并具有目标姿态完备性,因此可被用来验证小样本识别算法的性能,具有一定的代表性。

表1 实验数据设置

原始数据集总共有9×18 000=162 000个样本,按不同的目标类别分为训练集和测试集,然后将训练集和测试集按目标姿态角均匀随机抽取样本,分别分为支撑集和查询集。表1中的=5,10,20,45,90,180,共有6种样本数设置。以=180为例,相当于测试集支撑集中每种目标平均每1°有1个样本,由于HRRP的姿态敏感性,这对于HRRP数据而言属于小样本情况。因此,当持续变小直至=5时,这对于HRRP数据而言属于极小样本情况。

根据测试集任务不同,将实验分为3组,具体目标型号设置如表2所示。

表2 实验分组设置

通过表1和表2可以看出,实验目的就是要探究支撑集样本数和任务相关度这两个关键因素对小样本学习方法的性能影响,以获得不同方法的应用边界条件。其中,任务相关度在这里主要体现为类别相关度,即样本所属类别的相近程度。例如,P1、P3和Q1的样本分别属于3种不同目标,但P1和P3样本的类别相关度高于Q1和P3样本的类别相关度,因为P1和P3同属于P类,而Q1属于Q类,即从大类上看,P1和P3相近,而Q1和P3不相近。

考虑到数据条件的相似性与可比性,主要对比所提方法与元学习、迁移学习两种典型小样本学习方法以及深度学习方法的识别性能。4种方法均采用同样的特征表示网络结构,模型参数设置如图4所示。而且,训练参数(优化器、学习率等)设置都一样,且都不使用正则化。

3.2 实验结果

为了更好地说明方法的性能边界,也同时给出大样本情况下的识别性能方便参照。大样本是指测试集的支撑集样本数为3×16 200。

采用平均识别率作为识别性能评估指标,其计算公式为

(6)

式中:表示第类正确分类的测试集查询集样本数;表示第类总的测试集查询集样本数;是测试集的目标类型数。

实验1的识别性能对比结果如图5所示。此时,测试集选取的3种飞机都来自P类,训练集和测试集的类别组成不相近,即任务相关度较小。可以看到迁移学习的性能优于元学习,且随着样本增多,优势越来越明显。而所提方法的性能始终优于元学习,且性能逼近迁移学习。特别是在样本较多时,如图5中虚线椭圆标示区域,所提方法相对于元学习的性能提升非常明显,最大提升值达到8%。

图5 实验1的识别性能对比图

实验2的识别性能对比结果如图6所示。此时,测试集选取的3种飞机都来自Q类,训练集和测试集的类别组成不相近,即任务相关度小。可以看到元学习、迁移学习、深度学习3种方法的性能曲线相对关系与图5类似,不过此时迁移学习相对于元学习的性能优势更加明显。而所提方法的性能始终优于另外3种方法。特别是在样本较多时,如图6中虚线椭圆标示区域,所提方法相对于元学习的性能提升与图5相比更加明显,最大提升值达到19%。

图6 实验2的识别性能对比图

结合图5和图6所示的识别性能对比结果可知,仅在样本特别少时,元学习的性能才略优于迁移学习;从整体来看,在任务相关度小时,元学习并不适用,迁移学习性能更优,而所提方法相对于元学习的性能提升十分明显。

实验3的识别性能对比结果如图7所示。此时,测试集选取的3种飞机涵盖P类和Q类,训练集和测试集的类别组成相近,即任务相关度大。可以看到在样本特别少时,如图7中虚线椭圆标示区域,元学习相对于迁移学习的性能优势非常明显,最大性能差达到13%;但随着样本增多,元学习的性能逐渐被迁移学习超越。而所提方法的性能始终优于另外3种方法,整体性能提升明显。

从图7的识别性能对比结果可知,在任务相关度大时,用源域大样本训练集学习到的特征对新任务更有用,元学习较适用,特别是在样本极少时,元学习的性能优势十分明显;在样本较多时,迁移学习性能更优;而所提方法的整体性能较其他方法提升明显。

图7 实验3的识别性能对比图

进一步,对图5~图7展示的识别结果进行综合对比可知,在历史积累样本类别较多,与目标任务相关度较大的极小样本情况下,元学习性能优势十分突出;但元学习的适用条件较苛刻,当任务相关度较小时,迁移学习的性能更稳健;所提方法相对于元学习的性能提升非常明显,特别是在任务相关度较小时,样本越多,性能改善越明显。

3.3 实验结论

根据上述实验结果,形成如下基本结论:

(1) 源域和目标域的任务相关度越大,则用源域大样本训练集学习到的特征对新的小样本识别任务越有用,性能提升越大。在任务相关度较大时,元学习性能更优;在任务相关度较小时,迁移学习性能更优。

(2) 极小样本条件下,元学习的识别性能优势很明显,其泛化性很突出。随着样本增多,元学习的识别性能逐渐被迁移学习超越。

(3) 元学习的适用条件较苛刻,要求历史积累样本所含目标类别较多。

(4) 所提方法可显著提升元学习的综合识别性能。源域和目标域的任务相关度越小,样本越多时,性能改善越明显。

4 结 论

本文提出了一种改进的基于元学习的小样本HRRP-RATR方法。以CNN为主干构建特征表示网络,通过从源域大样本训练集中学习到的元知识改善新的小样本识别任务的性能,并引入迁移学习思想,针对新任务对网络参数进行微调更新,全面显著提升识别精度。在实测HRRP数据上进行了详细的性能测试实验和结果分析,获得了4条具有实用价值的结论,可为算法工程化应用提供指导。所提方法与现有技术相比有如下显著优点:

(1) 具有更突出的识别泛化性,不受支撑集样本数和任务相关度的限制;

(2) 相对于元学习方法,识别性能整体提升明显;

(3) 测试集与训练集的类别越不相近,样本越多时,性能改善越明显;

(4) 具有较简单的算法逻辑和网络模型,可用于雷达目标识别的工程化应用。

在未来工作中,需重点考虑的两个小样本目标识别问题是:在小样本场景下,能够达到或者逼近充足样本下的识别性能;在充足样本场景下,识别性能仍然有一定提升。另外,元学习+迁移学习的处理方式可为小样本非合作目标识别提供有效途径,值得进一步深入研究。

猜你喜欢
源域类别样本
论陶瓷刻划花艺术类别与特征
用样本估计总体复习点拨
基于参数字典的多源域自适应学习算法
一起去图书馆吧
规划·样本
随机微分方程的样本Lyapunov二次型估计
从映射理论视角分析《麦田里的守望者》的成长主题
“官员写作”的四个样本
选相纸 打照片