基于深度学习的信源数估计方法

2019-08-07 08:44麻凯利王川川
航天电子对抗 2019年3期
关键词:时频卷积神经网络

麻凯利,王川川

(电子信息系统复杂电磁环境效应国家重点实验室,河南 洛阳 471003)

0 引言

盲源分离(BBS) 自20世纪80年代开始发展,是一种非常实用的信号处理方法,指的是从混合的观测信号中提取、分离出无法直接得到的原始信号的技术。空间谱技术中大部分算法需要知道入射信号数N,以此作为盲源分离的前提和基础,因而辐射源个数估计也一直是研究的热点和难点。

现在信源数估计的主要算法有:信息论准则[1]、矩阵分解法、盖氏圆准则(GDE)[2]和正则相关技术。其中信息论准则适用于阵元接收的噪声是高斯白噪声的场合,而实际环境中更多地存在有色噪声,在有色噪声的干扰下,算法性能会受很大影响。矩阵分解法需要接收的信号有比较高的信噪比。在有色噪声的环境下可以使用盖氏圆准则和正则相关技术对信源数作有效的估计,但是正则相关技术的信源数估计需要有两个分开阵列的接收信号,因而使用的阵列需要满足一定的孔径。盖氏圆准则因为其在低信噪比的情况下正确率比信息论准则和矩阵分解法要高,而且在有色噪声的情况下仍然可以有效估计信源数,所以得到了广泛使用。

盖氏圆准则设计中存在人为确定调整因子的问题,因而整个过程不能完全自动处理,并且需要进行奇异值分解,计算量较大。GDE准则法在低信噪比条件下检测性能也不尽如人意。使用基于深度学习的命名为3CPB的模型,则可以使系统在数据中自适应地调整参数,不但识别性能得到改善,而且避免了人为因素造成的影响。

将信号转换为二维时频图[3]之后使用深度卷积网络来对信号进行分析[4]是现下技术水平中一个可行的路线。但这其中涉及到网络结构的设计与优化、网络参数的选择等。深度学习技术在信号分析中的使用更多的是浅层网络的使用,近几年优秀的网络结构还没有能引入到信号处理的网络中来提高信号源数估计的性能。在综合考虑网络的规模、结构、参数之后,可以使用端到端的卷积神经网络来对信号源的数目进行一个准确的估计,在源数估计问题上开辟一个新的技术路线。

1 神经网络理论

深度学习中主要使用的是多层神经网络,其主要分为前向神经网络(FNN)和递归神经网络(RNN)两种。最普遍的神经网络类型是前向网络,其设计基础是受到人类大脑皮层结构的启发,网络由一层一层的计算单元叠加而成,每层的输出进行一定的变换并作为下一层的输入,每层计算单元由数量固定的神经元组成。在每个网络模型中,首层是输入层,最后一层为输出层,中间所有的层都叫做隐含层。前向网络中,数据从输入层开始,经过数个隐含层的变换,自底向上的传递,并经过输出层得出计算结果,网络结构是有个有向无环图。图1展示了前向神经网络和递归神经网络的几种结构示例,箭头代表了数据的传递方向,方框代表了每个计算层。本节以前向网络为基础介绍神经网络中一些基础概念。在计算机视觉中前向网络针对图像的二维矩阵特性发展为一种卷积神经网络(CNN),由于其结构的特殊性,本文在下一节介绍卷积神经网络的相关知识。

图1 神经网络的常见结构

1.1 神经网络的前向传播

前向传播是数据从输入层,经过隐含层的变换最终从输出层得到计算结果的一系列计算过程。以形式较为简单的分类神经网络为例,样本的输入为x,样本的标签为y,隐含层中使用的非线性激活函数为σ。则输入层下一层的隐含层输入为α(1)和激活h(1)之间的关系为:

α(1)=W(1)x+b(1)

(1)

h(1)=σ(a(1))

(2)

式中,W(1)是参数矩阵,是与输入数据维度对应的矩阵数列,需要由训练过程来确定,b(1)为偏差向量,初始为随机数,也是由迭代训练来确定。激活函数σ使用sigmoid函数进行非线性变换。由此步骤将第一层的参数传输到下一层,网络的前向传播依次一层一层向后传播直到网络的输出层。

1.2 神经网络的反向传播

神经网络的训练是一个从后向前依次更新参数的过程,使用梯度下降的方法指导参数更新。因此,计算网络损失函数的值对参数的梯度来说非常重要,反向传播就是通过不断迭代来计算参数梯度的最普遍的方法。由于神经网络层数多,是一个复杂的非线性系统,损失函数的解析式很难得出,因而反向传播以一种一层一层信息传递的方式来迭代进行,在每层计算出每个计算单元中参数的梯度。也就是说,反向传播是一个局部的算法,每次计算的时候只考虑局部的输入输出,不用考虑整个网络模型。

1.3 卷积神经网络

卷积神经网络(CNN)[5-6]是最广泛应用于计算机视觉的一个发展方向。卷积神经网络可以提供多任务的融合以及端到端的训练和测试,使得算法会更简便。卷积神经网络是针对图像所设计的一种特殊的前向神经网络,针对图像二维矩阵数据之间的关联性进行了优化,主要包含卷积层、池化层、全连接层、激活函数层这几种计算层。

1.3.1 卷积层

卷积层是卷积神经网络最有特色的一部分,同时该层中也包含了整个网络中绝大部分的参数。卷积层是对二维输入进行滑动窗卷积,也就是对图像的空域卷积。网络中每一层的节点只与前一层的k×k的局部区域相连接,前一层参与连接的k×k个点构成与之连接的这个节点的感受野,因此,随着层数的增加,感受野也在不同层之后逐渐积累,越来越大。即底层的每个节点对应的图像上的点比较少,感受野小,更上层的节点对应的图像上的点多,感受野大。这在一定程度上也造成了卷积层在前几层提取到的特征较为低级,如边缘、线条、角,而更高层的卷积层提取到更高级的特征。

1.3.2 批量归一化

深度神经网络难以训练的另一个原因是模型是由一层一层的神经网络叠加而构成,每一层作用于前一层之上,训练时每一层权值的调整都是基于上一层的输出。然而,在网络的训练过程中,每一层的参数在变化,输出数据的分布也随之变化,这样,网络每一层输入数据的分布受到之前所有层的影响,这使得权值的更新在拟合一个变动的权值分布,并且网络越深,底层微小的参数变化累积后的效应会更加明显。

这一现象影响了网络训练的速度同时也使网络更加难以训练,Ioffe等人[7]提出了批量归一化(BN),将网络每一层的输入数据的每一维进行归一化。同时,BN 引入尺度参数γ和偏移参数β使得网络的表达能力不下降。BN层的归一化参数与网络参数的训练同步进行。BN极大地提高了网络训练的稳定性和速度,是训练深度神经网络时必用的关键技术。

1.3.3 池化层

池化层主要作用是通过降低数据的大小来减少训练的参数个数,并且可以有效地防止数据过拟合的发生。最常用的方法是最大化池化、平均池化,即在给定池化区域和步长之后,从区域中选择数值最大的点或者区域平均值作为整个区域的代表,这种操作可以提取区域内最有特征的点并增加抗噪能力。

1.4 不同深度的抽象能力

图2 不同层的可视化

池深度学习之所以能有很强的特征表达能力,很大程度上得力于模型有很多个层次结构,不同卷积层能学习到不同抽象程度的特征,图2中展示了使用Zeiler[8]等人设计的卷积神经网络在ImageNet 数据集上学习得到的各层特征的可视化。对于每一个卷积层,图2中展示了其最高的9 个响应值,同时伴随显示了该响应所对应的原图上的感受野。可以看到,卷积神经网络具有强大的特征表示能力,同时,随着网络层数的升高,网络对于图像中的相应面积越来越大,所提取的特征也从底层梯度特征逐渐扩大到高层目标区域特征。

可以看出在卷积层前几层所学习到的特征为边缘、角的特征,而层数加深的时候慢慢学到更抽象的一些概念如轮子、眼睛等,而这种底层特征在不同目标之间是通用的,即在信号数据处理过程中,也存在着神经网络前几层提取的特征较为底层,而随着网络的加深,所提取到的信息更加抽象、更加复杂。

2 基于卷积神经网络的网络结构设计

2.1 单通道信号时频特征提取

估计辐射源信号个数时,要对传感器内接收到的信号进行一定的预处理,文献[9]指出雷达信号时频特征具有唯一可辨识性,因此,在本系统中采用短时傅里叶变换(STFT)将信号表征为二维时频分布。可注意到,一方面变换域同时涵盖了时域和频域的有意调制信息,另一方面可考虑利用图像处理方式处理二维时频图,示例图如图3所示。

图3 几种典型信号的时频图

同时,在卷积网络池化层、权值共享等相关机制的作用下,时频图原本维度过高的缺点也能得到抑制,这也是深度卷积网络在图像上应用的一大特点。

选取7种有代表性的信号来构造训练集、测试集,以验证算法的有效性,即使用线性调频LFM信号、非线性调频NLFM信号、二频率编码BFSK、四频率编码QFSK、二相编码BPSK、四相编码QPSK编码、常规脉冲信号CP这7种典型信号的不同混合来模拟混合信号。图3为二频编码、二相编码、QPSK编码的几个样本。

2.2 网络结构的设计

现有的应用于数据分析的基于神经网络的系统大多只是浅层网络,只包含一个隐含层,并不能将深度卷积网络的特性充分发挥。然而过于深的网络或者过于宽的网络又会出现训练困难、无法收敛或者是过拟合等问题。需要针对具体问题、数据特点设计相应深度、宽度、结构的网络。

2.2.1 网络搭建

在网络结构上,根据实际问题决定网络的深度,一般认为卷积层的个数为网络的深度。同时过深的网络也会导致训练过程容易发散或者网络过拟合的问题。在本问题中,使用3个卷积层,每个卷积层之后都加上池化层,以此减小图片的维度,提取其中有用特征。在分析图3后,认为与普通分类任务相比,时频图的池化操作中更应保持信号的能量,尤其是在较低分辨率的情况下,因而网络中所有的池化层都采用最大池化,如图4中的pool模块。为增强模型非线性表达能力,在每个卷积层后都添加激活层。这个操作在卷积神经网络的设计中基本已经成为标准操作。模型难以在一行中画出, 以数字1、 2表示对应的连接。

图4 3PCB模型结构图

考虑到让网络有更好的训练效果,在2次pooling操作后还分别加入2个批量归一化层,保证网络可以尽快收敛。由于本模型最大的特征是有3个卷积层,及每个卷积层后都有pool池化和Batch Normalization操作,因而为这个模型取名3CPB模型,即3个卷积、池化、批量归一化的线性网络。

2.2.2 Kernel Size

在近几年Alexnet[10]、VGGNe[11]等网络的设计经验中,知道了用更小的卷积核可以使网络在有相同感受野的情况下有更多的非线性表达能力、更少的参数、更容易训练。如一个5×5的卷积核感受野为25,参数为25个。而用3×3的卷积核时,要完成对5×5面积的卷积,则需要2层:第一层卷积后得到3×3的特征图,第二层卷积之后得到1个特征点。小卷积核对相同5×5面积进行滤波一共需要9+1=10个参数,而2层的特征表达能力又会比一层表达能力更强,因而更小的卷积核可以使得计算量更小、网络表达能力更强。因此针对信号源数估计的网络我们普遍采用3×3的卷积核。

3 实验设计

在仿真生成混叠信号时,在添加不同强度的随机高斯噪声的情况下,仿真生成20000组不同数据,其中包括单个信号、不同的2种信号的混叠、不同的3种信号的混叠。每种信号的强度、参数、以及添加的噪声都是随机的。将整个数据集中40%拿出来当作测试集检验模型效果,剩余部分当作训练集。为了加快模型训练、检测速度,将混叠信号的时频图片缩放到32×32大小后作为网络的输入。图5分别为1种、2种、3种信号的混叠。其中图5(a)是二频编码,图5 (b)是二频编码和二相编码信号的混叠,图5 (c)是三种信号的混叠的时频图。其信号源个数分别为1、2、3。

图5 混叠信号时频图

Caffe平台是一个非常流行的深度学习框架,这个模型也基于caffe来构建,训练模型过程中超参选择为迭代60000次、初始学习率设为0.001,学习率固定不变。

对比网络在不同信噪比的情况下对信号源数估计的准确率,同时也对比相同信噪比情况下,不同网络配置时准确率的变化,以找到网络结构对源数估计相关问题的优化方向。

本文在不同信噪比情况下对网络识别的性能进行了对比试验,同时也就池化层的2种方式训练了不同的模型来对照。表1中信噪比-5dB的情况下,池化层是最大化池化的设置确实可以使网络更加精确。在信噪比越高的情况下,识别精度也随之提高。在信噪比10dB的数据集中可以达到98.5%的识别准确率。

表1 不同条件下源数估计准确率

4 结束语

在信号盲源分离领域,针对信号源数估计的问题,本文引入深度学习这一方法。通过将信号变换到时频空间,使用卷积神经网络来进行问题求解。借鉴现有的较成熟的网络结构,针对问题规模、时频图像特征,通过设计、调参、精调等方式使用3CPB模型解决问题。将深度卷积网络引入源数估计领域,为源数估计开辟了除传统方法之外的新的技术路线,使得模型在有色噪声干扰下有较好的识别效果。

猜你喜欢
时频卷积神经网络
基于全卷积神经网络的猪背膘厚快速准确测定
基于神经网络的船舶电力系统故障诊断方法
高阶时频变换理论与应用
MIV-PSO-BP神经网络用户热负荷预测
基于改进Hopfield神经网络的对地攻击型无人机自主能力评价
一种基于卷积神经网络的地磁基准图构建方法
基于3D-Winograd的快速卷积算法设计及FPGA实现
一种并行不对称空洞卷积模块①
基于同步提取变换的滚动轴承微弱特征增强与提取方法
高聚焦时频分析算法研究