王庐华
摘 要:利用深度展开的方法来设计深度神经网络在如今成为了一种经典的优化方法。文章提出了一种新的基于深度学习和压缩感知的重构算法用于序列信号重构。该模型设计理念是通过用近端梯度下降方法来对模型做迭代展开。在MNIST数据集上的实验表明,该模型表现要优于一些先进的基于压缩感知的模型以及其他基于循环神经网络的模型。
关键词:稀疏信号重构;深度学习;循环神经网络
0 引言
从小部分随机测量值中重构一个稀疏信号是许多工程任务中的基础问题,包括生物工程,模式识别,无线通信等。现存的解决方案主要分为两种:一种是传统的基于压缩感知的算法[1],它主要是利用信号的稀疏性和结构先验来从无限的可能解中找到唯一的真实解。然而,这种方法的缺点是在重构算法中,信号的先验的手写设计受限于一些通用先验,例如稀疏性和一些已知支撑,所以往往只能取得有限的重构效果。另一种方案则是利用大量数据集和深度神经网络[2],对原信号和重构信号直接映射,利用深度神经网络强大的学习能力来对信号进行重构。但这种方法存在以下弊端:第一,在许多实际问题上,可能并没有足够多的数据可以用来训练。第二,深度神经网络把信号重构问题视作一个“黑盒”,从而弱化了一些已知先验信息的作用。本文提出了一种折中的方式,通过深度展开的方法将两种方案的优点结合起来,即同时利用信号先验和神经网络的学习能力,从而可以在有限的数据集上大幅度提高信号的重构效果。
1 方法详述
本文所提的方案主要用于解决序列稀疏信号重构问题。问题的数学模型可以表述为:
其中,Ω表示已知的先验信息,方便起见,本文考虑其中一类子问题:
其中,h是一个K维的稀疏向量,F代表两个相邻系数信号之间的映射关系。λ1和λ2代表着正则化参数,均为非负值。注意到表达式(2)是由一个二范数代表的光滑可微项和两个一范数之和代表的非光滑项组合而成,因此本文利用近端梯度下降方法[3]和软阈值方法[4]对(1)式进行求解。本文所使用的软阈值方法如图1所示。
利用上述方法推导之后,得到h的第k轮迭代过程的表达式可以表述成:
其中,C代表F与上一时刻的信号h的乘积,D是小波基字典,A是随机生成的高斯测量矩阵。下面简述所提算法的具体实现流程:
(1)输入。高斯测量矩阵,原始信号y。
(2)输出。重构信号的稀疏表示x。第一,遍历所有时间序列。第二,在每个时间刻进行K轮迭代。第三,每一轮迭代过程中利用软阈值算法得到该轮的重构信号值。第四,将上述得到的重构信号代入(2)式,重复迭代。第五,直到迭代次数达到K为止。
2 实验结果
本文的实验数据选择的是MNIST数据集,首先需要对数据进行预处理,裁剪出中央部分,使得裁剪后的图片大小尺寸为128*128像素点。处理后的图片一共有40 000张,其中训练集是从其中随机挑选的32 000张图片组成,剩余的数据则用作测试集。
为了证明本文模型的有效性,本文也选择了几种基于传统压缩感知的方法和基于深度学习的方法用作比较,包括BP, IRL1,MCS,LSTM等。其中,前三种属于传统算法,是利用信号的先验信息来对信号进行恢复,因此模型并不需要数据来进行训练。对于LSTM而言,它是隶属于深度学习的模型方法,本质上是一个多层的RNN模型。在这次实验中,笔者将K值均设置为3,即在每一个时刻的迭代次数均为3轮。选择平均均方误差作为训练集的损失函数,其他参数使用的均为默认值。最后,使用PSNR值作为测试信号重构效果的最终指标:
不同采样率下各种方法的PSNR值如表1所示,其展示了在采样率分别为12.5%,25%,37.5%以及50%的情况下,各种方法的表现结果。可以很清晰的看出,在各个采样率之下,该模型都要明显优于其他方法,且随着采样率的提高,这种优势就越为明显。
3 结语
本文提出了一种新的模型方法,结合了目前主流的两类信号重构的优势,利用深度学习强大的学习能力,可以在模型中训练所有参数。同时,需要指出的是,在该模型中,每个参数都具有可编译性,这意味着与一般的深度模型相比,所需要的训练数据量要远远低于正常标准。在MNIST数据集上与其他模型的实验结果显示,该模型取得了最優的重构信号表现。
[参考文献]
[1]石光明,刘丹华,高大化,等.压缩感知理论及其研究进展[J].电子学报,2009(5):1070-1081.
[2]孙志军,薛磊,许阳明,等.深度学习研究综述[J].计算机应用研究,2012(8):2806-2810.
[3]李兴怡,岳洋.梯度下降算法研究综述[J].软件工程,2020(2):1-4.
[4]方勇,戚飞虎.基于软阈值的小波图像增强方法[J].计算机工程与应用,2002(23):16-19.
(编辑 姚 鑫)