基于快速非局部均值和超分辨率重建的图像降噪算法

2021-09-23 09:15李静刘哲黄文准
兵工学报 2021年8期
关键词:分辨率卷积噪声

李静, 刘哲, 黄文准

(西京学院 信息工程学院, 陕西 西安 710123)

0 引言

遥感图像、医学图像、天文图像、合成孔径雷达图像、军用夜视图像等不同领域的图像,在成像和传输过程中都会受到设备本身和外界信号的干扰,造成图像中伴有大量噪声,图像细节被淹没在噪声中;或者导致图像分辨率降低,严重影响图像质量,致使后续的图像分割、图像识别等不能顺利进行。因此,图像降噪和图像超分辨率重建一直以来都是现代图像处理领域的研究热点。

国内外学者利用图像先验模型去噪,如非局部自相似(NSS)模型[1-2]、梯度模型[3]、稀疏字典学习模型[4]和马尔可夫随机场(MRF)模型[5]等,对图像降噪算法进行了大量研究。其中,最经典的是基于三维相似块匹配的去噪算法(BM3D)[2],该算法利用图像块之间的相似性,对具有相似结构的图像块进行三维变换域滤波,取得了很好的降噪效果。后来该算法扩展到彩色图像的降噪(CBM3D)[6]并用外部先验[7]来去除噪声。Buades等[1]基于图像中包含大量自相似结构的特点,提出了非局部均值(NLM)去噪算法。NLM算法充分利用自然图像中存在的大量冗余信息,能更好地保持图像的纹理和细节。

目前,深度学习已成为机器学习领域的发展趋势和研究热点,深度卷积神经网络(DCNN)在图像分割、图像识别和自动驾驶等领域的成功应用为图像降噪问题的解决打开了新思路[8-10],尤其是不同噪声环境下的图像降噪。与传统图像降噪方法相比,DCNN的学习能力更强,网络模型对不同标准噪声的适应能力也更好,拥有更强大的泛化能力。Mao等[11]提出了用于图像降噪的深度卷积编解码网络。Zhang等[12]提出了降噪神经网络(IRCNN)模型。Zhang等[13]提出了一种针对高斯噪声的深度残差学习模型。盖杉等[14]提出一种基于深度学习的高噪声图像去噪算法。

近几年,基于深度学习的图像超分辨率技术得到了学术界的广泛研究。香港中文大学的Dong等[15]首次将卷积神经网络(CNN)引入图像超分辨率重建,构建了超分辨率卷积神经网络(SRCNN)模型,与传统算法相比,虽然该模型取得了更优效果,但收敛速度慢、不同放大倍数需要重新进行训练。针对这些问题, Dong等[16]改进了SRCNN,又提出了Fast-SRCNN(FSRCNN)模型,FSRCNN的训练速度比SRCNN提高了近40倍,而且重构效果更好。Luo等[17]也通过改进SRCNN模型,重建了卫星视频序列并取得很好的效果。Ducournau等[18]将SRCNN模型的中间层参数微调,对卫星拍摄的海表面温度(SST)图进行超分辨率重建,用于后续的数据处理。Shi等[19]提出了有效像素重排卷积网络(ESPCN)。韩国首尔国立大学的Kim等[20]首次把残差学习(RL)与图像超分辨率重建进行融合,利用小卷积核构建了20层非常深的超分辨率卷积网络(VDSR)模型,通过增加感受野来学习图像上下文的关联信息。美国加利福尼亚大学的Lai等[21]提出一种LapSRN模型,该模型采用金字塔结构完成单张图像的超分辨率重构,它既能完成放大倍数为2倍、4倍的超分辨率重建,而且在8倍放大因子处还取得了满意的重构效果。

图像降噪和超分辨率本质上都是对降质图像进行恢复,重建出清晰图像。图像降噪是去除图像中的噪声,受噪声严重污染的图像经过降噪后,往往会丢失很多图像细节,导致图像分辨率降低和图像模糊,而图像超分辨率重建就是将低分辨率图像通过机器学习,重构细节清晰的高分辨率图像。基于此,本文提出了一种基于快速NLM和超分辨率重建相结合的新型图像降噪算法。首先,建立噪声图像样本库和与之对应的清晰图像样本库;接着,利用本文提出的快速NLM降噪算法对含有不同噪声强度的图像样本进行降噪,形成初步降噪后的图像样本训练库,本文称之为低分辨率图像训练样本库;然后,将低分辨率图像训练样本输入到文中提出的深度残差卷积网络(DRCNN),学习低分辨率图像和高分辨率图像之间的残差;最后,将低分辨率图像和残差图像相加,就得到超分辨率重建后的清晰图像。

1 快速NLM降噪算法

1.1 NLM算法原理

NLM算法利用自然图像中普遍存在的冗余性和局部自相似性,通过对具有相似性质的图像块进行加权平均得到降噪后的图像。假设噪声图像的模型为

y=x+v,

(1)

式中:x表示理想无噪声图像;y表示受噪声污染图像;v表示噪声(此处以高斯噪声为例)。设已知一幅含噪图像y={y(i),i∈I},I表示图像域,对于图像中任意一个像素i,运用NLM算法进行降噪,降噪后的图像表示为

(2)

式中:i、j表示像素;Ω表示以像素i为中心的搜索图像区域,其大小为p×p;w为表征像素点i、j之间相似度的权值,

(3)

h为控制滤波器平滑程度的参数,d(i,j)表示N(i)和N(j)之间的高斯加权欧氏距离,

(4)

N(i)和N(j)分别表示以像素i、j为中心,大小为k×k邻域图像块,k和p满足p>k,α为高斯核的标准差。在求欧式距离时,不同位置的像素权重是不一样的,距离块中心越近,权重越大,距离中心越远则权重越小,权重服从高斯分布。NLM算法对像素i滤波时,中心图像块N(i)要与搜索图像区域Ω中的所有图像块N(j)进行相似性比较。假设图像的大小为M×M,NLM算法处理一个像素点需要2p2k2次乘法,处理整幅图像需要2M2p2k2次乘法。因此,NLM算法的计算复杂度为O(M2p2k2),计算复杂度非常高。

1.2 快速NLM算法

如上所述,NLM算法需要逐像素处理,处理每个像素时需要计算以该像素为中心的图像块与搜索区域中每个图像块之间的高斯加权欧氏距离,计算加权欧氏距离需要花费大量时间。本文从高斯加权欧氏距离上着手改进NLM算法。由(4)式可知:

(5)

由(5)式可知:NLM算法中计算d(i,j)用时最多,主要是因为采用了2-范式和高斯加权,很难对算法进行化简。为此,本文用均匀加权代替高斯加权,且认为所有均匀权系数为1.于是,(5)式变换为

(6)

根据NLM算法,N(i)和N(j)是相似块,满足N(i)≈N(j),将此式代入(6)式,为了保证取值的非负性,给结果取绝对值,并将2-范式用1-范式代替得到(7)式:

(7)

由(7)式可知,d(i,j)可以通过求图像块N(i)所有像素值和的平方减去N(j)所有像素值和的平方的绝对值得到。将(7)式代入(3)式和(2)式就得到改进的NLM算法,通过后面的仿真实验可以验证本文所提改进的NLM算法和NLM算法具有相近一致的降噪效果。

假设有一幅图像I,其大小为M×M,用改进的NLM算法对I进行降噪。设搜索窗Ω的大小为p×p,相似窗Ws的大小为k×k,中心窗Wc的大小同为k×k,如图1(a)所示,给出了算法示意图。图1(a)中蓝色方框代表中心窗Wc,黑色标记的点位于Wc的中心,是要处理的中心像素点,红色方框(包含中心的蓝色方框)代表搜索窗Ω.图1(b)中,绿色方框代表相似窗,相似窗Ws以搜索窗的像素点为中心,从搜索窗Ω左上角的像素点开始,逐像素依次遍历所有搜索窗的所有像素,计算中心像素点和搜索窗中每个像素点的相似权重,处理后的中心像素点值等于所有搜索窗像素点值的加权和。

图1 快速NLM示意图Fig.1 Schematic diagram of fast NLM algorithm

利用(7)式计算中心窗和相似窗的近似距离,如果能够快速计算相似窗的所有像素值之和,则算法的复杂度将大大降低。本文用盒子滤波器(Boxfilter)来实现相似窗的所有像素的快速求和。Boxfilter的原理如图1(c)、图1(d)所示,绿色窗口代表相似窗,从搜索窗的左上角开始逐像素进行移动。Boxfilter计算相似窗所有像素之和的步骤如下:

1)开辟一个数组A,其长度等于M.

2)对于第1个最开始的相似窗,分别计算相似窗各列像素之和,存储在数组A中,由图1(c)可知,第1个相似窗的所有像素之和sum1=A(1)+A(2)+A(3)+A(4)+A(5)。

3)相似窗向右移动一个像素距离,只计算新进入一列的像素之和,存储在数组A(6)中,则第2个相似窗的所有像素之和sum2=sum1-A(1)+A(6)。

4)重复上述步骤,直至遍历完搜索窗。

Boxfilter的计算复杂度为O(1),计算一个相似窗和中心窗的近似距离需要2次乘法,总共有p2个相似窗,因此用本文算法处理一个像素需要2p2次乘法,处理整幅图像需要2M2p2次乘法,计算复杂度为O(M2p2)。与传统NLM算法复杂度O(M2p2k2)相比,本文算法的复杂度降低了很多。

2 基于DRCNN的超分辨率重建

2.1 网络结构

本文综合了文献[15]的前馈去噪卷积神经网络(DnCNN)和文献[16]的FSRCNN的特点和优势,建立了如图2所示的用于图像超分辨率重建的DRCNN结构。该网络结构由5个部分组成,每部分均设步长为1×1,通道数为c(灰度图像通道数为1,彩色图像通道数为3)。这5个部分分别是:

图2 网络结构示意图Fig.2 Network structure diagram

1)特征提取层(由特征提取核Conv+激活函数PReLU构成):采用核尺寸为3×3×c的64个卷积核生成64个特征图,使用参数化修正线性单元(PReLU)对特征图进行非线性变换,从而形成非线性特征映射图。

2)降维层(由特征提取核Conv+激活函数PReLU构成):为了降低网络参数,加速网络训练速度,文中采用核尺寸为3×3的32个卷积核,将特征提取层的64个特征图进行降维,收缩成32个特征图。

3)非线性映射层(由特征提取核Conv+批量归一化(BN)+激活函数PReLU构成):非线性映射层由k层Conv+BN+PReLU构成,每层包含32个大小为3×3的卷积核,完成对32个特征图的滤波,并且将BN加在卷积和PReLU之间,以解决网络内部协变量转变的问题。

4)升维层(由特征提取核Conv+激活函数PReLU构成):对应于降维,需要将特征图进行升维,以便重构。经过k个非线性映射层后,用64个大小为3×3的卷积核,将非线性映射层输出的32个特征图升维到64个特征图。

5)重构层(由特征提取核Conv构成):使用c个大小为3×3×64的滤波器重构残差图,在此基础上叠加低分辨图像从而重构超分辨率图像。

2.2 激活函数

DRCNN各层都采用PReLU作为激活函数,其输出为

f(x)=max(x,0)+amin(0,x),

(8)

式中:a为可学习的参数。相比于修正线性单元(ReLU)激活函数,PReLU仅仅增加少许计算量便实现了更高的准确率,而且可以避免ReLU造成的神经元坏死现象。

2.3 损失函数

由于神经网络在反向传播过程中会不断地传播梯度,而当网络深度增加时,梯度在传播过程中会逐渐消失,这样会导致对前面网络层的权重无法有效调制。因此,网络深度越深,模型的准确率并不是越高;相反,当网络深度增加到一定值后,训练精度和测试精度都会迅速下降。

大量文献和实验表明,运用RL可以很好地解决上述问题。因此,本文没有使用从低分辨率图像到高分辨率图像的端到端学习作为训练的损失函数,而是用低分辨率和高分辨率之间的RL,这点不同于以往超分辨率重建方法。假设高分辨图像y是由低分辨率图像x和残差图像v构成,见(9)式,这里的残差图像v的实质是低分辨率图像所丢失的细节图像:

y=x+v.

(9)

接着,利用RL训练残差映射R(y)≈v,然后通过y=x+R(y)计算预测残差图像和期望残差图像之间的均方误差[14]。

目标的损失函数l(w,b)定义如下:

(10)

(11)

式中:λ为学习率;l为参数所在的网络层数。利用(11)式的迭代规则和神经网络前向与后向传导算法,就能得到训练后的网络模型。

2.4 批量归一化

随机梯度下降法(SGD)广泛应用于CNN的训练方法中,该算法虽然有效简单,但是在网络模型训练过程中容易出现内部协变量转移,进而改变网络内部非线性输入的分配,导致网络训练效率降低,训练性能受到影响[14]。为了解决网络内部协变量转移,克服深度神经网络难以训练,有效预防梯度弥散的缺陷,提出了BN. BN就是在每一层非线性处理之前加入标准化、缩放、移位操作来减轻内部协变量的移位,可以给训练带来更快的收敛速度,更好的表现,降低网络对初始化变量的影响。本文中,在前面提出的深度学习网络非线性映射层的每一层非线性化之前引入批量归一化操作,然后结合归一化、缩放、移位变化等操作来解决网络内部协变量转变的问题。每一个激活函数在批量归一化过程中只需要添加两个参数,它们通过反向传播进行更新。这种机制能够加快训练过程的收敛速度,提高模型的精确度,降低模型初始化的敏感性。

2.5 网络深度

根据文献[11]中提出的原则,本文的网络架构移除了网络中所有的池化层,选择卷积核大小为3×3的小卷积核,此举的好处是可以大大减少网络参数。在没有最大池化层和ReLU层的情况下:两个3×3的卷积核组成的卷积层相当于一个5×5的卷积核的卷积层;3个3×3的卷积核组成的卷积层相当于一个7×7的卷积核的卷积层。设通道数为c,3个3×3的卷积核含有27×c个参数,1个7×7的卷积核含有49×c个参数,参数多出81%。另外,3个3×3的卷积核融合3个非线性PReLU,与仅有一个ReLU相比,决策函数更有区分性。

深度为d的卷积神经网络的感受野为(2d+1)×(2d+1),增大感受野可以充分挖掘图像上下文信息,有助于图像中损失信息的恢复,但会增加网络的计算负担,需要网络以牺牲计算资源和计算效率为代价。在文献[19-20]中,研究者指出降噪神经网络的感受野大小与降噪算法中的相似图像块大小有关,即高噪声通常需要更大的相似图像块来捕获更多的上下文信息进行恢复,因此降噪神经网络需要更大的感受野来挖掘图像上下文信息进行降噪,相应的也需要更深的卷积神经网络。基于此,本文选用3×3小卷积块和特征降维的策略,在不降低网络计算速度的同时,通过增加网络深度达到对高噪声进行有效降噪的目的。本文所提DRCNN的感受野大小为35×35,网络深度为17.

3 仿真实验结果与分析

3.1 RL与BN对网络性能影响

本文采用SGD算法对网络进行训练,同时在训练过程中融合了RL和BN来加速训练速度和提高网络收敛性能。图3包含了融合以及未融合RL和BN对网络性能的影响。由图3可以看出:

图3 RL与BN对网络性能影响Fig.3 Influences of RL and BN on network performance

1)同时采用RL和BN进行训练,网络能更快、更稳定的收敛(红线所示);

2)采用RL,不管是否采用BN,相较不采用RL(蓝线和黑线所示)网络的收敛速度和稳定性(红线和绿线所示)都有明显提高。

3)采用BN,不管是否采用RL,相较不采用BN(黑线所示)网络的收敛速度和稳定性(红线和蓝线所示)也都有显著提高。

3.2 训练样本对网络性能影响

训练样本的多少会对网络性能产生影响,通常认为训练样本越多越有助于网络性能的提高,但是样本越多会造成网络训练的负荷过大,导致训练效率低。选择合适的样本量,同时兼顾网络性能和训练效率,这对于深度学习具有重要意义。本文选用不同数量的训练样本量对DRCNN模型性能进行测试,其结果如图4所示。由图4可知:当训练样本数超过200时,网络开始逐步收敛;当训练样本数超过350时,随着训练样本数量的增加,网络性能提高的幅度已经很小,因此本文用400个训练样本对DRCNN模型进行训练。

图4 训练样本数对网络性能的影响Fig.4 Influence of training samples on network performance

3.3 实验设置

3.3.1 训练集和测试集

本文使用文献[22]DIV2K中400张大小为200×200的清晰图像作为原始训练集。根据设计的降噪算法,分别建立噪声样本训练集、低分辨率样本训练集和测试集。噪声样本训练集包括以下两种训练集:

1)建立不同噪声水平的训练集。使用400张大小为200×200的清晰图片建立带有高斯噪声,方差σ分别为15、25、40、60的4种训练集,每个训练集包括128×1 600张大小为53×53的训练样本。

2)建立噪声水平连续变化的噪声训练集。使用400张大小为200×200的清晰图片建立高斯噪声方差σ在区间[0,80]范围内变化的训练集,该训练集包括128×2 400张大小为53×53的训练样本。

用本文所提的快速非局部均值降噪算法对噪声训练集进行降噪,得到相对应的低分辨率样本训练集,其样本数量和大小与噪声样本集相同。对于测试图像,使用3个不同的测试图像集进行全面评估:第一个是来自伯克利分割数据集的68个自然图像(BSD68)[23];另一个是从网络下载和拍摄收集的10个测试图像,如图5所示;最后一个是图像处理领域中常用的12个测试图像,如图6所示。从最后一个图像集中随机选取两个图像,用本文所提算法对其进行降噪处理。

图5 收集的10张测试图像Fig.5 10 collected testing images

图6 常用的12张测试图像集Fig.6 Set of 12 widely used testing images

3.3.2 网络深度的选择

由2.5节分析可知,降噪神经网络的感受野大小与降噪算法中的相似图像块大小有关,即高噪声通常需要更大的相似图像块来捕获更多的上下文信息以进行恢复。深度为d的卷积神经网络的感受野大小为(2d+1)×(2d+1)。在BM3D算法[2]中,小方差的噪声选择25×25大小的相似图像块,高方差的噪声选择49×49的相似图像块。在MLP算法[20]中,首先使用39×39的窗生成预测相似图像块,然后用9×9的窗对预测相似图像块进行平滑。在DnCNN算法中,选择卷积神经网络的感受野大小为35×35,则其网络深度为17. 综合以上分析,为了对不同算法进行分析比较,结合本文降噪算法的特点,DRCNN感受野的大小选为35×35,网络深度为17.

3.3.3 参数设置与网络训练

为了建立统一的网络架构,本文针对低噪声方差和高噪声方差,网络模型的深度都选择为17. 利用快速非局部均值降噪算法对图像降噪时,选择搜索窗的大小为35×35,相似窗的大小为7×7. 利用(10)式计算DRCNN学习的残差映射R(y)与真实的残差y-x之间的损失代价,使其达到最小。DRCNN使用0.000 1的权重衰减系数和衰减率为0.9的SGD优化方法,采用文献[24]的方法初始化网络权重,并采用BN将初始数据分布变成高斯分布,加快了收敛速度。对网络的输入数据采用小批量输入法,mini-batch设置为128. 如果训练误差大小在连续6个epoch训练内固定在某一个值上不变,就停止迭代训练。通过实验,最终对模型进行10个epoch的迭代训练,在训练过程中学习率初始化为1×10-1,当训练误差停止下降时,固定到1×10-4进行模型的训练。

实验环境为基于Windows 10操作系统,在MATLAB 2017a应用环境下,采用Caffe深度学习框架,该框架支持GPU运算,配置INVIDIA CUDA8.0+cuDNN-V5.1深度学习库加速GPU运算。用于训练和测试的硬件配置为:Intel Xeon E3-1230 v5处理器,INVIDIA GeForce GTX 1080 Ti显卡,Kingston DDR4 64GB内存。

3.4 实验分析

本文所提出的降噪算法与现有性能优异的DnCNN[25]、BM3D[26]、TNRD[27]、WNNM[24]经典降噪算法分别从量化指标和视觉效果两个方面进行对比分析。量化指标采用峰值信噪比(PSNR)与结构相似度(SSIM)来衡量模型的降噪效果,视觉效果通过对降噪后的图像进行定性分析来衡量模型的降噪效果。

3.4.1量化分析

表1~表3分别给出了噪声强度σ为15、25、40、50、60时,不同降噪算法对不同测试集图像降噪后的平均PSNR. 表1给出了采用不同降噪算法对BSD68数据集中的15幅图像降噪后的平均PSNR,表2给出了采用不同降噪算法对10个收集的测试图像降噪后的平均PSNR,表3给出了采用不同降噪算法对12张常用测试图像降噪后的平均PSNR. 由表1~表3可以看出,本文提出的算法相比于其他降噪算法,能获得最高的PSNR值。当σ=15时,WNNM算法、TNRD算法的PSNR比BM3D算法至少提高约0.3 dB,DnCNN算法的PSNR比BM3D算法至少提高约0.6 dB,而本文算法的PSNR比BM3D算法至少提高约0.9 dB. 当σ分别为25、40、50、60时,WNNM算法、TNRD算法的PSNR比BM3D算法至少提高约0.3 dB,DnCNN算法的PSNR比BM3D算法至少提高约0.7 dB,尤其是随着噪声的增大,本文所提算法更有优势,PSNR比BM3D算法至少提高约1 dB.

表1 BSD68数据集在不同噪声强度下降噪后的平均PSNRTab.1 The average PSNR results of different methodson BSD68 testing images dB

表2 10个收集的测试图像在不同噪声强度下降噪后的平均PSNRTab.2 The average PSNR results of different methodson 10 collecting testing images dB

表3 12张常用图像在不同噪声强度下降噪后的平均PSNRTab.3 The average PSNR results of different methodson 12 widely used testing images dB

表4给出了在噪声强度σ分别为15、25、40、50、60时,不同降噪算法对所有测试集图像降噪后的平均SSIM值。由表4可以看出,本文所提算法相比于其他降噪算法,能获得最高的SSIM值,而且随着噪声强度的提高,本文算法的优势越明显。当σ=15时,本文算法的SSIM比BM3D算法提高0.017 3;σ=25时,本文算法的SSIM比BM3D算法提高0.017 8;σ=60时,本文算法的SSIM比BM3D算法提高0.067 8. 而随着噪声强度的提高,WNNM算法、TNRD算法、DnCNN算法比BM3D算法的SSIM值增幅不大,不超过0.046 6. 由以上两个量化指标分析结果可知,本文所提算法对确定噪声的降噪性能优于其他经典算法。

表4 所有测试样本在不同噪声强度下降噪后的平均SSIMTab.4 The average SSIM results of different methodson all testing images

表5给出了噪声强度σ在[0,80]范围内变化时,不同降噪算法对所有测试集图像降噪后的平均PSNR和平均SSIM,这也揭示了不同降噪算法的盲降噪性能。由表5可看出,本文算法的盲降噪性能最优,本文算法的平均PSNR比BM3D算法、WNNM算法、TNRD算法、DnCNN算法分别至少高出0.99 dB、0.74 dB、0.8 dB、0.45 dB.

表5 所有测试样本在盲噪声强度下降噪后的平均PSNR和平均SSIMTab.5 The average PSNR and SSIM results of different methods on all testing images

3.4.2 定性分析

图7展示了不同降噪算法对黑白图像降噪后的视觉效果。从图7可以看出,BM3D算法、TNRD算法和WNNM算法易于产生平滑的边缘和纹理。而DnCNN算法在保留锐利边缘和精细细节的同时,很可能在平滑区域产生伪影。相比之下,本文降噪算法不仅可以恢复锐利的边缘和精细的细节,而且会产生比较好的视觉效果。

图7 常用测试图像在噪声强度σ=30下的降噪结果Fig.7 Denoising results with noise level 30

图8展示了本文算法与其他降噪算法对彩色图像降噪的效果图。由图8可以看出,本文降噪算法能够恢复出清晰的书籍边缘和平行桌布的条纹,相较其他算法对图像的恢复质量, 本文算法有大幅提升。同样在图8中, 本文所提盲降噪算法也完美地重建了图中的边缘和条纹, 盲降噪算法的PSNR值高于其他经典的降噪算法。而其他算法生成的图像有明显的振铃现象,且边缘比较模糊。

图8 彩色图像降噪结果Fig.8 Denoising results of color images

3.4.3 运行时间

除了量化分析和视觉效果定性分析外,本文对不同算法的运行时间做了比较分析,如表6表示。表6给出了在图像尺寸分别为256×256和512×512,噪声强度为25时不同降噪算法的运行时间。从表6可以看出,当所有降噪算法都在CPU运行:本文算法运行时间最短,分别用时0.33 s和1.13 s;其次是TNRD算法,用时0.41 s和 1.28 s;WNNM算法耗时最长,分别是194.5 s和724.6 s. 当把TNRD算法、DnCNN算法和本文算法用GPU加速,同样本文算法运行时间最短,耗时分别是0.01 s和0.03 s,能进行实时降噪处理。因此,本文算法的计算效率高于其他经典算法的计算效率。

表6 不同算法在噪声水平为25时的运行时间Tab.6 Run time of different methods with noise level 25

3.5 实验讨论

本文设计了两种实验,一种是已知噪声的降噪实验,另一种是盲噪声降噪实验,这两种实验都采用相同的网络架构,只是网络的训练参数不同。不同于本文算法,DnCNN算法针对两种实验采用了不同的网络架构,网络的深度也不一样。在盲噪声降噪实验中,本文设置的噪声强度变化范围为 [0,80],DnCNN算法设置的噪声强度为[0,55],而TNRD算法、WNNM算法和BM3D算法只讨论已知噪声的降噪实验,已知噪声降噪实验中的最大噪声强度为50,本文算法设置的最大噪声强度为80. 从实验结果可知,本文算法在这两种实验情形下,性能都表现为最优,尤其是高噪声情形,本文算法表现更优,且采用统一的网络架构能够处理各种强度的噪声,方便了应用。

本文算法性能之所以表现优异,主要源于对NLM降噪和基于DRCNN的超分辨率重建进行了结合。NLM充分利用了自然图像中存在的大量冗余信息,能更好地保持图像的细节和纹理,具有较大感受野的DRCNN则是充分利用了大量样本的上下文信息,能够学习到样本中隐含的细节和纹理信息。这两方面优势的结合,使得本文降噪算法具有优异的降噪性能。另外,本文的网络架构采用了降维和升维策略,相比DnCNN算法大大减少了网络参数,算法的运行效率获得了较大提高。

但是,由于基于DRCNN算法的超分辨率重建综合了DnCNN算法和FSRCNN算法的优势,引入了降维和升维策略,因此,网络结构会稍显复杂。

4 结论

本文提出了一种将图像降噪和超分辨率重建相结合的新型图像降噪算法,该算法通过将快速NLM降噪和基于DRCNN的超分辨率重建相结合,并融合RL和BN来加速训练速度和提高网络收敛性能。本文提出的统一网络架构,不但适用于已知噪声水平的降噪,而且适用于噪声水平未知的盲噪声降噪,更为重要的是适用于从低噪声到高噪声变化范围很宽的降噪,同时,得到的降噪图像不存在边缘细节的受损、边界伪影和清晰度变差的问题。另外,本文提出的降噪算法在继承和提高现有经典降噪算法优点的同时,还弥补了它们存在的不足。实验结果表明,相比现有经典降噪算法,本文算法在大大提高计算效率的同时,还得到了更高的PNSR、SSIM与良好的视觉效果,具有很好的实用性和普适性。

猜你喜欢
分辨率卷积噪声
基于全卷积神经网络的猪背膘厚快速准确测定
一种基于卷积神经网络的地磁基准图构建方法
基于3D-Winograd的快速卷积算法设计及FPGA实现
一种并行不对称空洞卷积模块①
基于声类比的仿生圆柱壳流噪声特性研究
好画质不局限于分辨率 探究爱普生4K PRO-UHD的真面目
汽车制造企业噪声综合治理实践
要减少暴露在噪声中吗?
ARM发布显示控制器新品重点强化对分辨率的支持
从600dpi到9600dpi