摘 要:为了进一步提高传统导向滤波图像融合算法在图像处理过程中的效果,使得融合后的图像能够保留更多的细节信息,在传统的导向滤波图像融合法的基础上,利用非線性的Sigmoid函数可以映射到[0,1]的特性,用其代替原有线性的加权平均,最后得到融合后的图像。通过对实验结果进行对比分析发现,相较于传统的导向滤波图像融合算法,本文经过对权重重新分配后能够有效提高一些图像的融合效果。
关键词:导向滤波;Sigmoid函数;图像融合
中图分类号:TP202 文献标识码:A
Research on Improved Image Fusion Algorithm based on Guided Filtering
GUO Wanling
(School of Science, Zhejiang Sci-Tech University, Hangzhou 310018, China)
Wl-guo@foxmail.com
Abstract: In order to further improve the effect of the traditional guided filtering image fusion algorithm in the image processing process, the fused image can retain more details. Based on traditional guided filtering image fusion method, this paper proposes to replace the original linear weighted average with the non-linear Sigmoid function which can be mapped to the property between zero and one, and finally the fused image is obtained. The experimental results show that compared with the traditional guided filtering image fusion algorithm, the proposed algorithm can effectively improve the fusion effect of some images after redistributing the weights.
Keywords: guided filtering; Sigmoid function; image fusion
1 引言(Introduction)
图像融合[1]广泛应用于医学成像、遥感、计算机视觉和机器人技术等领域。在这些应用中,良好的图像融合方法既不能损坏图像的轮廓及边缘等重要信息,又要使图像清晰,视觉效果好。近年来,研究者们就如何提取源图像中的有效信息、避免重要信息损失,以及振铃效应等问题提出了许多融合规则[2-4]。
针对融合过程中出现边缘轮廓和细节信息易损失的问题,基于小波变换和显著性检测的多聚焦图像融合方法[5],通过小波分解获得包含图像细节信息的高频信息和决定图像轮廓的低频信息。基于导向滤波的融合算法(GFF)[6]则提出了一种利用源图像作为引导图的计算不同幅图像的权重方法,在减少噪声影响的同时提取相关图像的细节。通过将现有的引导滤波和差分图像两种方法巧妙结合,有效地解决了传统方法存在的伪影问题[7]。
大多数融合方法基本上都是通过设计局部滤波器来提取高频细节,并与不同源图像对比计算出清晰度信息从而获取清晰的图像。引入深度神经网络模型[8]的融合策略后,可以学习源图像和焦点图之间的直接映射,并有效提高多聚焦图像边缘融合效果。例如,用传统卷积神经网络思路对聚焦区域像素点分类进行多焦距图像融合[9],可将输入的两张图像对应像素点分类为聚焦点和非聚焦点。本文首先介绍了Sigmoid函数在机器学习中的广泛应用,随后分析了传统导向滤波图像融合算法,利用非线性的Sigmoid函数代替线性的加权平均。实验结果分析发现,一些改进后的融合图像效果更好。
2 Sigmoid函数(Sigmoid function)
Sigmoid函数最早用于模拟人口增长模型,是生物学中常见的S形曲线,其函数图像如图1所示;随后从生物神经网络中得到启发,因其函数特性广泛用作神经网络激活函数。Sigmoid函数又称S函数,是一个单调递增的函数,具有良好的连续性,其数学表达式为:
在机器学习中,Sigmoid函数又称为逻辑回归函数,常用在分类问题上,如逻辑回归模型分类器;它解决了分类函数的突然阶跃问题,将输出值映射到[0,1]且总和为1,使得结果变得更平滑。从概率的角度出发,它对于许多需要将实数转换为概率的机器学习应用程序也很有用。例如,在机器学习模型的最后一层加上S函数,将模型的输出值转换成概率分数,这样更容易处理和解释。S函数作为人工神经网络中的激活函数,给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,在深度学习中非常流行。由于在多层神经网络中的不同点上使用了S函数,神经网络可以被构建成连续的层来获取输入示例的更复杂的特征。其良好的性质也体现在图像处理技术中,如图像边缘检测中用S函数拟合图像边缘[10],满足影像检测定位要求的同时提高了检测速度。在多曝光图像中用S函数拟合的融合算法[11]保留了图像细节,并对动态目标的影响具有良好的鲁棒性。
本文构造了一个S函数满足对任意输入值输出概率为0—1,且所有输入值概率总和为1。这里采用的数学形式为:
3 改进的导向滤波融合方法(Improved guided filtering fusion)
本文在传统导向滤波融合方法(GFF)[6]的基础上,利用非线性的连续光滑的S函数对融合过程中线性的加权平均进行改进。这里我们假定输入的源图像都是经过预处理的图像,该融合算法包括以下几个步骤:
第一步:双尺度分解,将源图像、通过均值滤波器分解为基础层(Base Layer)和,即利用某像素点周边像素的平均值来达到平滑噪声的效果;再用源图像减去基础层分别得到细节层(Detail Layer)和。计算公式分别为:
第二步:显著性映射,提取源图像中突出特征,保留图像的边缘轮廓信息。首先对源图像用拉普拉斯滤波获得高通图像、;接着利用的绝对值的局部平均值获得显著映射、,计算公式如下:
第三步:引导滤波[4],利用空间一致性解决融合图像可能产生伪影这一现象。如果两个相邻像素具有相似的亮度或颜色,则倾向于具有相似的权重。这里的引导图像参考输入的源图像,以充分利用邻域像素之间的强相关性进行权重优化。计算公式如下:
第四步:在这一步中对权重图归一化后分别对基础层和细节层进行融合,这里本文用第二小节中构造的S函数,即式(2),得到新的和。为了使得权重和为1,式(10)和式
(11)中的、为均值。式(12)和式(13)给出了权重图与基础层(细节层)的融合形式。
第五步:图像融合,将融合后的基础层和细节层结合得到融合图像。
4 实验结果分析(Experimental results and analysis)
由于近年來提出了越来越多的融合方法,融合算法的性能评估也变得多样化。从主观评估即融合图像视觉上的直观效果,到图像信息熵以及基于视觉信息保真度的多分辨率图像融合度量(VIFF)[12]等客观的图像融合性能度量都是评估不同融合方案质量的方法。为了验证本文方法的有效性,选取了多组多聚焦图像作为实验图像,并从主客观两方面进行评价。多组实验结论表明该方法的可靠性,由于篇幅有限,本文列举了三组图像融合实验。图2为不同曝光度的两幅源图像进行图像融合实验,图3为不同焦距的两幅源图像进行图像融合实验,图4为动态场景的两幅源图像进行图像融合实验,通过GFF融合算法和本文方法得到相应的融合图像。
从融合图像结果来看,相较于GFF算法,本文的融合算法更能保留源图像中的信息,但因此也导致图像中出现较多的无用信息(含噪音)。对客观评价度量VIFF值进行分析发现,在一些图像上本文融合效果较传统GFF算法有所提高,表1列出了本文中三组实验GFF算法和本文方法的VIFF值。VIFF值是一种新的图像融合评估度量,比其他传统的融合度量具有更低的计算复杂度,且具有更好的预测性能。
5 结论(Conclusion)
由于图像融合是图像处理中的一个重要问题,本文提出了一种改进的导向滤波图像融合算法,该方法在保留输入图像细节信息的基础上,对传统引导滤波利用S函数进行改进,取得了较好的融合效果。实验证实改进后的算法在一些图像的视觉信息保真度上有所提高,说明了本文方法的有效性。在后续的研究工作中,将重点分析该方法在医学成像、遥感等领域的图像融合应用,进一步提升该方法的可靠性与实用性。
参考文献(References)
[1] GOSHTASBY A A, NIKOLOV S. Image fusion: Advances in the state of the art[J]. Information Fusion, 2007, 8(2):114-118.
[2] FARBMAN Z, FATTAL R, LISCHINSKI D, et al. Edge-preserving decompositions for multi-scale tone and detail manipulation[J]. ACM Transactions on Graphics, 2008, 27(3):1-10.
[3] TOMASI C, MANDUCHI R. Bilateral filtering for gray and color images[C]// Institute of Electrical & Electronic Engineers. Sixth International Conference on Computer Vision. USA: IEEE Computer Society, 1998:839-846.
[4] HE K, SUN J, TANG X. Guided image filtering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(6):1397-1409.
[5] 朱世松,瞿佩云.基于小波变换和引导滤波的多聚焦图像融合[J].测控技术,2020,39(09):103-107.
[6] LI S, KANG X, HU J. Image fusion with guided filtering[J]. IEEE Transactions on Image Processing, 2013, 22(7):2864-2875.
[7] 成亚玲,柏智,谭爱平.基于引导滤波和差分图像的多聚焦图像融合方法[J].计算机应用,2021,41(01):220-224.
[8] 刘帆,陈泽华,柴晶.一种基于深度神经网络模型的多聚焦图像融合方法[J].山东大学学报(工学版),2016,46(03):7-13.
[9] LIU Y, CHEN X, PENG H, et al. Multi-focus image fusion with a deep convolutional neural network[J]. Information Fusion, 2017, 36:191-207.
[10] 张舞杰,李迪,叶峰.基于Sigmoid函数拟合的亚像素边缘检测方法[J].华南理工大学学报(自然科学版),2009,37(10):39-43.
[11] 付争方,朱虹,薛杉,等.基于Sigmoid函数拟合的多曝光图像直接融合算法[J].仪器仪表学报,2015,36(10):2321-2329.
[12] HAN Y, CAI Y, CAO Y, et al. A new image fusion performance metric based on visual information fidelity[J]. Information Fusion, 2013, 14(2):127-135.
作者简介:
郭万岭(1994-),女,硕士生.研究领域:图像处理,压缩感知.