基于图像内容一致性的盲取证研究进展

2018-05-14 08:55王艳
成都工业学院学报 2018年3期

王艳

摘要:以图像内容认证为代表,针对拼接篡改和区域复制篡改两种典型的篡改手段,分析典型的取证算法思路,对其性能和适用性进行评价,最后总结现有方法存在的不足,并对未来的发展方向和技术路线进行展望。

關键词:盲取证;图像内容认证;拼接篡改;区域复制篡改

中图分类号:TP391.41 文献标志码:A

文章编号:2095-5383(2018)03-0023-05

Abstract: Taking image content authentication as the representative, the typical forensic algorithm ideas of two typical tampering methods, splicing tampering and regional copy tampering, were analyzed in this paper. Then their performance and applicability were evaluated. Finally, the deficiencies of existing methods were summarized, and the future development direction and technical route were pointed out.

Keywords:blind forensics; image content authentication; splicing forgery; copy-past forgery

21世纪,数字图像处理技术飞速发展,图像采集设备成本日益降低,图像处理软件如美图、photoshop等软件的广泛使用,给大家的日常生活增添了乐趣之余,也给犯罪分子提供了可乘之机。若伪造图像被滥用于科学研究、法庭取证、新闻媒体等方面,将会对社会造成难以估计的负面影响。对图像的真实性、完整性进行取证研究成为当前迫切需要解决的问题。

数字图像取证技术在这样的时代背景下应运而生,已成为信息安全领域的研究热点。根据是否需要预先将数字水印或数字签名等验证信息嵌入到图片中,可分为主动取证技术和被动取证技术[1]。主动取证技术在获取图像时就需要将相关验证信息嵌入到其中,通过增加冗余数据为代价以保证图像的安全性。具有生成数字签名或添加水印功能的图像获取设备的成本昂贵,因此限制了其广泛应用。被动取证技术是根据图像本身的内容是否发生变化或者利用图像成像来源设备的内在特性来鉴别图像的真实性、完整性和原始性。由于不依赖于任何先验信息且对图像的获取设备没有特殊要求,又被称为盲取证技术。

目前,数字图像盲取证技术的研究可以分为两大类:基于图像成像设备来源的取证技术和基于图像内容篡改的取证技术。数字成像设备来源取证的理论依据为:不同成像设备生成的图像具有与内容无关的不同内在特征,以此特征为线索可进行图像来源识别。数字图像内容篡改取证是基于图像本身的内容进行篡改取证,又称为数字图像内容一致性取证。图像作为传递信息的重要载体,在实际应用中,人们通常会更加关注图像内容,因此,本文以数字图像内容篡改技术为出发点,分析现有基于图像内容取证的典型算法,总结归纳其优缺点。

数字图像一致性取证是通过寻找一幅图像中是否存在两个或多个内容相同或相似的区域从而判断图像是否经历过篡改操作。根据篡改方式不同可分为拼接篡改和区域复制篡改两种。拼接篡改通过将两幅或者多幅图片合成为一幅图片同时采用特殊的图像处理手段模糊拼接区域边界以达到掩饰篡改痕迹的目的,因此也称为合成图像篡改;而区域复制篡改操作是指将同一幅图像中的一个或多个区域复制并粘贴到本图像中的其他区域以隐藏原图像中的关键信息。

1 拼接篡改检测

由于不同的图像具有不同的统计特征,经拼接篡改操作后的合成图像不同区域的统计特性不尽相同。针对这类篡改图像,可以提取代表图像本身特征的统计量,并将其作为特征向量,采用分类器实现篡改区域和未篡改区域的区分。

由于拼接篡改图像是由多幅图像拼接而成,这一操作会引起篡改图像内各区域之间的边界属性不同,以此为特征可以识别篡改图像。Ng等[2]提出边缘百分比的取证方法,通过边缘检测识别出图像的边缘点并计算边缘点像素占图像总像素的百分比。该值可表征图像不同区域的边界信息,提示了可能存在的篡改区域;不同的相机具有不同的相机相应函数,利用这一特点,Hsu等[3]也提出了一种利用图像边界属性进行图像检测的方法。该方法首先检测待测图像内每个区域的边界特征,然后采用SVM(Support Vector Machines)分类器对边界特征进行分类来确定边界所在的区域是否是篡改区域。显然,Hsu等提出的算法具有局限性,当拼接篡改的两幅或多幅图像均来自于同一相机时,该算法可能会失效。

拍摄场景不同会导致不同图像的光照条件不尽相同,Johnson等[4]以光学的角度出发,找到成像图像强度与物体成像时其光照条件之间的关系,并建立低阶近似线性模型,进而提出根据待测图像估计物体成像时光照参数的方法。检测时,首先估计待测的两幅的成像光照参数向量,然后计算它们之间的归一化互相关。如果计算出的光照参数向量归一化互相关值小于某个预设门限,则认为这些图像是在相同光照条件下拍摄的,否则是在不同光照条件下拍摄的。Johnson在文献中给出了估计光照参数的算法以及利用该特点进行取证的实验结果。

Ng等[2]利用图像归一化双谱的幅度均值和负相位熵作为图像特征用于图像篡改检测,为进一步改善算法性能他还提出预测差异。首先分别求出待测图像与其相应的原始图像的归一化双谱的幅度均值和负相位熵,然后求其差值,最后利用SVM分类器待测图像中的篡改区域。实验表明,采用上述统计量作为特征时,正确取证率约为71.5%。

Fu等[5]以图像变换为基础,进一步找到可表征篡改图像特征的统计量,最后采用SVM分类器实现篡改区域的检测。Fu将图像特征分为两类,第一类特征以希尔伯特变换为基础:首先将二维数字图像用一维向量表示,并通过一维经验模式分解得到其固有模式函数,再对固有模式函数进行希尔伯特变换,最后以变换属性作为图像特征进行篡改检测;第二类特征以小波分解为基础,首先对待测图像进行小波分解,然后分别计算待测图像、各子带图像、预测误差图像的特征函数,并以特征函数的一阶至三阶矩作为图像特征。该方法的准确率可达到80.1%。Chen等[6]研究发现,拼接篡改会引起图像边缘的相位发生变化,因此提出利用图像边缘相位的均值、方差、偏度和峰度作为图像特征,实现篡改图像检测的取证方法。同时,为增强算法鲁棒性和提高检测速度,他们对待测图像进行小波变换并用特征矩作为图像表达。最后运用SVM分类器进行图像取证。该算法准确率可达到82.32%,但特征提取方法的复杂性增加了算法的时间开销。

2 区域复制篡改检测

区域复制篡改检测是同一副图像之间的篡改操作,篡改区域的纹理、光照条件、灰度值动态范围等重要特征与未篡改区域具有高度相似性,以图像的统计量为特征进行篡改区域检测和定位的方法不再适用此类篡改图像。但是,这类篡改图像的特点在于:图像中存在至少两个完全相同或相似的区域。针对这类图像,检测算法的基本思路是寻找图像中是否存在具有一定面积的高度相似区域,目前国内外学者提出了很多用于检测区域复制篡改图像的方法,大致归为三类[7-8]:1)基于空域分块特征匹配的方法;2)基于特征点检测和特征匹配的方法;3)利用JPEG压缩特征的取证方法。

2.1 空域分块特征匹配检测方法

空域分块特征匹配的检测方法采用如下检测流程:首先,将图像划分为不同的区域图像块;然后,通过DCT(Discrete Cosine Transform,离散余弦)变换、小波变换、主成分分析、不变矩等提取图像区域特征,最后进行字典排序寻找相似区域。最常用的分块方法是将图像分为非重叠的方形块,也有采用内切圆形代替方形分块。

Fridrich等[9]最先提出利用DCT系数作为图像特征进行区域复制篡改检测的思想。首先,用一个B×B大小的矩形窗口按照从左到右从上到下的方向每次滑动一个像素,在矩形窗口遍历的每个图像块,对其内的像素進行DCT变换并将DCT系数存放在一个行向量中。将待测图像中所有DCT系数行向量组成特征矩阵,并对其进行字典排序。若排序后相邻两行DCT系数向量的欧式距离小于预设阈值,则对应两个图像像素具有相似关系。这类以DCT系数变化量为特征的篡改检测方法对加性噪声、有损压缩比较敏感。

Kumer等[10]提出了一种改进DCT算法的方法以优化算法速度。算法的第一步是将待测图像转换为灰度图像,再对图像分割成重叠的图像块并对图像块进行DCT变换,变换过后的DCT系数向量代表图像块的特征,对这些特征向量进行排序并进行特征匹配。最后,未能匹配的图像块将被剔除且复制区域会被增强。这种算法对JPEG压缩和高斯噪声有效,但是当篡改区域进行了大角度选择或者所方式,算法失效。

为了降低算法复杂度,Popescu等[11]将主成分分析得到的降维系数向量来表征图像块特征;Lin等[12]也将PCA(主成分分析)算法用于复制粘贴型图像篡改检测中。在Lin的算法中,测试图像被分成大小可识别的重叠图像块,对每个图像块进行特征提取得到特征向量后对其进行基数排序。对排序后的相邻特征向量对的转移向量进行计算并在频率计数器中记录相同转移向量的频率。若转移向量的频率明显大于预先设定的阈值,那么可能存在复制篡改区域。该算法可有效对抗高斯噪声和JPEG压缩,但是不能检测较小的篡改区域,并且不能有效对抗几何变换。

利用大部分图像的能量集中在低频这一特点,Li等[13]提出了基于离散小波变换(DWT)和奇异值分解(SVD)的检测算法。首先对整幅图像进行DWT变换得到低频子带图像,然后对其进行SVD分解,最后以SVD的奇异值向量作为表征图像块特征的向量。

基于空域分块特征匹配检测方法通过对图像分块进而提取图像特征以增强算法对篡改操作的鲁棒性,但是当篡改者对篡改区域进行旋转、缩放等几何变换处理时,上述算法可能会失效。

2.2 基于特征点检测和特征匹配的检测方法

基于特征点检测和特征匹配的方法首先需要在图像中检测特征点,然后对特征点邻域进行特征描述生成特征向量,最后通过特征向量的匹配实现相似特征点的匹配以识别区域复制区域。利用特征点描述子对图像的平移、旋转、尺度缩放具有不变性,对光照变化、视角变化、仿射变换、噪声也保持一定程度的稳定性。基于特征点的方法主要采用尺度不变特征变换(SIFT)和加速鲁棒特征(SURF)以及利用Harris角点作为特征点。

SIFT算法被证明是目前最有效的图像局部特征检测方法。Amerini等[14]提出利用SIFT算法检测图像特征并用这些特征去检测经历过几何变换的篡改区域。由于复制区域和粘贴区域的图像特征相同,通过比较复制区域和粘贴区域特征点的相似性可实现篡改区域的检测。该算法在检测具有大面积的平坦区域等这类点特征不明显的场景图像具有局限性,并且未衡量其有效性。

针对文献[14]中算法的缺陷,Zhao等[15]提出了一种基于图像分割和群智能算法SI(Swarm Intelligent)的篡改图像检测方法。为区分同一幅图像中的平滑区域和粗糙区域,作者定义了一个参数“平滑度”。根据平滑度取值不同,待测图像被分割成不同的层。对分层过后得到的图像利用SIFT算法进行特征点检测。基于SIFT特征点检测的算法过程耗时长、计算量大并且结果的准确性依赖于SIFT检测参数,因此,Zhao等通过引入SI算法可自动生成适合于分层图像的SIFT检测参数以便在较短的时间内得到最多匹配的特征点。实现表明,该算法可以检测较小的篡改区域和平滑区域,但是误判率较高。

Mishra等[16]首先将彩色图像转换为灰度图像并进行重叠分块后,采用SURF算法对每个分块进行特征提取和特征描述;Alamro等[17]提出了一种结合DWT和SURF特征提取的方法去检测复制粘贴区域。在算法中,首先对图像进行DWT变换降低图像维度以减小算法复杂度,再用SURF提取特征点。该算法可以有效抵抗旋转、放大、缩小等几何变换。实验证明该算法准确率可以达到95%,性能优于现有的算法。但是该算法仅仅对BMP和JPEG图像进行了测试,是否能对其他格式的图像进行有效检测还需要进一步研究。

赵洁等[18]用Harris算法提取图像特征点,并用LBP算子描述符作为特征点特征向量的描述子,通过BBF算法对特征向量进行相似性匹配,最后采用RANSAC算法提高匹配精度。

2.3 利用JPEG压缩特征的取证方法

目前,大多数图像采集设备及网络上流行的数字图像都是JPEG格式的压缩图像。因此,为达到难以识别的篡改效果,图像伪造者通常会采用JPEG压缩尽可能消除复制粘贴引起的操作痕迹,这在一定程度上增加了盲取证的难度。针对JPEG图像的盲取证技术研究主要分为基于JPEG图像块效应特征、量化相关性以及双重压缩特征三类。

基于JPEG块效应特征的取证。块效应是JPEG图像固有的本质特征,可以看作JPEG图像中一种特殊的不可见水印,国内外不少学者试图通过检测这种特殊水印的连续性和完整性以实现篡改图像的检测。块效应测度不仅可以作为评价图像质量的标准,还可用于篡改图像检测。Ye等[19]定义了一种直观的块效应测度值(BAM)用于JPEG篡改图像检测。首先利用DCT系数直方图估计原始图像的量化表,然后计算待测图像不同区域的块效应测度值从而定位篡改区域。但是该算法不能实现自动选择可估计量化矩阵的范围因而无法自动定位篡改区域。篡改图像的粘贴区域与其周围区域的块效应网格会发生错配现象,Li等[20]提出一种块效应网格的提取算法并利用这一现象实现JPEG图像背景区域和篡改区域的区分和篡改区域的定位。但是检测结果会受到图像本身纹理结构的影响并且算法只适用于质量因子较低的JPEG图像。

基于JPEG量化相关性的取证。为在高压缩比和好的视觉效果之间取得较好平衡,篡改者通过引入不同量化表对图像进行JPEG压缩,因而篡改图像会表现出不同的量化特征。Hamdy等[21]提出一种估计原始量化表的估计方法,利用估计的量化表对待测图像进行再压缩,计算不同区域量化失真程度。若量化失真程度较高,则为篡改区域。吴首阳等[22]定义了一种量化相关性测度,用以衡量量化过程中的差异化特征,并以该测度值作为依据检测JPEG篡改图像。

基于双重压缩特征的取证。实际上,为达到掩盖篡改痕迹的目的,很多伪造图像都会进行二次压缩,因此,可将图像是否经历过双重JPEG压缩过程作为判断图像是否被篡改的辅助依据。通过分析JPEG压缩过程中DCT系数变化规律,赵洁等[23]提出利用JPEG系数的变化规律实现JPEG图像篡改的自动检测定位;Fu等[24]研究发现,若图像只经历过一次JPEG压缩,则其DCT系数的最高位满足Benford规律,而双重JPEG压缩会破坏这一特点。因此可利用DCT系数的最高位取值为特征实现双重JPEG图像检测。Popescu等[25]通过观察JPEG压缩过程DCT系数直方图的特征发现:经历过双重JPEG压缩的图像,其DCT系数直方图会存在周期性波峰,而一次JPEG压缩图像DCT系数的直方图则不满足这种规律;Popescu还从数学角度分析并解释了这一现象,并将DCT系数直方图周期性特征用来检测JPEG图像是否经历过双重压缩。然而,若两次JPEG压缩采用的量化系数之比为整数倍时,该算法失效。

4 结论

通过深入研究近年来相关成果可以发现,现有数字图像一致性盲取证检测方法存在以下问题:1)大部分算法复杂度较高,检测效率较低且鲁棒性不强;2)很多算法都需要设置阈值,但阈值的选取仅仅依靠经验而缺乏系统理论支撑;3)各种算法的适用性都具有特定的条件限制,比如只能检测某种特定篡改手段的篡改图像。但在实际篡改时,伪造者可能会综合采用多种篡改手段,这会导致算法失效;4)只能检测出图像中相似的区域,无法有效区分篡改区域和复制区域;5)各种算法的使用有特点的条件限制,一旦不满足算法设定的条件范围,则算法可能会失效。上述问题限制了现有算法的应用和推广。

在国内外学者的深入研究下,数字图像盲取证技术领域的关键技术已经取得很大进展,但伪造者的篡改手段越来越高明,数字图像一致性盲取证还任重道远。未来需要进一步研究的问题和方向可能有:1)建立一个科学、全面的數字图像一致性盲取证理论体系,用于指导盲取证方法的设计、实现以及评价盲取证算法的优劣;2)对现有算法进行融合,建立复合篡改模型对抗多种篡改手段,提高算法的鲁棒性和正确率,加速数字图像取证技术应用;3)现有的篡改算法都是鉴别内容的真实性,图像的完整性和原始性将会是非常重要的取证方向。

参考文献:

[1]FARID H. Image forgery detection[J]. Signal Processing Magazine IEEE, 2009, 26(2):16-25.

[2]NG T T, CHANG S F, SUN Q. Blind detection of photomontage using higher order statistics[C]// International Symposium on Circuits and Systems. IEEE, 2004:688-691.

[3]HSU Y F, CHANG S F. Image splicing detection using camera response function consistency and automatic segmentation[C]// IEEE International Conference on Multimedia and Expo. IEEE, 2007:28-31.

[4]JOHNSON M K, FARID H. Exposing digital forgeries in complex lighting environments[J]. IEEE Transactions on Information Forensics & Security, 2007, 2(3):450-461.

[5]FU D, SHI Y Q, SU W. Detection of image splicing based on hilbert-huang transform and moments of characteristic functions with wavelet

decomposition[C]// International Conference on Digital Watermarking. Springer-Verlag, 2006:177-187.

[6]CHEN W, SHI Y Q, SU W. Image splicing detection using 2-D phase congruency and statistical moments of characteristic function[C]// Security, Steganography, and Watermarking of Multimedia Contents IX. International Society for Optics and Photonics, 2007:65050 -65057. [2018-01-10].https://web.njit.edu/~shi/PaperDownload /forensics/SPIE07-SPLICING.pdf.

[7]ALQERSHI O M, KHOO B E. Passive detection of copy-move forgery in digital images: state-of-the-art.[J]. Forensic Science International, 2013, 231(1-3):284-295.

[8]CHRISTLEIN V, RIESS C,JORDAN J, et al. An evaluation of popular copy-move forgery detection approaches[J]. IEEE Transactions on Information Forensics & Security, 2012, 7(6):1841-1854.

[9]FRIDRICH J, SOUKAL D, LUKAS J. Detection of copy-move forgery in digital images[J]. Proceedings of Digital Forensic Research Workshop, 2003:19-23.

[10]KUMAR S, DESAI J, MUKHERJEE S. A fast DCT based method for copy move forgery detection[C]//IEEE Second International Conference on Image Information Processing. IEEE, 2014:649-654.

[11]POPESCU A C, FARID H. Exposing digital forgeries by detecting duplicated image regions[J].Comput.sci.dartmouth College Private Ivy League Res.univ, 2004: 646.[2018-01-10].http://www. ists. dartmouth. edu/library/102. pdf.

[12]LIN H J, WANG C W, KAO Y T. Fast copy-move forgery detection[J]. Wseas Transactions on Signal Processing, 2009, 5(5):188-197.

[13]LI G, WU Q, TU D, et al. A sorted neighborhood approach for detecting duplicated regions in image forgeries based on DWT and SVD[C]// IEEE International Conference on Multimedia and Expo. IEEE, 2007:1750-1753.

[14]AMERINI I, BALLAN L, CALDELLI R, et al. A SIFT-based forensic method for copy-move attack detection and transformation recovery[J]. IEEE Transactions on Information Forensics & Security, 2011, 6(3):1099-1110.

[15]ZHAO F, SHI W, QIN B, et al. Image forgery detection using segmentation and swarm intelligent algorithm[J]. Wuhan University Journal of Natural Sciences, 2017, 22(2):141-148.

[16]MISHRA P, MISHRA N, SHARMA S, et al. Region duplication forgery detection technique based on SURF and HAC[J]. The Scientific World Journal, 2013(1):267691.

[17]ALAMRO L, YUSOFF N. Copy-move forgery detection using integrated DWT and SURF[J]. Journal of Telecommunication, Electronic and Computer Engineering, 2017(9):67-71.

[18]赵洁, 郭继昌. 利用Harris特征点和环形均值描述的图像区域复制篡改的被动取证[J]. 数据采集与处理, 2015, 30(1):164-174.

[19]YE S, SUN Q, CHANG E C. Detecting digital image forgeries by measuring inconsistencies of blocking artifact[C]// IEEE International Conference on Multimedia and Expo. IEEE, 2008:12-15.

[20]LI W, YUAN Y, YU N. Detecting copy-paste forgery of jpeg image via block artifact grid extraction[J]. International Workshop on Local & Non, 2008:1-6.[2018-01-10]. https://www.eurasip. org/Proceedings/Ext/LNLA2008/papers/cr1006.pdf.

[21]SALMA H, EL-MESSIRY H, MOHAMED R, et al. Quantization table estimation in JPEG images[J]. International Journal of Advanced Computer Science & Applications, 2010, 1(6):17-23.

[22]吳首阳, 刘铭. 基于量化相关性的JPEG图像盲取证[J]. 计算机仿真, 2010, 27(6):258-261.

[23]赵洁, 郭继昌. 基于JPEG系数变化率的图像复制粘贴篡改检测[J]. 浙江大学学报(工学版), 2015, 49(10):1893-1901.

[24]FU D, SHI Y Q, SU W. A generalized benfords law for JPEG coefficients and its applications in image forensics[C]// Security, Steganography, and Watermarking of Multimedia Contents IX. International Society for Optics and Photonics, 2007: 47-58.

[25]POPESCU A C, FARID H. Statistical tools for digital forensics[M]// Information Hiding. SpringerBerlin Heidelberg, 2004:128-147.