王金甲
(燕山大学信息科学与工程学院 秦皇岛 066004)
基于子空间字典偶学习的高光谱图像分类①
王金甲②
(燕山大学信息科学与工程学院 秦皇岛 066004)
针对高光谱高分辨率带来巨大数据量和空间分辨率引起混合像元的问题,提出了基于子空间(subspace)的字典偶学习(DPL)算法,简称DPLsub算法。DPL算法是对字典学习的改进,它通过学习得到综合字典和分析字典,在模式识别中体现了高效性,而子空间投影的方法能更好地表征噪声和高度混合的像元。将光谱和空间特征融合的方法用于分类研究试验。实验数据是两幅高光谱影像,比较了子空间字典偶学习(DPLsub)模型和其他三种分类器即最小二乘支持向量机(LS-SVM)、稀疏多分类回归(SMLR)和字典学习(DL-OMP)的分类结果。实验结果显示,DPLsub算法无论在时间上还是精度上都优于其他算法,证明了这种子空间字典偶学习方法对高光谱图像分类的可行性与高效性。
高光谱图像分类, 子空间投影, 混合像元, 字典偶学习(DPL), 多特征融合
随着传感器与成像技术的发展,遥感影像在军事、农业等方面发挥的重要作用日益明显。但由于高光谱数据具有上百个通道,数据量非常大,存在大量的混合像元和数据冗余现象,给图像传输和存储带来了困难,另外,由于波段间强的相关性和类内多样性的存在使高光谱图像有很多特征提取方面的困难和分类效果不理想等问题,针对这些具体问题研究学者们已提出了很多解决方法[1],例如高空间高分辨率的遥感图像分类方法,其主要特点是先降维再提特征实现分类研究[2,3]。同时在现实中,由于种种原因,在像元对应的瞬间视角内包含多于一种地物,因此形成了混合像元,早在2008年罗文斐等人就提出了基于子空间距离解混高光谱图像的算法[4],之后更多关于子空间投影的方法应用到图像分类[5,6]。同时为了弥补光谱特征信息的不足,消除“同谱异类,异类同谱”的现象,联合空间-光谱的多特征方法广泛的应用于高光谱图像分类[7,8],其中形态学方法是一种有效提取空间特征的方法。图像的分类也依赖于高效的分类器,支持向量机及其改进方法一直被广泛应用,包括赵春晖等人提出的基于改进的最小二乘支持向量机(least squares support vector machine, LS-SVM)[9],还有稀疏的多分类回归(sparse multinomial logistic regression, SMLR)算法也多次用于遥感图像的分类[10],都取得良好的效果。
稀疏表示分类(sparse representation classification, SRC)因为其具有低侵扰、高特异性和高识别率的性质而得到了广泛关注[11,12]。高光谱的稀疏表示主要包括两方面:完备的字典稀疏编码和分类。字典学习的目的是通过学习得到综合字典,大多数稀疏字典算法由于l0或l1稀疏限制使时间开销很大。本文提出了基于子空间(subspace)的字典偶学习(dictionary pair learning, DPL)模型和算法,简称DPLsub模型和算法。DPL模型在模式分类过程中同时得到综合字典和分析字典,没有l0和l1范数约束,可以在线性投影中计算稀疏表示系数,与在非线性空间相比大大降低了所用的时间,同时基于子空间的投影算法可以大大降低计算的维度。
1.1 光谱特征
高光谱遥感的光谱分辨率很高,地物光谱信息丰富,有很多光谱波段,一般从可见光到红外范围就设置了200多个波段,本文提取的高光谱图像光谱特征就是去除掉水吸收波段范围内不好的波段,保留剩下波段全部作为光谱特征输入,记为Llinear,不再做任何非线性变换提取特征。
1.2 扩展的属性特征
早在2001年Benediktsson就提出了形态学(morphological profile, MP)方法用于图像的预处理[13],之后Benediktsson又提出了扩展的形态特征(extend morphological profile,EMP),即通过降低原始光谱数据的维数,再在每一个主成分上提取形态学特征[14]。2010年Benediktsson又提出了扩展的属性特征(extend attribute profile,EAP)[15],它是EMP的延伸,是在提取主成分基础上提取属性特征,其定义为
EAP={AP(PC1), AP(PC2),…,AP(PCc)]
(1)
式中c表示主成分(principal component, PC)的个数。
EMAPs是基于单一属性的PCs上的多层次分析,然而EMAP考虑了多个属性,虽然它导致了特征提取时维数的增加,但是它精确地建立了空间特征模型。本实验有4种属性[16]可用于属性特征提取,以这4种属性构建高光谱图像的扩展属性特征,记为LEMAP。
X={X1, X2,…,Xn}表示输入的图像,n表示像元的个数,Xi∈Rd,d表示维数,y=(y1, y2,…, yn)是类标签,yi∈{1,2,…,K}。
2.1 独立的类子空间的学习过程:
R(k)= E(k)Λ(k)E(k)T
(2)
(3)
维子空间独立类的估计,r(k) 根据1.1节去除不好的波段,然后把剩下的光谱波段信息投影到子空间,再输入到字典偶学习器中。 2.2 字典偶的学习过程 Gu等人提出了具有综合字典D和分析字典P的DPL模型[17]: (4) 式中,ψ(D,P,X,Y)是识别函数,分析字典P用于X的编码分析,综合字典D用于重构X。DPL模型的识别力取决于识别函数ψ(D,P,X,Y)的设计。分析字典P的子字典Pk对第i, (i≠k)类样本进行投影,约为空集,即 PkXi≈0, ∀k≠i (5) 由式(5)可知,系数矩阵PX近似是块对角化的,可以从投影编码矩阵PkXk中利用D中的子字典Dk重构矩阵Pk即得到的字典偶可以使得重构误差最小: 护理工作也要面对复杂的人际关系,如:医护、护护、医技、后勤、职能等相关部门,稍不注意就会困于人际关系的处理之中。任何一种人际关系都会直接影响护士的身心健康,其中最为明显的便是护患关系,有责任心的护士为病患做了许多,但由于许多的患者及其家属不理解护士的工作性质,时有辱骂、甚至殴打护士的事件发生,近年来,医患关系也是日益紧张,在高压的工作环境中,护士的身心更加紧张、焦虑、疲惫。 (6) 综合式(4)(5)(6)可得DPL模型描述为 (7) 具体的优化DPL的过程[17]不再详述,本文根据字典偶的残差最小原则对实现高光谱图像进行分类。图1所示是本研究实现高光谱图像分类算法的流程图。 图1 高光谱图像分类的流程图 本实验数据包括两幅高光谱图像,分别是AVIRIS Indian Pines数据和HYDICE Washington DC数据。根据第2节介绍,在两组原数据的基础上分别提取了光谱与空间两种类型特征,本文所有的实验重复50次,具体实验内容如图2所示。 图2 第三章实验的流程图 3.1 AVIRIS Indian Pines数据的实验 3.1.1 实验概述 在实验中使用的第一个高光谱图像是1992年通过AVIRIS传感器在Indian Pines的西北区域采集的数据,其大小为145×145,包括有220个连续波段(400~2500nm),去除水吸收波段范围的900~1400nm,还剩下200个波段作为本实验数据。HYDICE高光谱图像波段标准假彩色合成图如图3(a)所示。该数据共包括16类,各个类别和各个类别样本的数量如图3(b)所示。 图3 Indian Pines高光谱图像 3.1.2 实验结果及讨论 实验1: 当仅将光谱特征(Llinear)用于高光谱图像分类时,随着每类训练样本数量的增加,比较字典偶学习(DPL)和子空间字典偶学习(DPLsub)的分类结果如表1所示。从表1可以看出:(1)当仅有Llinear用于图像分类时,这两种分类器分类的效果都不尽如意,最高仅达到73%;(2)当训练样本数量相 表1 不同训练样本的个数的分类精度 同时,DPLsub分类效果远远优于DPL。例如当共560个训练样本时,DPLsub的总体分类精度是71.49%,比DPL分类效果高出7%,说明子空间投影确实有效地提取了原始影像的光谱信息,同时发现即使训练样本数量很大时,DPLsub也可以快速地实现分类,比传统的DPL相比大大降低了消耗的时间。 实验2: 为了消除“同物异谱,异物同谱”现象对分类的影响,本次实验融合了空间特征(LEMAP)到DPLsub分类器,每类的训练样本个数是50,实验结果如表2所示:当仅有光谱特征分类时,总体分类准确度是73.23%;融合了空间特征后DPLsub的分类精度达到94%以上,大大提高了分类精度。实验结果证明了联合空间-光谱特征时可以弥补光谱特征的不足,明显改善其分类结果。图4显示了融合空间特征后,不同的训练样本的总体、平均分类精度及Kappa系数,随着每类训练样本的增加,分类精度也会有所提高。当每类样本达到50个时,总体分类精度可达94%,可见有足够的标签样本作为训练样本的重要性。 表2 融合空间特征到子空间字典偶学习的分类结果 图4 随着每类训练样本个数的增加,我们算法的分类精度 实验3: 本实验比较了DPLsub和DPL及其他三种分类器分类结果。当每类训练样本的个数从20向50增加时,各个分类器的总体分类结果如图5所示。从图5中看出,普通的字典学习分类效果最差,当每类训练样本低于25个时,DPLsub和稀疏多分类回归(SMLR)分类效果相近,当增加训练样本时,本文提出的PDLsub增长速度最快。当每类训练样本是50个时,各个分类器的分类精度的结果如表3所示,其分类效果图如图6所示。从图6(a)可 以看出Corn-no-till、soybeans-no-till和soybeans-min-till三种类别出现较多的误分类,其他类别分类效果很好。从图6(b)可以看出Corn-no-till、soybeans-no-till和soybeans-min-till三种类别的混淆现象严重,oats、Wood、Grass/trees的分类几乎无误,其他类别有少量的样本被误分类。从图6(c)看出Corn-no-till、soybeans-no-till和soybeans-min-till的混淆分类情况也很多,soybeans-no-till和soybeans-clean-till之 图5 随着训练样本个数增加时各个分类器的分类结果 图6 不同分类器基于空间-光谱特征的分类结果图 间也出现误分类,其他类别分类效果很好。从图6(d)看出相对于前两种PDL和SMLR而言,LS-SVM对Corn-no-till、soybeans-no-till和soybeans-min-till识别率较高,但是其它类别的样本识别率有所下降,而从图6(e)看出,DL-OMP分类效果较差,各类别的分类精度都很低。 表3 不同分类器基于空间-光谱特征的分类结果 3.2 HYDICE Washington DC数据的试验 3.2.1 实验概述 在实验中使用的第二个高光谱图像是HYDICE高光谱传感器系统在Washington DC Mall上空的拍摄,数据大小为1280×307,包括有210个连续波段(400~2400nm),去除水吸收波段范围的900~1400nm,还剩下191个波段用于本实验分析。HYDICE高光谱图像的标准假彩色合成图如图7(a)所示。该数据共包括7类,各个类别和各个类别样本的数量如图7(b)所示。 图7 HYDICE Washington DC图像 3.2.2 实验结果及讨论 本次使用第二组实验数据比较DPLsub和DPL及其他三种分类器分类结果。当每类训练样本的个数为30时,各个分类器的总体分类结果如表4所示,其分类效果图如图8所示。从表4中看出,本文提出的DPLsub分类效果较好。从图8(a)看出,PDLsub分类效果图最好,尤其是对Path、Grass和Tress的识别,其他分类器对Path的识别率效果都不近如人意。从图8(b)看出PDL对Roofs和Street两种类别混淆较多,对Water、Grass和Tress的识别率较高。从图8(c)看出SMLR对Water和Roofs的识别率相对较低,对Grass和Tress识别率相对良好。从图8(d)看出LS-SVM对Roofs、Street及Shadow类别的识别率较低,对Water和Grass的识别率较良好,从图8(e)看出,DL-OMP识别效果最差,而Water有较高的识别率,但是DL-OMP识别时间很长。 表4 不同分类器基于空间-光谱特征的分类结果 图8 不同分类器基于空间-光谱特征的分类结果图 本文将字典偶学习(DPL)算法用于高光谱图像分类,它通过学习得到综合字典和分析字典,从而进行特征的表示和识别,在提高分类的准确性的同时大大降低了训练和测试阶段的计算时长。其次,字典偶学习算法利用了类标签信息,提升了编码的识别能力。当子空间添加到字典偶学习中时,不仅可以更好地表征噪声和高度混合的像元,而且降低了光谱特征的维度,实验结果表明这种分类器结构简单、容易训练、收敛速度快,是一种有效的遥感图像分类方法。 利用字典偶学习模型和算法的进一步研究工作是:(1) 为了更好地区分易混淆的类别,可以选取更具有代表性的地物特征用于训练,有利于分类精度提高和速度提升;(2) 可以添加纹理信息助于区分地物;(3) 可以针对不同的类别使用的不同的分类器,联合多种分类器进一步提高分类效果。 [1] 苏红军, 杜培军, 盛业华. 高光谱遥感数据光谱特征提取算法与分类研究. 计算机应用学报, 2008,25(2):390-395 [2] Falco N,Benediktsson J A,Bruzzone L. A study on the effectiveness of different independent component analysis algorithms for hyperspectral image classification.IEEEjournalofselectedtopicsinappliedearthobservationsandRemoteSensing, 2014,7(6):2183-2198 [3] Zhou Y, PengY, Chen C L P. Dimension reduction using spatial and spectral regularized local discriminant embedding for hyperspectral image classification.IEEETransactionsonGeoscienceandRemoteSensing, 2015,53(2):1082-1094 [4] 罗文斐, 钟亮, 张兵等. 基于子空间距离的高光谱图像光谱解混算法. 自然科学进展, 2008,18(10):1175-1180 [5] Khodadadzadeh M, Li J, Plaza A, et al. A subspace-based multinomial logistic regression for hyperspectral image classification.IEEEgeoscienceandremotesensingletters, 2014,11(12):2105-2109 [6] Gao L, Li J, Khodadadzadeh M, et al. Subspace-based support vector machines for hyperspectral image classification.IEEEgeoscienceandremotesensingletters, 2015,12(12):349-353 [7] Fang L, Li S, Kang X, et al. Spectral-spatial hyperspectral image classification via multiscale adaptive sparse representation.IEEETransactionsongeoscienceandremotesensing, 2014,52(12):7738-7749 [8] Fauvel M, Tarabalka Y, Benedktsson J A, et al. Advances in spectral-spatial classification of hyperspectralimages.ProceedingsoftheIEEE, 2013,101(3):652-675 [9] 赵春晖, 乔蕾. 基于改进的最小二乘支持向量机的高光谱遥感图像分类. 应用科技, 2008,35(1):44-48 [10] Li J, Huang X, Gamba P, et al. Multiple feature learning for hyperspectral image classification.IEEETransactionsongeoscienceandremotesensing, 2015,53(3):1592-1605 [11] Zongze Y, Hao S, Kefeng J, et al. Hyperspectral image classification using discriminative dictionary learning.EarthandEnvironmentalscience, 2014,17(1).682-691 [12] Yuan H L, Tang Y Y, Lu Y, et al. Hyperspectral image classification based on regularized sparse representation.IEEEjournalofselectedtopicsinappliedearthobservationsandremotesensing, 2014,7(6):2174-2182 [13] Benediktsson J A, Pesaresi M. Feature extraction and classification of urban high-resolution satellite imagery based on morphological preprocessing.IEEEInternationalGeoscience&RemoteSensingSymposium, 2001,1:534-536 [14] Benediktsson J A, Palmason J A, Sveinsson J R. Classification of hyperspectral data from urban areas based on extended morphological profiles.IEEETransactionsonGeoscienceandRemoteSensing, 2005,43: 480-491 [15] Mura M D, Benediktsson J A, Waske B, et al. Extended profiles with morphological attribute filters for the analysis of hyperspectral data.InternationalJournalofRemoteSensing, 2010,31(22):5975-5991 [16] Li J, Bioucas-Dias J M, Plaza A. Spectral-spatial hyperspectral image segmentation using subspace multinomial logistic regression and Markov random fields.IEEETransactionsongeoscienceandremotesensing, 2012,50(3):809:822 [17] Gu S, Zhang L, Zuo W, et al. Projective dictionary pair learning for pattern classification.AdvancesinNeuralInformationProcessingSystems, 2014, 1: 793-801 Subspace-based dictionary pair learning for hyperspectral image classification Wang Jinjia, Jiang Xue, Yang Zhongyu (School of Information Science and Engineer, Yanshan University, Qinhuangdao, Hebei 066004) In view of the problem of huge data amount from hyperspectra’s high resolution and the mixed pixels problem from the spatial resolution, a subspace-based dictionary pair learning (DPL) algorithm, abbreviated to DPLsub algorithm, was presented. The DPL algorithm is an improvement of the dictionary learning, which reflects the high efficiency in pattern recognition through learning a synthesis dictionary and an analysis dictionary, while the subspace projection method better characterizes noise and highly mixed pixels. The fusion of spectra and spatial characteristics was applied to the classification experiment, and two hyperspectral images were used as the experimental data to compare the classification result of the DPLsub model with that of the other three classifiers of least squares support vector machine (LS-SVM), sparsemultinomial logistic regression (SMLR) and dictionary learning (DL-OMP). The experimental results verifies the feasibility and effectiveness of the proposed DPLsub algorithm in classification of hyperspectral images, and show that it outperforms other current algorithms in time and accuracy. hyperspectral image classification, subspace projection, mixed pixels, dictionary pair learning (DPL), fusion features 10.3772/j.issn.1002-0470.2016.05.008 ①国家自然科学基金(61273019, 61473339),河北省自然科学基金(F2013203368),中国博士后科学基金面上项目(2014M561202),河北省博士后专项项目(B2014010005)和河北省青年拔尖人才支持计划([2013]17)资助项目。 2016-03-07) 姜 雪 杨中玉 ②男,1979年生,博士,教授;研究方向:模式识别与图像处理;联系人,E-mail: wjj@ysu.edu.cn3 实验与讨论
4 结 论