人脸识别的两维双树四元数小波合并双向拉普拉斯逆线性判别分析方法

2017-03-27 14:11张起荣胡如会张继燕王燕
电脑知识与技术 2017年3期
关键词:双树拉普拉斯识别率

张起荣++胡如会++张继燕++王燕

摘要:两维双树四元数小波合并双向拉普拉斯逆线性判别分析方法(2DQWTCBLIF)是先后对人脸图像进行双树四元数小波变换处理和两维合并双向拉普拉斯逆线性判别分析方法处理。实验中,2DQWTCBLIF同四个方法在2个人脸库上进行了对比试验,测试结果显示该方法是有效和可行的。 2DQWTCBLIF提高了人脸识别率。

关键词:人脸识别;双树四元数小波变换;两维合并双向拉普拉斯逆线性判别分析方法;两维双树四元数小波合并双向拉普拉斯逆线性判别分析方法

中图分类号:TP391.4 文献标识码:A 文章编号:1009-3044(2017)03-0189-03

计算机方面的研究很多[1-10],而人脸识别在现代很多商业领域都有很大的应用,所以引起很多学者的研究。线性判别分析(LDA)[11]是Belhumeur于1997年提出的。它是一个可以利用的有监督的方法。逆线性判别分析(IF)[12]被Zhuang于2005年提出,它的思想就是对LDA进行一个逆运算得到。现在有不少学者提出新的人脸识别方法[13-18]。

为了进一步提高人脸图像的识别率,两维双树四元数小波合并双向拉普拉斯逆线性判别分析方法(2DQWTCBLIF)被提出。它是通过对人脸图像先后进行双树四元数小波变换[19]处理和2DCBLIF[20]得到的。通过在人脸库上的实验,2DQWTCBLIF与2DLDA, 2DMMC, 2DPCA等三个人脸识别的经典方法及2DCBLIF方法进行对比,实验结果显示它具有更好的识别率。

1 IF[12]

[CW=1Nl=1Sd=1N(Mld-al)(Mld-al)T] (1)

在这里,公式(1)中的[CW]表示为类内散度矩阵,[N]表示为所有的样本总数,[Mld]表示为第l类的第d个样本。

[CB=1Nl=1SNl(al-a)(al-a)T] (2)

公式(2)中的[al]表示为第l类的样本平均值。[a]表示为所有样本的平均值。[Nl]表示为第l类的样本个数。[CB]表示为类间散度矩阵。

[J(φ)=φTCwφφTCBφ] (3)

2 两维双树四元数小波合并双向拉普拉斯逆线性判别分析方法

2.1 双树四元数小波[19]

[w(t)=k∈ZaJ,kαJ,k(t)+j≥J,k∈Zbj,kβj,k(t)] (4)

公式(4)是一維实值信号[21]。其中[aJ,k]表示为缩放系数,[bj,k]表示为小波系数。[αJ,k(t)]表示为尺度函数,[βj,k(t)]表示为小波函数。由[j≥J,k∈Z]构成了正交的基础。

[aJ,k=w(t)αJ,k(t)dt] (5)

[bj,k=w(t)βj,k(t)dt] (6)

[αJ,k(t)=2Jα(2J-k)] (7)

[βj,k(t)=2jβ(2j-k)] (8)

[wpA(X)=w(X)+i1wHk1(X)+i2wHk2(X)+i3wHk(X)] (9)

公式(9)中[wpA(X)]表示为两维四元数解析信号[22]。[w(X)]表示为两维实值信号。[wHk1(X)]表示为全部的希尔伯特变换。[wHk2(X)]和[wHk(X)]均都表示为部分希尔伯特变换。

[wHk1(X)=w(X)??η(y)πx] (10)

公式(10)中[η(y)]表示为沿[y]轴线冲动表,两维卷积用[??]表示。一个两维图像的维数分别用[x]和[y]表示。于是就得到[X=(x,y)]。

[wHk2(X)=w(X)??η(x)πy] (11)

公式(11)中[η(x)]表示为沿[x]轴线冲动表。

[wHk(X)=w(X)??1π2xy] (12)

[w(X)=βh(x)βh(y)] (13)

公式(13)中[βh(x)]和[βh(y)]都表示为小波函数。

[(wHk1(X),wHk2(X),wHk(X))=(βg(x)βh(y),βh(x)βg(y),βg(x)βg(y))] (14)

[βD(x,y)=βh(x)βh(y)+i1βg(x)βh(y)+i2βh(x)βg(y)+i3βg(x)βg(y)] (15)

公式(15)表示的是二维小波分析及其相关四元小波变换(QWT)[19],[βD(x,y)]表示为对角子带的四元数小波,[βh(x)]和[βg(x)]均都表示的是小波函数。2个小波滤波器是用[g]和[h]来表示。

[βH(x,y)=αh(x)βh(y)+i1αg(x)βh(y)+i2αh(x)βg(y)+i3αg(x)βg(y)] (16)

在这里,公式(16)中[βH(x,y)]表示为水平子带的四元数小波,[αh(x)]表示为尺度函数。

[βV(x,y)=βh(x)αh(y)+i1βg(x)αh(y)+i2βh(x)αg(y)+i3βg(x)αg(y)](17)

在这里,公式(17)中[βV(x,y)]表示为垂直子带的四元数小波,[αh(y)]表示为尺度函数。

[bDj,k=bDhhj,k+i1bDghj,k+i2bDhgj,k+i3bDggj,k] (18)

公式(18)得到对角子带的QWT系数,即合并四元素代数的每个滤波器,它输出的相同的子带小波系数得到。

2.2 2DCBLIF方法[20]

[m1,m2,...,mN]表示有[N]个训练样本,[i×n]是每个训练样本的大小,[Q]表示的是关系矩阵,就得到

[Q=exp(-mi-mj2/t) ] (19)

公式(19)中[mi]和[mj] 表示为人脸图像。两两相邻图像的最大距离用[t]表示,并且它是一个常数。[||.||]在这里的意思表示 L2标准。

[Mij= Qij mi 和 mj 属于同一类0 mi和mj不属于同一类] (20)

公式(20)表示为在同类的两个样本的相似矩阵[30]

[DT=1Ni=1N(mi-m)T(mi-m) ∝i=1Nj=1N(mi-mj)T(mi-mj)] (21)

公式(21)表示人脸图像在水平方向的总的散度矩阵[30]

[PDT=i=1Nj=1NQij(mi-mi)T(mi-mi) ∝ij(QijmTimi-QijmTimj) =mT(P?Im)m] (22)

公式(22)表示人脸图像在水平方向的总的拉普拉斯散度矩阵[23]。其中 [F]的对角元素是[Fii],表示为[N×N]的对角矩阵。[Fii=jQij]。Q表示为相似矩阵。[P=F-Q]表示为拉普拉斯矩阵。

[Dw=1Nu=1Ci=1Cu(miu-lu)T(miu-lu) ∝u=1Ci=1Cuj=1Cu(miu-mju)T(miu-mju)] (23)

公式(23)表示水平方向的类内散度矩阵[23]。

[PDW=u=1Ci=1Cuj=1CuMij(miu-mju)T(miu-mju) =i=1Nj=1NMij(miu-mju)T(miu-mju) ∝ij(MijmTimi-MijmTimj) =mT(PW?Im)m] (24)

公式(24)表示水平方向的类内拉普拉斯散度矩阵[23]。

[DB=DT-DW] (25)

[PDB=PDT-PDW] (26)

公式(26)表示水平方向的类间拉普拉斯散度矩阵[23]。

[argminWTPDWWWTPDBW] (27)

公式(27)表示水平方向的两维拉普拉斯逆线性判别分析[20]。

[J=mW] (28)

在这里,公式(28)中[J]表示为水平特征矩阵集。

[PD′T=m(P?In)mT] (29)

公式(29)表示垂直方向的整体拉普拉斯散度矩阵[23]。

[PD′W=m(PW?In)mT] (30)

公式(30)表示垂直方向的类内拉普拉斯散度矩阵[23]。

[PD′B=PD′T-PD′W] (31)

[argminWTPD′WWWTPD′BW] (32)

公式(32)表示垂直方向的二维拉普拉斯逆线性判别分析[20]。

[K=WcolTm] (33)

复杂的特征矩阵[16]可以通过公式(28)和公式(33)得到。

[γ=J+iK] (34)

[Y=mγ] (35)

用公式(35)可以进行图像的特征提取。

2.3 算法描述

二维双树四元数小波合并双向拉普拉斯逆线性判别分析(2DQWTCBLIF)算法描述如下:

算法: 二维双树四元数小波合并双向拉普拉斯逆线性判别分析(2DQWTCBLIF)算法

输入: 有这样{x1, x2, …, xN} N个人脸图像作为训练样本和测试人脸图像样本[x]。

输出:判断人脸图像[x]属于哪个类别的图像。

1)对输入的人脸图像和测试的人脸图像都进行双树四元数小波处理

2)关系矩阵Q,M可以通过公式(19)-(20)计算得到,

3 )水平方向的二维拉普拉斯逆线性判别分析及投影矩阵J可以通过公式(22)-(28)计算得到,

4 )垂直方向的二维拉普拉斯逆线性判别分析及投影矩阵K可以通过公式(29)-公式(33)计算得到,

5)复杂特征矩阵[γ]可以通过公式(34)计算得到,

6 )最后利用公式(35)能够可获得分类。

3 实验结果与分析

3.1 FERET人脸库

基于FERET[24]上运行这个实验。这个库包括1196副人脸图像。我们是从原始的FERET人脸图像数据库,选择了其中120个人,每个人6副人脸图像进行这个试验,每一张人脸图像的尺寸大小都是64×64。

我们在这个实验中的设计思路是训练样本分别选择一个人的3,4副图像,测试样本是一个人的其余3副,2副图像,试验一共是执行6遍。

[方法\&3个训练样本\&4个训练样本\&2DLDA\&55.60(18)\&60.14(18)\&2DMMC\&67.31(21)\&72.01(16)\&2DPCA\&69.17(19)\&73.47(36)\&2DCBLIF\&71.20(4)\&76.67(14)\&2DQWTCBLIF\&72.69(8)\& 78.96(9)\&]

从表1,我们可以发现2DQWTCBLIF方法当训练样本是3时,它的最高识别率是72.69%,比2DLDA,2DMMC,2DPCA,2DCBLIF分别提高了17.09%,5.38%,3.52%,1.49 %。那么当训练样本是4时,2DQWTCBLIF方法的最高识别率是78.96%,比2DLDA,2DMMC,2DPCA,2DCBLIF分别提高了18.82 %,6.95%,5.49%,2.29 %。当训练样本较多时2DQWTCBLIF方法的识别率提高比较快。所以,在该库中,2DQWTCBLIF比上述四个方法有效。

3.2 CMU PIE人臉库

在 CMU PIE[25]中运行这个试验。我们是采用了21张不同光照变化的68个人的人脸图像进行试验。每一张人脸图像的大小都是64×64。在CMU PIE人脸库中任意选择人脸图像进行试验。

我们在这个实验中的设计思路是训练样本是一个人的6张人脸图像,测试样本是选择一个人剩下的15张人脸图像,一共执行21遍。表2给出了五个方法的最高识别率。

表2 在CMU PIE库中的最高识别率(%)表

4 结束语

本研究结果发现将2DQWTCBLIF用于人脸特征,有较好的识别率。

2DQWTCBLIF是通过先对人脸图像进行双树四元数小波变换的处理,然后再执行2DCBLIF方法,通过结合两种有良好识别率的方法得到的方法自然有比较好的识别率。

2DQWTCBLIF通过与2DMMC, 2DLDA, 2DPCA等三个经典的人脸识别方法及在逆线性判别准则方法基础上改进的2DCBLIF方法对比,实验数据表明了该方法的有效性,可以看出在FERET人脸库2DQWTCBLIF识别率提高比较明显,且2DQWTCBLIF识别率在有光照的CMU PIE人脸库上也有较大的提高。该方法适合在FERET及 CMU PIE人脸库中。

参考文献:

[1] 张起荣, 刘歆. 基于动态时间弯曲距离的灰关联度量方法及其应用[J]. 重庆邮电大学学报:自然科学版, 2014, 26(5): 700-705.

[2] 张起荣, 刘歆, 闫一. 面向动态时间弯曲距离的灰关联聚类方法研究[J]. 重庆邮电大学学报自然科学版, 2015, 27(4): 563-568.

[3] Zhang Q R, Hu R H, Yu T Z. Design and Implementation of Cherry Picking Robot Vision Recognition System Based on Face Recognition [J]. MATEC Web of Conference, 2016, 63: 05017.

[4] Zhang Q R, Peng P, Jin Y M. Cherry Picking Robot Vision Recognition System Based on OpenCV [J]. MATEC Web of Conference 2016, 63: 01005.

[5] 张起荣, 赵芳云, 顾嘉楠,等. 基于小型医院放射科的PACS模板设计[J]. 科学之友, 2013(12): 156-157.

[6] 张起荣, 胡如会, 代宏伟. 基于云计算和物联网的煤炭车辆装载运输监控管理系统研究[J]. 电脑知识与技术, 2016, 12(8): 241-243.

[7] 张起荣. 管理信息系统的教学改革[J]. 考试周刊, 2013(33): 8-8.

[8] 张起荣. 生产与运作管理课程教学研究与改革[J]. 考试周刊, 2014(59): 8.

[9] 张起荣, 张继燕, 王燕. 基于计算思维的计算机图形学教学改革与实践[J]. 考试周刊, 2016(64): 5-6.

[10] 张起荣, 张继燕, 王燕. 计算机图形学教学改革浅论[J]. 考试周刊, 2016(65): 10-10.

[11] BELHUMEUR P N, HESPANHA J P, KRIEGMAN D J. Eigenfaces vs. fisherfaces: Recognition using class specific linear projection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997, 19(7): 711-720.

[12] ZHUANG X S and DAI D Q. Inverse Fisher discriminate criteria for small sample size problem and its application to face recognition[J]. Pattern recognition, 2005, 38(11): 2192-2194.

[13] Qirong Zhang, Zhongshi He. The Two-dimensional Bidirectional Inverse Laplacian Margin Maximum Criterion for Face Recognition[J]. Journal of Computational Information Systems, 2010, 6(4): 1101-1109

[14] Qirong Zhang, Zhongshi He. Dual-tree Quaternion Wavelets for Face Recognition [J]. Journal of Computational Information Systems, 2010, 6(4): 1151-1160

[15] Qirong Zhang, Zhongshi He. Two-dimensional locality discriminant preserving projections for face recognition[J]. Advanced Materials Research, 2010, 121-122: 391-398.

[16] Qirong Zhang, Jianan Gu, Mingfu Zhang. Inverse constrained maximum variance mapping for face recognition[J]. Applied Mechanics and Materials, 2014, 462-463: 452-457

[17] Qirong Zhang. Two-dimensional Parameter Principal Component Analysis for Face Recognition[J]. Advanced Materials Research, 2014, 971-973: 1838-1842

[18] Zhang Q R, Zhang J Y, Wang Y. The improved relative entropy for face recognition [J]. MATEC Web of Conferences, 2016, 63: 04006.

[19] CHAN W L, CHOI H, BARANIUK R G. Coherent multiscale image processing using dual-tree quaternion wavelets[J]. Image Processing, IEEE Transactions on, 2008, 17(7): 1069-1082.

[20] Qirong Zhang, Zhongshi He. The Two-dimensional Combined Bidirectional Laplacian Inverse Fisher Discriminate Analysis Method for Face Recognition[J]. Journal of Information and Computational Science, 2010, 7(13): 2919-2926.

[21] liVETTER M K, KOVACEVIC J. Wavelets and subband coding[J]. Englewood Cliffs, NJ: Prentice-Hall, 1995.

[22] BULOW T, SOMMER G. A novel approach to the 2-D analytic signal[J]. presented at the CAIP, Ljubljana, Slovenia, 1999.

[23] HAM J, LEE D, SAUL L. Semisupervised alignment of manifolds[EB/OL]. 2005, 10: 120-127.

[24] PHILLIPS P J, MOON H, RIZVIR S A, et al. The FERET evaluation methodology for face recognition algorithms[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(10): 1090-1104.

[25] Sim T, Baker S, Bsat M. The CMU pose, illumination, and expression database[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003: 1615-1618.

猜你喜欢
双树拉普拉斯识别率
基于类图像处理与向量化的大数据脚本攻击智能检测
基于真耳分析的助听器配戴者言语可懂度指数与言语识别率的关系
一个村庄的红色记忆
基于双树复小波的色谱重叠峰分解方法研究
提升高速公路MTC二次抓拍车牌识别率方案研究
婆罗双树样基因2干扰对宫颈癌HeLa细胞增殖和凋亡的影响
高速公路机电日常维护中车牌识别率分析系统的应用
双树森林图与同阶(p,p)图包装的研究
基于超拉普拉斯分布的磁化率重建算法
位移性在拉普拉斯变换中的应用