王 曦,盖绍彦,达飞鹏
融合几何信息和方向信息的三维掌纹识别方法
王 曦1,2,盖绍彦1,2,达飞鹏1,2
(1. 东南大学自动化学院,江苏 南京 210096;2. 东南大学复杂工程系统测量与控制教育部重点实验室,江苏 南京 210096)
针对三维掌纹特征表示的鲁棒性和准确性问题,提出一种融合曲面的几何特征和方向特征的三维掌纹识别方法。基于现有的曲面类型编码提取掌纹几何特征的基础上,提出使用基于形状指数的编码来共同表达三维掌纹的几何特征,从而有效减少由阈值所引起的错误编码带来的准确性上的影响。此外,提出一种多尺度的改进竞争编码来表达掌纹的方向特征。在决策层,使用基于多字典的协同表示框架融合上述几何特征和方向特征以完成掌纹识别。在公开的三维掌纹数据集上的大量实验表明,所提方法可以在保持较低计算复杂度的同时实现最佳的识别精度。
三维掌纹识别;生物特征;形状指数编码;改进竞争编码;协同表示
近年来,随着社会科技的发展,在出入控制、机场和车站安检、银行和刑侦等应用场景中,基于生物特征的身份识别由于其用户友好性以及可靠性越来越受到人们的关注[1]。掌纹包含丰富的可用于识别内在特征(主线、脊线、皱纹等)。这些特征被认为是永久性的,对个体而言是唯一的。此外,掌纹识别由于其在采集时对手掌的约束性较低而容易被用户接受。所以,掌纹是一种可以为身份识别提供高精度和用户友好性的生物特征,研究掌纹识别是一项既有极大的社会应用价值又在理论上有巨大挖掘潜力的工作。
目前已有的掌纹识别技术主要包括2D和3D掌纹识别。ZHANG等[2]首先提出了用Gabor滤波器在2D掌纹图像上提取方向特征并进行编码,然后用汉明距离进行识别。此后,许多基于方向特征的方法被提出,如竞争编码[3],RLOC[4],LLDP[5],BOCV[6],DOC[7],DRCC[8],FDR[9]等。另外,常见的基于图像的机器学习方法也可以应用于掌纹识别,如深度学习方法[10]。2D掌纹图像识别具有明显的优点和缺点。优点是2D图像易于采集且成本较低,实时性较高;缺点是容易受光照、角度变化以及掌纹表面脏污的影响且易被伪造的假手掌欺骗。90年代起,随着3D测量技术的发展,基于3D掌纹的识别技术快速发展起来。ZHANG等[11]搭建了一套基于结构光技术的3D测量系统用于采集3D掌纹图像。
3D掌纹的曲率信息描述了一个曲面固有的内在属性,不受旋转和光照变化的影响,具有很好的稳定性和鲁棒性。在此前的3D掌纹识别中,很多学者使用的是BESL和JAIN[12]提出的根据高斯曲率和均值曲率的符号对3D掌纹中的点进行分类的方法,该3D特征被称为曲面类型(surface type,ST)。如,文献[11]提出了一种通过对曲面曲率和ST特征进行二进制编码的3D掌纹识别方法;文献[13]通过拼接分块ST直方图形成了基于向量的3D掌纹描述符,并将协同表示用于特征识别。BAI等[14]通过结合分块ST直方图描述符和主成分分析法完成掌纹识别。
ST是基于曲率的阈值来划分的,由于掌纹是非刚性物体,在测量过程中很容易产生微小形变以及存在2张掌纹点云的配准不完全准确的情况,导致阈值附近的点存在着被误判的可能性。为了降低仅基于ST表达几何特征造成的误判所带来的识别率上的影响,本文并行使用一种根据形状指数(shape index,SI)[15]的数值区间对3D掌纹中的点进行分类的方法,在此基础上对每一个点进行编码,称为形状指数编码(shape index coding,SIC)。本文首次提出对SI进行离散地编码并将其引入3D掌纹识别领域。实验证明,同时使用ST和SIC可以进一步提高3D掌纹几何特征表征的准确性和鲁棒性。此外,还提出一种多尺度的改进竞争编码(multi-scale modified competitive coding,MSMCC)以提取掌纹的方向特征,并在决策级与上述MSMCC、SIC及ST特征进行加权融合。在选择分类算法时,若采用一对一身份验证的方法在样本规模较大的情况下,计算速度难以令人满意,为了解决一对多掌纹识别中的速度问题,现有研究表明基于协同表示(collaborative representation,CR)的模型可以同时实现较高的准确性和计算效率[13,16-17]。因此,本文将基于多字典协同表示的分类模型用于3D掌纹识别。
本文将先介绍现有的3D掌纹的ST和SI的计算方法,以及2D掌纹中经典的方向特征——竞争编码。
3D掌纹表示一块凹凸不平的手掌感兴趣区域(region of interest,RoI),而3D掌纹RoI图像表达了一个手掌曲面的深度信息,图1展示了3D掌纹RoI图像,其中上面2张来自同一个手掌,下面2张来自另一个手掌。
对于3D掌纹中的任意一点,文献[12]提供一种根据事先定义的一组窗口模板来计算均值曲率(mean curvature,MC)和高斯曲率(Gaussian curvature,GC)的方法。假设一个曲面片定义为(,,(,)),点(,)处的MC和GC分别为
其中,f,f,f,f和f分别为(,)的一阶、二阶和混合偏导,其可由一组窗口模板[12]计算得到。
1.1.1 曲面类型
为了更形象地描述3D曲面的特性,文献[12]将一个曲面分成8种基本类型,并称之为ST。这些曲面类型是根据()与零值的大小关系定义的。并指出一种特殊的ST是当=0并且>0时的情况,虽然该类型实际中并不存在,但是为了完整性仍然被使用。因此,3D掌纹中的任意一点的ST可以被表示为9种曲面类型之一,见表1。
表1 曲面类型
当根据和的符号对一个点分类时,需要判断()等于零的情况,但由于和恰好等于零的情况极少,因此定义一对零值附近的对称区间[–ε,+ε]和[–ε,+ε],当()的值落在区间内,就认为()等于零,具体做法参考文献[12]。
1.1.2 形状指数
为了直观地描述一个3D形状,文献[15]提出了SI,其比曲面曲率更加直观地表达了局部形状的特性,并且具有尺度不变性。假设为曲面上的一点,对于上任意一条过点的曲线C,设曲线C在点处曲率值为k,其中1为曲率值k中的最大值,2为最小值,1和2又称为曲面中点处的主曲率。1和2的计算如下
得到1和2后,点处的形状指数S为
其中,S为曲面上点处的几何信息。由此可知,形状指数的取值都在[–1,1]之间。因此,根据形状指数取值的区间[15],可以将其划分为9种局部形状,见表2。
表2 形状指数
在掌纹识别的研究中,方向特征被认为是低分辨率2D掌纹识别中十分有效的特征,用一组方向不同的Gabor滤波器与2D掌纹图像做卷积运算,并在每一点比较卷积运算的响应结果,根据“winner-take-all”原则[3]将响应最大的方向认为是该点所在纹线的方向,这种方法称为竞争编码。
Gabor滤波器是提取方向特征信息十分有效的工具。一般使用Gabor滤波器的实部来提取2D掌纹图像的方向特征,即
其中,(,)为掌纹图像;*为卷积运算;(,)为卷积响应值最大的滤波器的方向下标。
本节提出了一种对SI按照区间编码的特征——SIC,并分析了SIC与ST的互补性。此外,对传统的竞争编码进行了改进,提出一种多尺度的改进竞争编码——MSMCC。
ST用于表征3D曲面的几何特征。根据文献[12]的做法,在判断和的符号时,定义了一个零值附近的区间。在接触式的3D掌纹采集过程中,被测手掌要求张开平放在采集平台上,因此采集到的3D掌纹中的大多数点的曲率值都比较小。换言之,一个3D掌纹中大量的点会聚集在上文所定义的区间附近。无论是区间选择的合理性还是3D掌纹测量过程中的微小形变和噪声,均会对判断和的符号造成影响,从而产生一定数量的点的误判。此外,在实际中并未有曲面对应着=0且>0的情况。因此,单纯地使用ST表达3D曲面的几何特征必然存在着稳定性和准确性上的问题。本文提出使用SIC来共同表征3D掌纹的几何特征。尽管SI早已被提出,并且已广泛的应用于3D生物特征识别中(例如杨冰等[18]将SI转化为灰度,然后从中再提取局部纹理特征用以掌纹识别),但本文首次提出对SI进行离散地编码并引入三维掌纹识别。SIC根据9种不同的局部形状对3D表面的几何信息进行编码,且9种形状均具有实际意义,见表3。
图2中,左图和右图是不同时间采集自同一只手掌的2个3D掌纹样本。现在分别在左、右手掌上的同一点执行ST和SIC编码。根据文献[12]描述的区间,左、右掌纹的MC符号维持一致,但是由于形变和噪声,此时右图掌纹的GC符号发生改变,并以红色字体标记,因此,左、右掌纹在该点处的ST编码不一致。但是,根据表3中SIC的编码规则,此时左、右掌纹在该点处的SIC是一致的。这表明SIC和ST本质上是2种不同的三维特征表达,且具有一定的互补性,使用SIC共同表征3D掌纹的几何特征可以提高算法的稳定性和准确性。
SIC与ST均可对3D掌纹几何特征进行描述,为了进一步提升算法的性能,本文提出的MSMCC可从均值曲率灰度图(mean curvature image,MCI)中提取掌纹的方向特征。传统的竞争编码仅使用单个尺度的Gabor滤波器来提取每个特定角度上的局部方向信息。实际上,不同尺度的Gabor滤波器可以感知不同的方向信息,即不同尺度的Gabor滤波器对应于不同的感受野。感受野越小,所提取的方向信息就越局部化。此外,MCI图中具有大量的灰度平坦区域。在这些平坦区域使用传统竞争编码,因受形变等因素影响产生编码错误的可能性相对较大。受此启发,本文使用MSMCC来更好地表征掌纹的方向特征。
图2 SICs与STs互补性分析
在获得8个方向的多尺度卷积响应之后,通过响应的极差来筛选出灰度平坦区域中的点,并将其的竞争编码置为零。本文通过实验发现,位于平坦区域的点上的竞争编码更容易受到形变和噪声等因素的影响。经过改进,MSMCC的编码规则为
其中,max为8个方向的多尺度响应中的最大响应,min为最小响应;为控制筛选位于平坦区域点的值;(,)为式(7)所示的竞争编码。
因此,MSMCC将MCI的每个点都编码为从0~8的数字。根据经验,将设置为3,将Gabor滤波器的参数设置为5.617 9,并且由于参数与尺度直接相关,本文将4个不同尺度的Gabor滤波器的分别设置为0.176 7,0.125 0,0.091 6和0.062 5,且对应的权重分别为0.2,0.2,0.3及0.3。
图3第2行显示,当=3.0时,图中白色的点即为筛选出的位于平坦区域的点,图3第1行为其对应的MCI图。可以发现,在MCI中的主线及其他较明显的皱线区域附近,图3第2行中则均显示为黑色的点,这与人们的认知相符:有明显方向特征的区域应该使用Gabor滤波器来表示方向。
图3 平坦区域点(T=3.0)
图4展示了提取MSMCC的实际过程。对于MCI的每一点,使用8组包含4个尺度的Gabor滤波器与之卷积,然后依次将4个尺度的卷积响应的加权值作为各个方向的最终响应。最后利用极差筛选出“平坦区域”的点,以此形成多尺度的改进竞争编码。
图4 MSMCC特征提取示例
本文通过SIC和ST编码特征来表征3D掌纹的几何特征,并提取了MSMCC来表征3D掌纹的方向特征。因此,对于一张3D掌纹RoI图像,可以获得对应于SIC,ST和MSMCC特征的3个编码特征图。为了抵抗形变并降低计算复杂度,本文使用基于分块直方图统计的方法。
3D掌纹RoI图像的大小为128×128像素,以不重叠的方式逐行进行分块。根据实验,当每个小块的大小为12×12像素时,其效果最佳。对每一个小块分别进行直方图统计后,将其连成一个更大的直方图特征。因此,对于一张3D掌纹RoI图像,可以得到对应于SIC,ST和MSMCC的3个降维后的直方图特征向量。
根据文献[13],本文使用基于协同表示的分类模型。根据4.1节的方法,从训练集里的样本中分别提取出SIC,ST和MSMCC直方图特征,在算法描述过程中3种特征向量均简记为.j,其中为第类3D掌纹RoI图像,为该类中第个掌纹样本。将训练集中所有样本提取出的.j按照如下顺序排列构建训练字典
其中,为掌纹样本的类的数量;n为训练集中第类样本的数量;为特征向量.j的维数;为训练样本的总数。
本文利用SIC,ST和MSMCC特征构造了3个独立的字典,分别记录为1,2,3。
给定一张测试3D掌纹RoI图像,参考3.1节的做法分别提取SIC,ST和MSMCC直方图特征向量,并记为1,2,3。并根据基于协同表示的分类模型,分别计算1(2,3)用字典1(2,3)来表示权重向量1(2,3),即
然后,分别根据权重向量1,2,3计算出该测试样本与训练集中的每类掌纹之间的匹配误差,其可用欧式距离表示,即
其中,δ()为一个从衍生的新向量,即将中与类别相关联的项保留不变,其余项均置零;()为向量与第类之间的匹配误差。
最后,从独立的字典1,2,3分别获得3个独立的匹配误差,其分别代表该测试掌纹基于SIC,ST和MSMCC特征的分类结果。常用的融合方法包括特征级融合和决策级融合,经过实验,本文选择在决策级对上述3个匹配误差进行加权融合,如式(13)所示。其中,w为权重,=1对应SIC,=2对应ST,=3对应MSMCC,相应地,本文中1为0.30,2和3均为0.35;r()为该测试掌纹和第类之间的最终匹配误差,误差最小的类别可为识别结果,即
最后,本文的算法流程图如图5所示。首先,在离线训练部分,可从训练集中的所有掌纹样本中提取SIC,ST和MSMCC特征,并形成SIC,ST和MSMCC图。然后,使用基于分块直方图统计的方法进一步提取降维的直方图特征。之后,对于SIC,ST和MSMCC,分别将所有训练样本的直方图特征按列依次连接以形成训练字典A1,A2,A3。在线测试部分,对于3D测试掌纹,首先按照相同的步骤提取对应于SIC,ST和MSMCC 的直方图特征y1, y2, y3;然后根据y1 (y2, y3)计算由字典A1(A2,A3)表示的权重向量x1 (x2, x3);接下来,根据权重向量x1, x2, x3,计算出该测试掌纹与训练集中的每一类掌纹之间的匹配误差r1, r2, r3。最后,在决策层进行加权融合,得出分类结果。
所有实验均在公开的香港理工大学3D掌纹库(Hong Kong Polytechnic University 3D palmprint database)上进行的。该数据集包含了8 000张采集自400个(来自200名志愿者)不同手掌的3D掌纹样本。志愿者包括136名男性和64名女性,年龄10~55岁。每个手掌都分2个阶段采集,时间跨度为1个月,每个阶段采集10个样本。经过处理数据集中每一个3D掌纹RoI图像的大小为128×128像素。实验平台的硬件规格为Intel(R) Core(TM) i7-4770 (3.40 GHz)的CPU,以及8 GB的ARM,软件平台为 Visual Studio 2015。
为了证明本文方法的有效性,将本文方法与MCI_GCI_ST[11],MCI_Comp[19],SI_Comp_LTP[18],ST_CR[13],ST_PCA[14],CBR[20],PDCST[21]先进的3D掌纹识别方法进行了比较。实验中分别选择每个类别的样本数=1 (2,3,4,10)作为训练集,其余的样本被选作测试集。在每类样本数=1 (2,3,4)时,随机选择训练样本并执行10次以计算平均准确率。在=10时,选择第1阶段采集的10张样本作为训练集,第2阶段采集的10张样本则为测试集。实验结果见表4。可以看出,本文方法相比于其他7种方法具有更突出的性能。特别地,当选择1,2,3,4,10个掌纹样本作为训练样本时,本文方法在Rank-1准确率上,相比其他7种方法的平均准确率可以分别提高约7.64%,3.38%,1.99%,0.98%,3.15%。
表4 不同掌纹识别方法Rank-1准确率比较(%)
此外,还将式(11)计算出的对应SIC,ST和MSMCC权重向量拼接作为一个新的特征向量,然后再使用支持向量机(support vector machine,SVM)作为分类器,选择C类支持向量分类机,核函数使用高斯径向基核函数,=0.1,=0.1,记为CR_SVM_RBF;此外,将式(10)中的正则化项,即第二项替换成L1-范数,并使用Homotopy[22]方法求解近似解,记为CR_L1_Homotopy。使用第1阶段采集的10张样本作为训练集,将第2阶段采集的10张样本作为测试集,将2种对比方法和本文方法的Rank-1识别率及平均完成一次识别所需时间(包含模型训练和分类识别)列为表5。从表5中可见,本文方法比CR_SVM_RBF和CR_L1_Homotopy方法的计算时间要缩短很多,识别率比CR_SVM_RBF方法高2.33%,仅比CR_L1_Homotopy低0.04%,因此本文方法整体上优于其他2种方法。
表5 基于协同表示的方法比较
经过一系列比较实验证明了本文提出的SIC和MSMCC特征的有效性。以下所有实验均使用与本文方法相同的处理过程(图5):即使用基于分块直方图统计和基于协同表示的分类算法。实验结果如图6所示。
图6(a)比较了当训练样本数分别为1 (2,3,4,10)时,单独使用ST或SIC以及将ST和SIC在决策层融合(图中记为ST+SIC)的Rank-1准确率。图6(b)比较了MSMCC以及其他4种先进的基于方向特征的方法的Rank-1准确率,其包括CompCode[3],LLDP[5],DOC[7],BOCV[6]。图6(c)比较了单独使用ST,SIC,MSMCC以及在决策层将三者融合(记为Proposed)的Rank-1准确率。
图6(a)显示,在将SIC与ST融合后,算法的准确性有了明显提高,表明本文利用SIC共同表征3D掌纹几何特征的方法是有效的。由于形变等其他因素的影响,基于阈值的ST特征很容易造成阈值附近点的误判。融合SIC之后,可在决策级上降低此类误判对识别结果的影响,因此可以有效提高算法的鲁棒性和准确性。
图6 SIC及MSMCC有效性实验
图6(b)表明,MSMCC的性能优于CompCode。此外,尽管MSMCC和LLDP,DOC,BOCV方法均利用了多个方向的信息,但MSMCC并非对多个方向进行编码,而是维持了竞争编码的“winner-take-all”原则:即在本文认为的非平坦区域中,仍将具有最大响应的Gabor滤波器的方向视为该点所在纹线的方向,但是对于由最大响应和最小响应筛选出的位于平坦区域的点将被统一地编码。
图6(c)表明,本文使用的几何特征SIC和ST,在与方向特征MSMCC融合后,显著地提高了算法的准确性,说明本文对3种特征的融合是有意义的,其间存在着强大的互补性。
为了评估本文算法的计算复杂度,将本文算法与其他几种方法进行了特征提取时间和平均完成一次识别所需时间2方面的比较。实验中,每种方法均使用第1阶段采集的10张掌纹样本作为训练集,第2阶段采集的另外10张掌纹样本作为测试集。每种方法均重复10次,取平均值作为结果,见表6。
表6 不同方法的计算时间对比(ms)
从表6可以看出,本文方法在特征提取上花费的时间比ST_CR和ST_PCA方法略长,但与CBR和PDCST方法相当接近。原因是ST_CR和ST_PCA仅提取单个ST特征,但本文方法与CBR、PDCST方法还提取了方向特征。本文方法需要在提取MSMCC时使用Gabor滤波器对图像进行卷积运算,特别是MSMCC在每个方向上都需要使用4个不同尺度的滤波器进行卷积,这是本文算法耗时的主要原因。
对于识别单张样本所需的时间,本文方法仅比ST_CR和ST_PCA慢一些,但是快于其他方法,其原因是本文使用了基于协同表示的分类模型,该方法不需要与训练集中的所有训练样本进行一对一的比较。因此,本文方法可以在达到最佳的识别精度的同时保持较低的时间复杂度,并且在大规模的掌纹识别应用中这一优势尤为明显。
本文提出了一种新型的3D掌纹识别方法,其具有出色的识别精度并可满足实时性要求。在特征提取方面,本文分别从3D掌纹的几何特征和MCI图上的方向特征入手。对于ST,处于阈值附近的点由于形变和噪声干扰而容易被误判,因而导致几何特征表达的不确定性和不稳定性,为了解决该问题,提出了使用基于SI的编码特征SIC来共同表征3D掌纹的几何特征。另外,本文还提出MSMCC,并在基于多字典协同表示的分类模型的决策层将其与SIC和ST融合,有效提高了算法的准确性和鲁棒性。在公开的数据库PolyU3D palmprint database上的大量实验结果验证了该方法在3D掌纹识别中的突出性能以及本文所提出的SIC和MSMCC特征在3D掌纹特征表示上的有效性。
[1] JAIN A K, ROSS A, PRABHAKAR S. An introduction to biometric recognition[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2004, 14(1): 4-20.
[2] ZHANG D, KONG W K, YOU J, et al. Online palmprint identification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(9): 1041-1050.
[3] KONG A W K, ZHANG D. Competitive coding scheme for palmprint verification[C]//Proceedings of the 17th International Conference on Pattern Recognition, 2004. ICPR 2004. New York: IEEE Press, 2004: 520-523.
[4] JIA W, HUANG D S, ZHANG D. Palmprint verification based on robust line orientation code[J]. Pattern Recognition, 2008, 41(5): 1504-1513.
[5] LUO Y T, ZHAO L Y, ZHANG B, et al. Local line directional pattern for palmprint recognition[J]. Pattern Recognition, 2016, 50: 26-44.
[6] GUO Z H, ZHANG D, ZHANG L, et al. Palmprint verification using binary orientation co-occurrence vector[J]. Pattern Recognition Letters, 2009, 30(13): 1219-1227.
[7] FEI L K, XU Y, TANG W L, et al. Double-orientation code and nonlinear matching scheme for palmprint recognition[J]. Pattern Recognition, 2016, 49: 89-101.
[8] XU Y, FEI L K, WEN J, et al. Discriminative and robust competitive code for palmprint recognition[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2018, 48(2): 232-241.
[9] 陈晓蔓, 贾伟, 李书杰, 等. 融合全局和局部方向特征的掌纹识别方法[J]. 图学学报, 2019, 40(4): 671-680. CHEN X M, JIA W, LI S J, et al. Palmprint recognition method combining global and local direction features[J]. Journal of Graphics, 2019, 40(4): 671-680 (in Chinese).
[10] ZHAO S P, ZHANG B. Deep discriminative representation for generic palmprint recognition[J]. Pattern Recognition, 2020, 98: 107071.
[11] ZHANG D, LU G M, LI W, et al. Palmprint recognition using 3-D information[J]. IEEE Transactions on Systems Man and Cybernetics Part C (Applications and Reviews), 2009, 39(5): 505-519.
[12] BESL P J, JAIN R C. Segmentation through variable-order surface fitting[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1988, 10(2): 167-192.
[13] ZHANG L, SHEN Y, LI H Y, et al. 3D palmprint identification using block-wise features and collaborative representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(8): 1730-1736.
[14] BAI X F, GAO N, ZHANG Z H, et al. 3D palmprint identification combining blocked ST and PCA[J]. Pattern Recognition Letters, 2017, 100: 89-95.
[15] KOENDERINK J J, VAN DOORN A J. Surface shape and curvature scales[J]. Image and Vision Computing, 1992, 10(8): 557-564.
[16] ZHANG L, YANG M, FENG X. Sparse representation or collaborative representation: Which helps face recognition?[C]//2011 International Conference on Computer Vision. New York: IEEE Press, 2011: 471-478.
[17] YANG A Q, ZHANG L, LI L D, et al. Multi-dictionary based collaborative representation for 3D biometrics[M]//Intelligent Computing Theories and Application. Cham: Springer International Publishing, 2016: 39-48.
[18] 杨冰, 王小华, 杨鑫. 基于局部纹理特征的三维掌纹识别研究[J]. 光电工程, 2014, 41(12): 53-59. YANG B, WANG X H, YANG X. Research on 3D palmprint recognition based on local texture features[J]. Optoelectronic Engineering, 2014, 41(12): 53-59 (in Chinese).
[19] LI W, ZHANG D, ZHANG L, et al. 3-D palmprint recognition with joint line and orientation features[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews), 2011, 41(2): 274-279.
[20] FEI L K, LU G M, JIA W, et al. Complete binary representation for 3-D palmprint recognition[J]. IEEE Transactions on Instrumentation and Measurement, 2018, 67(12): 2761-2771.
[21] FEI L K, ZHANG B, XU Y, et al. Precision direction and compact surface type representation for 3D palmprint identification[J]. Pattern Recognition, 2019, 87: 237-247.
[22] MALIOUTOV D M, CETIN M, WILLSKY A S. Homotopy continuation for sparse signal representation[C]//Proceedings. (ICASSP ’05). IEEE International Conference on Acoustics, Speech, and Signal Processing 2005. New York: IEEE Press, 2005: 733-736.
Fusion of geometric and orientation information for 3Dpalmprint recognition
WANG Xi1,2, GAI Shao-yan1,2, DA Fei-peng1,2
(1. School of Automation, Southeast University, Nanjing Jiangsu 210096, China; 2. Key Laboratory of Measurement and Control of Complex Engineering System, Ministry of Education, Southeast University, Nanjing Jiangsu 210096, China)
In order to improve the robustness and accuracy of the feature representation of 3D palmprint, a method integrating the geometric and directional features of curved surfaces was proposed. Based on the existing method using the surface type (ST)-based coding to extract geometric features of a 3D palm, we proposed to use the shape index (SI)-based coding to jointly characterize the geometric features of 3D palmprints. This operation can effectively reduce the impact on accuracy brought by the error encoding caused by the threshold. Moreover, we proposed a multi-scale modified competitive coding (MSMCC) to characterize the orientation features. The multi-dictionary collaborative-representation (CR)-based framework was employed to merge the geometric and orientation features into the decision level to perform identification. Extensive experiments on the public 3D palmprint database prove that the proposed method can achieve an optimal rank-1 recognition accuracy while maintaining a relatively low computational complexity.
3Dpalmprint recognition; biometrics; shape index coding; modified competitive coding; collaborative representation
TP 391
10.11996/JG.j.2095-302X.2020030390
A
2095-302X(2020)03-0390-09
2019-12-13;
2020-02-14
国家自然科学基金项目(51475092,61462072);江苏省自然科学基金项目(BK20181269);深圳市知识创新计划基础研究项目(JCYJ2018030 6174455080)
王 曦(1994-),男,江苏盐城人,硕士研究生。主要研究方向为掌纹识别、图像处理。E-mail:929462704@qq.com
盖绍彦(1979-),男,江苏南京人,副教授,博士,博士生导师。主要研究方向为三维测量、计算机视觉和图像处理。E-mail:qxxymm@163.com