魏小明
摘要:为提高微表情识别精度更好地为微表情分类,提出迁移学习技术与VGG-16模型相结合的微表情识别方法。以CASME、CASMEⅡ作为数据集,在预处理阶段通过对图像进行几何变换、均衡化构建微表情数据集。利用迁移学习后的VGG-16为模型,用数据增强后的数据集,在相同参数环境下,与AlexNet、GooLeNet、ResNet-18模型做对比,探究了不同模型对8种微表情识别的影响,同时探究了不同数据集对模型的性能影响。实验结果:基于迁移学习的VGG-16模型,训练精度及训练损失值均优于参照模型,模型识别精度与数据集数量成正比。
关键词:微表情识别;迁移学习;VGG-16;数据增强
中图分类号:TP391 文献标识码:A
文章编号:1009-3044(2023)01-0031-04
开放科学(资源服务)标识码(OSID) :
微表情是一种一闪而过的面部表情,通常在一个情绪唤起之后快速出现,很难抑制[1]往往能体现出人们的真实想法。由于微表情可应用于医学、犯罪侦查、安防、测谎等重要领域,微表情识别的研究受到国内外的广泛关注。
近年来,计算机技术不断发展,微表情识别技术相比之前有了很大的提高。微表情识别技术主要分为传统方法和基于深度学习的方法。在传统方法例如LBP-TOP、LBP-TOP与光流结合等,由于此类方法主要采用手工制作来提取特征,导致识别精度和效率不高[2],性价比低于深度学习方法。
卷积神经网络(Convolutional neural network,CNN) 在计算机视觉领域应用得很成功,并相继推出了几个经典的网络模型。其中VGGNet更是在2014年LSVRC2014比赛分类项目的第二名和定位项目的第一名[3]。VGG-16模型,由多组卷积层、池化层、激活层组合而成,有着结构简洁的特点,它通过增加结构深度,更加有效的提升模型性能,提升拓展性,减少出错概率。利用迁移学习,能有效地提高识别分类效率及泛化性。本研究拟采用基于迁移学习的VGG-16作为训练模型,与基于其他网络模型做对比,探究微表情识别精度。
1 数据集与预处理
1.1 实验数据
实验所用到的数据集来源于中国科学院心理研究所的 CASME[4]、CASMEⅡ[5]。
1.2 图像预处理
1.2.1 数据扩充
为了防止过拟合现象的发生,本研究对已有图像进行数据增强。通过对图像进行几何变换:翻转(图d) 、水平镜像(图f) ;对比度变化:对比度增强(图b) 、对比度减弱(图c) ;设置椒盐噪声(图a) 的方法,实现样本扩充。为减少因数据样本来源不同,导致样本大小及格式的不同,将所有图像进行大小及格式统一化操作,图像增强效果如图1所示。
数据集根据微表情类别划分为8个微表情标签,从Fear到Repression分别对应1~8的标签编号。由表1得知,各个类别的微表情均扩充了8倍。样本总数由原来的3638张扩充到现在的29104张。
1.2.2 数据均衡化
为尽量消除样本分布不均的现象,对样本数据进行均衡化处理。具体做法是将数据增强后的各类样本数量进行排序,取中位数作为样本数量的上限值,若样本数量超过此值则随机剔除直至满足条件。样本未均衡化与均衡化后的分布情况见图2、图3。
1.3 搭建训练模型
1.3.1 VGG-16网络模型
VGG-16网络模型结构见图4。VGG-16网络模型开始由输入层(ImageInputLayer) 输入目标图像后,分别做两次卷积(Concolution Layer) 和两次relu(激活层)后作最大池化(Max pooling) 处理。将上述两次卷积+两次relu层+一次最大池化为一组,分别作五组处理,后面经过两组全连接层(Fully Connected Layer) +relu层+dropout(全连接)层后,进入softmax分类层后,最后由输出层(Image output Layer) 输出目标图像。
1.3.2 图像分类
全连接层会把卷积、激活、池化后输出的二位特征图(feature map) ,串联在一起转化为(N*1) 的一个一维向量,然后将向量结果输入softmax层。
softmax层多用于分类问题的处理,它不再唯一地确定某一个最大值,而是输出每个分类结果的概率值,表示这个类别的可能性,它将选择最大概率值对应的微表情种类作为输出。softmax函数表达式为:
1.3.3 迁移学习
深度学习中在计算机视觉任务和自然语言处理任务中将预训练的模型作为新模型的起点是一种常用的方法,通常这些预训练的模型在开发神经网络的时候已经消耗了巨大的时间资源和计算资源,迁移学习可以将已习得的强大技能迁移到相关的问题上[7]。迁移学习有着:1) 使用不同的测试数据时,不用重复训练新模型,大大降低工作量;2) 当使用新的数据集时,不需要变更训练数据,降低工作难度及减少经费支出;3) 不用考虑数据集过期问题;4) 对于快速出现的新领域,能够快速迁移和应用,体现时效性优势的优点[8]。因此本文选用VGG-16作为预训练模型,加入迁移学习方法,研究微表情的分类。
2 实验结果
本研究實验方法基于Matlab2020b平台,操作系统是Windows 10 64位,CPU与GPU分别为intel i7-10700与12G的英伟达RTC3060显卡并利用Cuda10.1进行加速训练,以及内存为32GB的微星MAC B460M主板。VGG-16模型的参数设置见表2。
本研究选取AlexNet、GoogLeNet、SqueezeNet、VGG-16四种模型,验证笔者所用方法的准确性与优异性。将4种模型设置相同参数,在同一条件下进行训练和验证。训练曲线图见图5与图6。
训练精度曲线表示了随着迭代次数的增长,预测模型精度的波动情况[9]。由图5 得知,VGG-16模型收敛速度最快,SqueezeNet收敛速度最慢。在1000次迭代时,只有VGG-16与AlexNet的训练精度达到了90%以上,4000次迭代后,4种模型趋于收敛。
训练损失曲线表示了随着迭代次数的增长,真实模型值与预测模型值的偏差波动情况,损失值越小,表明模型精度越高,出错概率越小[9]。由图6得知,在1000次迭代时SqueezeNet损失值为0.5,其余3种模型损失之均在0.5以下,同样是迭代4000次后4种模型损失值区域收敛。4种模型的具体训练结果见表2。
由表2 可得,VGG16虽然在训练时间以及模型大小上没有明显优势,但其训练精度与训练损失值的表现均好于其余3种模型,分别为:训练精度95.02%,训练损失值0.0121。
为验证不同数据集下VGG16模型的识别性能,本人分别采用CASME1、CASME2两组数据集进行训练、验证以及测试出模型的精度,见表3。两组数据集均采用了数据增强操作,其中,图片数量是指数据增强后用于模型训练以及测试的样本数量。由表3 可得,CASME2数据集中,训练精度、验证精度、测试精度均在95%以上,分别为95.55%、95.21%、95.02%,全方位高于CASME1数据集的95.02%、94.94%、94.09%。笔者分析,数据集样本数量越高,其精度及泛化能力越高。
3 结论与不足
笔者在对微表情识别的研究中,采用了VGG16模型与迁移学习相结合的方法,对微表情进行识别与分类。笔者通过此模型与AlexNet、GoogLeNet、SqueezeNet三种模型,在设置了相同参数的环境下,对实验结果进行比较,实验结果可知此笔者所提模型无论在训练精度还是训练损失值上的表现均好于3种参照模型,其训练精度达到了95.2%,训练损失值为0.0121。笔者还在不同数据集下探究了VGG16模型识别性能,实验结果表明,模型精度与图片数量成正比,同时,迁移学习技术改善了模型的收敛情况,对提高模型性能提供了帮助。
此模型也有明显的不足之处,模型识别精度虽略微高于参照模型识别精度,但它的训练时间,以及模型大小,大大超出了参照模型,效率大打折扣。故此模型在时间及空间上还有很大的优化空间。
参考文献:
[1] Baron R A,Byrne D.社会心理学[M].黄敏儿,王飞雪,译.上海:华东师范大学出版社,2004.
[2] 诗雨桐,袁德成.基于深度学习的面部微表情识别[J].沈阳化工大学学报,2021,35(4):380-384.
[3] 毛志强.视频序列中人体异常行为分析技术研究[D].唐山:华北理工大学,2019.
[4] Yan W J,Qi W,Liu Y J,et al.CASME database:a dataset of spontaneous micro-expressions collected from neutralized faces[C]//Shanghai,China:2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition (FG),2013.IEEE,2013:1-7.
[5] Yan W J,Li X B,Wang S J,et al.CASME II:an improved spontaneous micro-expression database and the baseline evaluation[J].PLoS One,2014,9(1):e86041.
[6] 康潆允,孟凡宇,冯永新.一种面向军事物联网的网络流量异常检测模型[J].火力与指挥控制,2021,46(2):120-125,132.
[7] Pratt L Y,Thrun S.Machine Learning-Special Issue on Inductive Transfer[M].Kluwer Academic Publishers,1997.
[8] 张玉立.基于卷积神经网络的人体姿态估计[D].哈爾滨:哈尔滨工程大学,2018.
[9] 万军杰,祁力钧,卢中奥,等.基于迁移学习的GoogLeNet果园病虫害识别与分级[J].中国农业大学学报,2021,26(11):209-221.
【通联编辑:唐一东】