汤双霞
摘 要:现代人脸识别以深度学习技术为核心,以卷积神经网络为基础,通过输入图像提取到人脸的特征值计算分析人脸的表情。通过分析当前学生的专注度(表情变化),建立数据采集样本集,通过训练计算完成课堂专注度分析,形成课堂学生专注度分布结果。结果表明,进行教师的课堂学情分析,有利于进行课程的教育教学改革,提高办学水平,也有利于教育行业的技术进步,提高行业的信息技术教育水平。
关键词:深度学习;卷积神经网络;课堂学情分析;专注度;数据采集;信息技术教育水平
中图分类号:TP315 文献标识码:A 文章编号:2095-1302(2019)06-0-02
0 引 言
随着互联网应用和计算机网络技术的飞快发展,大数据的应用已经直接影响到各个领域的信息系统中,大量数据的更新换代,对不同类型的数据库进行支撑。合理应用相关数据信息,就能明确数据信息带来的价值和意义。随着深度学习技术的发展,人脸识别技术采用深度学习的算法进行识别。深度学习是当前基于深层次的研究人工智能网络技术的基础研究。
1 深度学习的发展及在教育领域的应用
深度学习的出现打破了神经网络发展的瓶颈。深度学习神经网络包括输入层、隐含层和输出层,通过这种多层的神经网络结构实现复杂函数的逼近。深度学习具备拟合任何复杂函数的特点,在教育领域中也有不可估量的作用。深度学习在教育领域中的关系如图1所示。
2 人脸识别技术的发展
2.1 传统的人脸识别
人脸识别最早可以追溯到20世纪80年代,Calton发表了人脸进行身份识别的文章,拉开了人脸识别理论研究的序幕。Calton对人脸识别进行了潜心研究,但没有研究到人脸自动识别的地步。人脸识别算法经过了最近几十年的摸索,达到了很好的识别率,能从数据集上训练和测试出算法的识别率。
2.2 以深度学习及神经网络技术应用的人脸识别
深度学习神经网络理论提出后,相关研究人员通过网络可在图像中听到较大的噪声,发现遮挡状况。经研究发现,卷积神经网络对图像平移、尺度的辨别较弱,但对加强网络的性能非常有利。神经网络模型类似方法较多,有时滞神经网络、径向基函数网络和Hopfield网络。神经网络不需要人工特征提取算法设计、研究,自动收集数据集即可。
3 基于深度学习的人脸识别系统设计实现方法
3.1 人脸识别过程图
3.2 基于深度学习人脸识别技术的过程
采用深度学习多任务卷积神经网络(Multi-task Convolutional Neural Network,MTCNN)算法检测人脸的位置,将原始图像通过尺度变化为不同尺寸,构建图像结构,然后通过整体人脸及人脸的各种特征点进行定位。
通过Face++算法对收集到的人脸图片进行深度训练,在LFW(Labeled Faces in the Wild)数据集上验证准确率高达90%。训练出一个9层的人工神经网络来进行人脸特征表达。基于深度学习的Face++算法人脸识别流程图如图3所示。
图中,首先将人脸进行分块,然后通过训练好的深度学习网络提取出特征值,最后对这些特征值进行人脸身份分析。通过结构光技术融合深度图像信息,提高人脸识别的准确度。人脸的深度图可以很好地对人脸进行描述,不受光线、化妆等因素的影响。
4 结 语
人脸识别技术是基于人的脸部特征对输入的人脸图像或者视频流进行识别,首先判断其是否存在人脸 ,如果存在人脸,则进一步给出每个脸的位置、大小和各个主要面部器官的位置信息;依据这些信息,进一步提取每个人脸中所蕴涵的身份特征,并将其与已知的人脸进行对比,从而识别每个人脸的身份。在人脸图像中提取特征值,分析当期学生的专注度时,可自定义采样频率,建立数据采集群体样本,利用统计学原理完成学生课堂专注度分析,将教学过程分析和专注度分析进行关联,形成课堂过程专注度分布结果。
参 考 文 献
[1] LEE H,GROSSE R,RANGANATH R,et al. Convolutional deep belief networks for scalable unsupervised learning of hierarchical representations [C]// Proc of the 26th International Conference on Machine Learning. New York:ACM Press,2009:609-616.
[2] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. Imagene t classification with deep convolutional neural networks [C]// Advances in neural information processing systems. Cambridge,MA,USA:MIT Press,2012:1097-1105.
[3] SIMONYAN K,ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [J]. arXiv preprint arXiv:1409.1556,2014.
[4] BEBIS G,GEORGIOPOULOS M. Feed-forward neural networks [J]. IEEE Potentials,1994,13(4):7-31.
[5] RUMELHART D E,HINTON G E,WILLIAMS R J. Learning Internal Representations by Error Propagation [M]// Parallel distributed processing:explorations in the microstructure of cognition,Cambridge,MA,USA:MIT Press,1986:318-362.
[6]劉颖超,张纪元.梯度下降法[J].南京理工大学学报,1993(2):12-16.
[7] ZUR R M,JIANG Y,PESCE L L,et al. Noise injection for training artificial neural networks:A comparison with weight decay and early stopping [J]. Medical physics,2009,36:4810.
[8] WON Y,GADER P D,COFLIELD P C. Morphological shared-weight networks with applications to automatic target recognition [J]. IEEE transactions on neural networks,1997,8(5):1195-1203.
[9]韩立权.无线网络攻击中保护用户敏感隐私信息仿真[J].计算机仿真,2017(3):277-280.
[10]李红丽,许春香,马耀锋.基于多核学习SVM的图像分类识别算法[J].现代电子技术,2018,41(6):50-52.