◆朱夏 晗潇
基于YOLO v4的校园环境安全帽检测系统的研究
◆朱夏 晗潇
(大连海事大学 信息科学技术学院 辽宁 116026)
在当代校园环境下,某些实践课的进行必须佩戴安全帽来保证安全。为实现检测,提出一种基于YOLO v4的安全帽应用检测方法。通过机器人采集数据集,判断头部区域与安全帽区域的相交来判定佩戴情况,并通过对比实验来说明采用YOLO v4的原因。最后,提出遮挡方面的不足,并对研究方向进行展望。
计算机视觉;YOLO v4;安全帽识别
随着高等教育水平以及高校环境的发展,越来越多的高校将实践课程列为必修的内容之一。而在此过程中,安全问题也备受大家的关注。其中,安全帽是在某些场合下必须佩戴的物品,然而,很多学生不遵守规定,不能按照要求佩戴安全帽。本文需要一个实施监督作用的技术来改善这种现象。
本文整个应用检测的流程如图1所示,首先通过设计的机器人进行视频数据采集,再经过训练好的YOLO v4[1]模型判断头部和安全帽的位置,之后判断出行为人是否佩戴安全帽。管理员可以通过后台对识别的结果进行管理。
图1 安全帽应用检测流程
本文选择了SpotMini机械狗,结合现实地形以及社会因素的设计,加以改进,通过Solidworks进行建模,设计出以波士顿动力为基础的一款机械狗。本文使用单片机C语言编写控制其行动的程序,采用MG90S金属舵机作为驱动。本文将无线摄像头固定在其头部,进行数据回传。
YOLOv4在原先的Darknet53每一个残差单元加入了Cross-Stage-Partial-connections(CSP),采用CSP[2]先将基础层的特征映射划为两部分,之后通过跨阶段的层次结构将其合并,既减少了计算量,又可以保证准确率。YOLOv4修改SPP以保证输出为空间维度。最大池化的核大小为1*1,5*5,9*9,13*13不等,将来自不同核大小池化后的特征图串联在一起作为输出。SPP 对于 YOLO v3 来说能够极大地增加感受野,分离出最显著的上下文特征,网络运行速度几乎不受影响。YOLO v4的SPP与PANet[3]的特征预测网络在之前YOLOv3基础之上加深了多尺度优化,通过自底向上和自顶向下缩短了底顶层特征之间的路径,最终提高小目标的检测结果。YOLO v4的损失计算公式如下:
其中,是计算两个中心点之间的欧氏距离,为最小包围框的对角线距离。
图2 安全帽佩戴检测流程
本文将前方机器人采集到的数据每隔一段时间传回一张图片,保存到特定的缓存目录中,系统将会使用采取人脸识别技术,提取不规范行为人的信息,进行留存。本文人脸识别方法基于卷积神经网络[4],针对小样本的识别能够达到一个理想的效果。管理平台前端使用react技术开发,后端使用Java开发,整个系统采用传统的MVC架构,坚持“高内聚,低耦合”原则,具有良好的实用性和可维护性。
实验的操作系统为Windows 10,Python版本为3.7.0,处理器为Intel Core i7-9750H,GPU为NVIDIA GeForceGTX1660 Ti,内存7.9G。本文的数据集均为自主采集,本文在校园内自主拍摄在公共场合下佩戴安全帽与未佩戴安全帽各种情况下的图片以及视频。运用可视化图像标注工具,对人的头部以及安全帽进行标注。80%的图片作为训练集,20%的图片作为测试集。训练当中,epoch设置为300,batch_size设置为64,其他参数为默认。
图3 识别结果部分图
从表1可以得出结论,对于本文挑选的数据,YOLO v4网络无论从精度还是从检测的时间上都要明显好于其他两种。YOLO v4 作为一阶目标检测网络好于 Faster R-CNN,这方面本文可以从AP和mAP看出,YOLO v4 作为 YOLO 系列的最新检测网络,在此方面表现得较为优异,这也是本文选择其为检测网络的原因。
表1 实验效果对比
本文首先通过机器人采集数据,之后利用YOLOv4网络进行识别,本文通过训练好的模型来判断头部和安全帽的位置,并且判断两者是否相交来判断行为人是否佩戴安全帽。另外,本文通过对比实验发现对于安全帽识别这一方向,YOLOv4表现得更为优秀。然而,在某些遮挡的情况之下,该行为人会被漏检。在今后的研究当中,将会在这一方向进行深入探讨,以便于提升最终的效果。
[1] Chien-Yao Wang,Hong-Yuan Mark Liao. YOLO v4: Optimal Speed and Accuracy of Object Detection[C]// arXiv:2004.10934v1 [cs.CV] 23 Apr 2020.
[2] Chien-Yao Wang,Hong-Yuan Mark Liao,I-Hau Yeh,Yueh-Hua Wu,Ping-Yang Chen,Jun-Wei Hsieh. CSPNET:A NEW BACKBONE THAT CAN ENHANCE LEARNING CAPABILITY OF CNN[C]// arXiv:1911.11929v1 [cs.CV] 27 Nov 2019.
[3] Shu Liu,Lu Qi,Haifang Qin,Jianping Shi,Jiaya Jia. Path Aggregation Network for Instance Segmentation[C]// arXiv:1803.01534v4 [cs.CV] 18 Sep. 2018.
[4]陈耀丹,王连明.基于卷积神经网络的人脸识别方法[J].东北师大学报(自然科学版),2016,48(02):70-76.