刘国庆,方成刚,黄德军,龙超
基于改进YOLOv5的试剂卡印刷缺陷检测算法
刘国庆1,方成刚1*,黄德军2,龙超1
(1.南京工业大学 机械与动力工程学院,南京 211800;2.南京紫城工程设计有限公司,南京 211800)
针对试剂卡生产企业采用人工分选印刷缺陷的试剂卡存在效率低、成本高、易漏检的问题,提出一种基于深度神经网络YOLOv5s的改进试剂卡印刷缺陷检测算法YOLOv5s-EF。通过图像预处理算法获得高质量的缺陷图像数据集,在YOLOv5s的主干特征提取网络中添加高效通道注意力(Efficient Channel Attention, ECA)机制,增强特征图中重要特征的表示能力;引入焦点损失函数(Focal Loss)来缓解正负样本不均衡的影响;结合印刷区域的定位结果,二次精确定位并构建方位特征向量,提出一种特征向量相似度匹配方法。实验结果表明,本文提出的试剂卡印刷缺陷检测算法在测试集上的检测平均准确度可以达到97.3%,速度为22.6帧/s。相较于其他网络模型,本文提出的方法可以实现对多种印刷缺陷的识别与定位,模型具有较好的检测速度和鲁棒性,有利于提高企业生产的智能化水平。
缺陷检测;YOLOv5s;深度学习;高效通道注意力机制;焦点损失函数
检测试剂卡是一种医疗产品,因其操作简单,非专业医疗技术人员也能轻松掌握,同时可为患者提供快速的检测服务,得到了广泛应用。检测试剂卡可分为上盖、底盖、试剂条三部分。尽管在生产过程中有完整成熟的工艺流程,且有专业技术人员进行把控,但在大批量生产时由于现有工艺的限制,印刷标志仍可能会出现露白、缺损、漏印、偏移、歪斜等缺陷,进而影响试剂卡的正常使用,甚至造成检测结果错误等严重影响。
基于机器视觉的缺陷检测方法因稳定性高、不受人为因素干扰等优点被广泛应用于印刷缺陷检测领域。常用的图像缺陷检测算法主要有图像差分法、归一化互相关系数法、直方图分析法[1]。但这些方法对灰度变化、旋转、形变以及遮挡等影响因素比较敏感,且不易对缺陷直接定位,具有一定的局限性。很多学者因此提出了不同的方法,胡方尚等[2]将二叉决策树与向量支持机相结合,采用改进的多类分类算法实现印刷缺陷的准确识别,但其对检测精度要求高,对难分割的缺陷检出率较低。冯秋歌等[3]通过提取SIFT特征点,并设计滤波算子的方法,对印刷字符出现的漏印、字符缺失、污渍进行检测,但算法鲁棒性较差,无法识别更加复杂的缺陷。
近年来,由于计算机硬件技术的不断发展,使得深度学习等神经网络技术在图像处理、目标检测领域有了迅速的发展,基于深度学习的图像识别已经广泛应用于缺陷检测等领域。以区域卷积神经网络(Regions with CNN Features,R-CNN)[4]、Fast R-CNN、Faster R-CNN等算法为代表的两阶段算法(Two-Stage)),以YOLO(You Only Look Once)系列[5-7]、单激发多盒检测器(Single-Shot MultiBox Detector SSD)、RetinaNet等算法为代表的单阶段算法(One-Stage)在缺陷检测领域都得到了广泛应用。
周玮等[8]利用滤波抑噪等方法对采集图像进行预处理,结合YOLOv3与AlexNet网络实现了对包装袋字符喷码缺陷的定位与识别,但模型复杂计算量较大。Feng等[9]将可见光图像分割与红外图像故障定位相结合,使用YOLOv5与残差神经网络(ResNet)实现了对大型光伏电站中光伏组件缺陷的快速检测,准确率达到95%。王恩芝等[10]在YOLOv5的主干网络上添加卷积注意力模块,并结合自适应空间特征融合的方法增强网络的特征融合能力,在纺织品表面的缺陷检测中达到98.8%的精度。但该算法严重依赖大量有明显差异的样本,对样本集较少的情况,其鲁棒性较差。
本文研究的试剂卡缺陷可分为形状缺陷和位置缺陷。露白、缺损、漏印等形状缺陷由改进的YOLOv5s网络直接检出,网络输出结果结合后续图像处理算法对偏移、歪斜等位置缺陷进行检测。试剂卡的露白缺陷特征细小而隐蔽,且容易受到光照变化的影响而与正常图像混淆。样本数量少导致的数据样本不均衡等原因使得原始YOLOv5算法对露白缺陷检出率不高,精度以及速度无法达到现代化生产线的检测要求。为了解决上述问题,本文提出一种针对试剂卡印刷缺陷的检测算法,在YOLOv5s中引入Focal Loss损失函数,并嵌入ECA机制使得网络更加关注缺陷目标的特征,进一步加速收敛并提升性能。针对YOLO系列目标检测算法无法识别目标位置和角度偏移的问题,设计一种可以对试剂卡的形状与位置缺陷进行检测的算法。
本文算法流程如图1所示,由工业相机采集试剂卡图像后需要经过预处理,以增强目标特征。在与模板图像配准后制作缺陷数据集训练改进的YOLOv5s网络模型,通过该模型对缺损、露白、漏印3种缺陷进行识别,同时输出印刷区域坐标信息。利用图像处理算法精确定位印刷字符的位置,并构建方位特征向量,通过相似度计算判定是否有偏移和歪斜缺陷,从而实现对试剂卡常见缺陷的快速检测。
图1 本文算法流程
工业相机直接采集的图像由于工厂环境复杂、光照变化大等因素易引起噪声和图像模糊。为了使露白缺陷更易被检出,需要对图像进行增强处理突出缺陷特征。首先选择中值滤波的方法去除噪声的干扰。然后进行图像锐化以突出灰度的过渡部分,增强图像边缘信息提高对比度。对图像采用二值化处理方法,考虑到光照变化,因此选用最大类间方差法(OTSU)。未经拉普拉斯锐化的露白特征明显少于锐化后的图像,最后通过Hough直线检测进行倾斜校正,并提取试剂卡ROI。各类试剂卡缺陷部分图像具体如图2所示。
图2 试剂卡缺陷分类示意图
在试剂卡图像的实际采集过程中,由于摄像机的机械振动、传感器噪声等因素,导致获取的图像与标准模板存在一定差异[11]。为了降低这种差异,避免对后续方位特征向量的提取造成不良影响,有必要将待检测图像与标准模板进行图像配准。
配准过程中首先使用ORB(Oriented FAST and Rotated BRIEF)算法提取2幅图像的特征点,保留最匹配的特征点并计算描述子。然后通过汉明距离(Hamming Distance)度量2个特征点描述子的相似度。最后通过暴力匹配法(Brute Force)筛选汉明距离满足要求的特征点,建立匹配特征对。采用随机抽样一致(Random Sample Consensus,RANSAC)算法剔除误匹配点对,优化后的特征点对如图3a所示。选择3对最优匹配的特征点计算校正待测图像的单应性矩阵。
通过式(2)进行仿射变换,将待检测图像变换到标准图像的坐标系上实现图像的配准。配准前后图像如图3b、c所示。
图3 配准结果
Fig.3 Registration results
YOLO(You Only Look Once)系列算法的核心思想是将目标的边界框、置信度和类别视为数值回归的问题。YOLOv5算法的网络结构包括输入、Backbone主干网络、Neck网络和Head预测头部[12]。本文拟提出一种实现模型轻量化的设计方法,在保证检测精度的同时,尽可能减少模型大小和计算量,因此选择YOLOv5s进行改进。Backbone主干网络将原先使用的Focus模块替换为6×6大小的卷积层,在得到同等大小下采样特征图的同时降低了浮点运算量。采用SPPF模块代替原先的空间金字塔池化(Spatial Pyramid Pooling,SPP),将并行的最大池化层改为串行,缩小了卷积核的大小,显著提高了运行速度。结合跨阶段局部网络(Cross Stage Partial Network,CSPNet),从同一个特征图中提取不同尺度的特征,提高检测精度。随后的特征金字塔网络(feature Pyramid Network,FPN)将高层特征通过下采样的方式向下传递,路径聚合网络(Path Aggregation Network,PAN)将低层特征向上传递,两者特征在传递过程中不断融合,从而增强网络的特征提取能力[13]。Head预测头部输出预测边界框,并使用非极大值抑制(Non-Maximum Suppression,NMS)去除冗余框,得到最终检测目标的边界框。
YOLOv5s的损失函数由置信度损失(Confidence Loss,obj)、分类损失(Classification Loss,cls)和边框回归损失(Bounding Box Regression Loss,box)三部分组成。使用二元交叉熵作为置信度和分类的损失函数[14],交叉熵损失定义如下:
式中:为交叉熵损失,正样本时=1,负样本时=0;为激活函数的输出,0<<1。
YOLOv5s在进行目标检测时会生成大量的先验框,但只有少数区域包含检测目标,这些大量产生在图片背景区域的先验框会导致正负样本不均匀。在交叉熵损失计算中,每个训练样本的权重是相等的,大量负样本会提高网络计算量并使检测精度下降。为此本文引入焦点损失函数(Focal Loss)代替置信度损失,通过降低易分类样本的权重,使模型更专注于困难样本[15],Focal Loss的计算见式(4)。
本文选择CIoU_Loss[16]作为边框回归损失,综合考虑了预测框与真实框之间的重叠率、中心点距离、长宽比,加速了网络的收敛,并得到更高的回归定位精度,有效提高了缺陷目标在遮挡情况下的检出率。其公式如下:
通道注意力更加注重各个通道的相关性对网络的影响,并可在网络训练的不断迭代中获得不同通道的权重系数,从而提高目标特征的权重。SE(Squeeze-Excitation)模块[17]是一种常用的通道注意力机制,但其先降维再升维的操作不利于捕获不同通道之间的关系,且结构复杂带来较重的计算负担。Wang等[18]在改进SE模块的基础上提出了ECA(Efficient Channel Attention)模块,其核心思想是不降维的局部跨通道交互策略以及自适应确定一维卷积核的大小,降低复杂度的同时带来性能的提升。
ECA模块首先对输入特征图进行全局平均池化(Global Average Pooling, GAP),获得未降维的特征;再通过大小为的一维卷积核获取跨通道交互信息;最后使用sigmoid函数生成各通道的权重占比,将原始输入特征与通道权重结合从而加强露白、缺损的特征,其结构如图4所示。ECA模块用一维卷积操作代替全连接层,避免了对特征通道的压缩,卷积核的大小代表了局部跨通道交互的覆盖率,根据网络结构的变化自适应改变,如式(8)所示。
本文将ECA模块嵌入PAN结构中的concat之后,对融合后的不同尺度特征图进行重要特征的加强,以获得更高的缺陷目标检出率。改进后的YOLOv5s-EF算法框架如图5所示。
图5 改进的YOLOv5s网络结构
待检测图像在送入YOLOv5s-EF网络之前已进行配准校正。由于网络输出的印刷区域定位框是一个只能表示大致位置的水平矩形,无法检出位置缺陷。所以需要在定位框的基础上进行二次精准定位,并提取方位特征向量,将其与标准模板进行相似度判定,从而判断是否存在偏移和歪斜缺陷。具体流程如下:
1)印刷区域定位框裁剪。根据YOLOv5s-EF给出的定位框位置信息,对图像相应位置进行裁剪。
2)二次精确定位。对于连通域完整的水滴和箭头标志图像块,用Canny算子提取轮廓边缘,检测到轮廓后使用cv.minAreaRect函数获得连通域的最小外接矩形,从而实现精确定位。对于2块字符彼此独立的区域,则采用形态学梯度运算中的基本梯度并进行膨胀处理,最后计算最小外接矩形。二次定位的结果如图6所示。
图6 二次定位结果
待检测图像的露白、缺损、漏印缺陷可由YOLOv5s-EF网络直接检出,偏移、歪斜缺陷可以在提取印刷区域方位特征向量后,将其与标准模板的方位向量进行比较,判断的具体方法如下。
1)偏移缺陷。计算最小外接矩形4个顶点和中心点与标准模板中对应点的平均距离。如果平均距离超过阈值,则认为存在偏移缺陷。计算式见式(10)。
式中:P、P为待测图像上印刷区域方位特征向量点的横纵坐标;Q、Q为标准模板图像上相应点的坐标;t、t为最小外接矩形的高和宽。
式中:1、2、P的坐标分别为(1,1)、(2,2)、(2,1)。
本文采用自制试剂卡缺陷数据集进行训练,搭建OpenCV深度学习平台,处理器为AMD Ryzen 7 5800H,32 G运行内存,显卡为NVIDIA GEFORCE RTX3060。试剂卡缺陷检测模型在PyTorch框架下构建,开发环境为python 3.8,opencv版本为4.5.1.48。
本文数据集来自现场拍摄,选用西安维视公司生产的MV-EM510M/C型CCD相机,最高分辨率为2 456×2 058。采集包括无缺陷、字符露白、缺损,印刷偏移、歪斜、漏印等5种常见的缺陷图像共1 200张,各类试剂卡缺陷种类的数量分布如图7所示。针对数据量不足的问题,采用平移、旋转、对比度调节等方法对数据集进行扩充[19],扩充后的数据集共有4 800张图像,将其按照6∶2∶2的比例划分为训练集、验证集、测试集进行模型训练。输入图像大小为640×640,训练中优化器使用随机梯度下降,训练批次为32,动量为0.937,权重衰减系数为0.000 5。初始学习率为0.01,并采用Warm-up的方法预热,最后采用余弦退火算法更新学习率,训练迭代次数为200。
图7 数据集种类及其数量分布
为了验证YOLOv5s-EF的性能,本文采用深度学习常用评价指标,如平均精度(Average Precision,P)、平均精度均值(mean Average Precision,mAP)和检测速度等。P指P-R曲线的面积,mAP的值则是通过所有类别的P求均值得到,计算方法如式(15)、(16)所示[20]。
为了验证在损失函数中引入Focal Loss能否加速网络的收敛,使用改进前后的网络在相同数据集上进行训练。训练过程中损失变化如图8所示,其中点线为原始YOLOv5s的损失,虚线为引入Focal Loss后的损失变化情况。由图8可以看出,前50轮损失值下降较快,随后逐渐趋于平缓;在引入焦损函数代替置信度和分类损失后,在各轮都获得了更低的损失值,同时相较原始模型更快收敛,最终损失值稳定在0.016左右,训练过程均未出现过拟合现象。
图8 改进前后损失曲线
为了验证本文提出的试剂卡缺陷检测算法的性能,对原始数据集中的1 200张图像进行重复实验,并统计各类缺陷的检出率,如表1所示。
表1 本文算法对各类缺陷检测性能统计
Tab.1 Performance statistics of various defects detected by the present algorithm
由表1可以看出,本文算法在测试集上的总检出率可以达到97.3%,各类缺陷的检出率均可达到96%以上,表现出较好的稳定性,可以满足当前对试剂卡印刷缺陷的检测要求。YOLOv5s-EF网络结合位置缺陷检测算法完整检测一张图片的速度平均值为22.6帧/s,满足实时性要求。
图9为YOLOv5s-EF在测试集上的缺陷检测结果。由图9可以看出,模型对各印刷区域的检测效果较好,其中露白(Loubai)和缺损(Defect)缺陷的置信度均超过0.9。对露白特征较少的缺陷也能精准的识别,可见ECA注意力机制的添加有效增强了模型对缺陷细小特征的提取能力,以及与正常字符的区分能力。
图9 改进YOLOv5s实验结果
为验证添加注意力机制和引入Focal Loss损失函数对检测结果的影响,本文在实验中设置原始网络结构+交叉熵损失函数(YOLOv5s)、添加ECA注意力机制+交叉熵损失函数(YOLOv5s-E)、添加ECA注意力机制+Focal loss损失函数(YOLOv5s-EF)3组实验进行对比,对比结果如表2所示。
表2 不同模型的检测性能对比
Tab.2 Comparison of detection performance of different models
添加ECA注意力机制后,mAP由93.5%增加到95.3%,增加了1.8%。其中露白缺陷的检测效果提升较大,露白的P提升了2.1%,缺损的AP值也提升了1.5%。主要是因为露白缺陷受光照变化影响较大、特征不显著等使得原始算法易将其误判为正常图像。高效通道注意力机制的添加使得网络更加关注特征图中通道位置上的关键信息,更好地提取缺陷特征,从而提高了检测的准确率。同时也导致检测速度降低了8.5帧/s,但仍然满足实时性的要求。使用Focal Loss代替交叉熵损失函数后mAP值进一步增加到95.9%,增加了0.6%;露白的P提高了1.5%。可见因子有效平衡了正负样本的权重,因子则减少了易分类样本的损失,使模型更加专注于学习难分类样本。缺损的p略有下降,主要原因是数据集中缺损样本的数量较多,特征较露白缺陷更易识别,引入Focal loss后其损失权重占比有所下降。综上,引入Focal Loss更有利于提高模型检测精度,加速网络收敛。
表3对比分析了当前主流的目标检测算法与本文算法在试剂卡表面缺陷数据集上的性能。在包括了合格、露白、缺损共900张图像上,用平均精度均值以及检测速度来衡量各算法的性能。
表3 改进YOLOv5s与其他目标检测模型性能比较结果
Tab.3 Performance comparison results of improved YOLOv5s and other target detection models
由表3可知,在同样的测试集上,YOLOv5s-EF的平均精度为95.9%,比Faster RCNN、SSD、YOLOv5s算法分别提高了5.7%、7.5%、2.4%,检测精度为各算法中最高。从检测速度看,YOLOv5s-EF平均每秒可以检测36.3张图片,因其添加了ECA注意力机制,增加了算法的部分计算量,使其较YOLOv5s算法降低了9.3帧/s。虽然帧率有所降低,但mAP提高了2.4%。YOLOv5s-EF较Faster RCNN提升了27.15帧/s,而较SSD则有所降低,但其检测精度更高。综上,本文提出的改进算法能获得很好的检测精度、平均精度均值,满足试剂卡缺陷检测对精度的要求,同时在检测时间上仍有较大优势。
为了进一步验证YOLOv5s-EF的稳定性,采用PASCAL VOC 2007数据集对改进模型进行训练。数据集共9 963张图片,包含20个种类。在相同实验环境下使用改进前后的算法进行实验,检测性能数据如表4所示。从表4可以看出,所提方法的mAP较原始算法的提高了4.2%。ECA注意力机制的添加增强了网络的检测能力,同时检测速度有所下降,客观反映了所提算法具有较好的泛化性和稳定性。
表4 实验对比结果
Tab.4 Experimental comparison results
针对生产线上试剂卡露白等缺陷的特征细小而隐蔽,难以在复杂环境下进行高精度检测的问题,提出一种试剂卡缺陷检测算法。该方法在原YOLOv5s模型的基础上,通过嵌入ECA注意力机制,使网络更加关注目标特征,以获得更高的缺陷目标检出率;采用Focal loss代替原有的置信度损失函数来缓解正负样本不平衡的问题,加速网络的收敛。本文算法在测试集上的总检出率可以达到97.3%,速度为22.6帧/s,表现出较好的稳定性,实现了多类试剂卡缺陷的高精度快速检测。下一步将围绕如何将试剂卡缺陷检测算法部署在工控机上,并对模型进行进一步的剪枝和性能改进,以实现生产线上试剂卡缺陷的实时检测。
[1] 胡宜笑. 印刷品缺陷检测研究与应用[D]. 长沙: 湖南大学, 2020: 27-28.
HU Yi-xiao. Research and Application of Printing Defect Detection[D]. Changsha: Hunan University, 2020: 27-28.
[2] 胡方尚, 郭慧. 基于改进多类支持向量机的印刷缺陷检测[J]. 华东理工大学学报(自然科学版), 2017, 43(1): 143-148.
HU Fang-shang, GUO Hui. Printing Defects Inspection Based on Improved Multi-Class Support Vector Machine[J]. Journal of East China University of Science and Technology (Natural Science Edition), 2017, 43(1): 143-148.
[3] 冯秋歌, 吴禄慎, 王晓辉. 基于视觉的印刷字符缺陷自动检测方法[J]. 南昌大学学报(工科版), 2018, 40(4): 385-389.
FENG Qiu-ge, WU Lu-shen, WANG Xiao-hui. Design of Automatic Printing Character Defects Detection System Based on Machine Vision[J]. Journal of Nanchang University (Engineering & Technology), 2018, 40(4): 385-389.
[4] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]// 2014 IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.
[5] REDMON J, DIVVALA S, GIRSHICK R, et al. You only Look Once: Unified, Real-Time Object Detection[C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, 2016: 779-788.
[6] REDMON J, FARHADI A. YOLO9000: Better, Faster, Stronger[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops, Honolulu, 2017: 6517-6525.
[7] REDMON J, FARHADI A. YOLOv3: An Incremental Improvement[EB/OL]. 2018: arXiv: 1804.02767. https:// arxiv.org/abs/1804.02767
[8] 周玮, 门耀华, 辛立刚. 基于机器视觉的柔性包装袋喷码缺陷检测研究[J]. 包装工程, 2022, 43(9): 249-256.
ZHOU Wei, MEN Yao-hua, XIN Li-gang. Inspection of Coding Defects in Flexible Packaging Bags Based on Machine Vision[J]. Packaging Engineering, 2022, 43(9): 249-256.
[9] FENG Hong, JIE Song, HANG Meng, et al. A Novel Framework on Intelligent Detection for Module Defects of PV Plant Combining the Visible and Infrared Images[J]. Solar Energy, 2022, 236: 406-416.
[10] 王恩芝, 张团善, 刘亚. 基于改进Yolo v5的织物缺陷检测方法[J]. 轻工机械, 2022, 40(2): 54-60.
WANG En-zhi, ZHANG Tuan-shan, LIU Ya. Fabric Defect Detection Method Based on Improved Yolo V5[J]. Light Industry Machinery, 2022, 40(2): 54-60.
[11] 胡方尚, 郭慧, 邢金鹏, 等. 基于印刷缺陷检测的图像配准方法研究[J]. 光学技术, 2017, 43(1): 16-21.
HU Fang-shang, GUO Hui, XING Jin-peng, et al. Image Registration Based on Label Printing Defect Detection[J]. Optical Technique, 2017, 43(1): 16-21.
[12] 杨其晟, 李文宽, 杨晓峰, 等. 改进YOLOv5的苹果花生长状态检测方法[J]. 计算机工程与应用, 2022, 58(4): 237-246.
YANG Qi-sheng, LI Wen-kuan, YANG Xiao-feng, et al. Improved YOLOv5 Method for Detecting Growth Status of Apple Flowers[J]. Computer Engineering and Applications, 2022, 58(4): 237-246.
[13] 于娟, 罗舜. 基于YOLOv5的违章建筑检测方法[J]. 计算机工程与应用, 2021, 57(20): 236-244.
YU Juan, LUO Shun. Detection Method of Illegal Building Based on YOLOv5[J]. Computer Engineering and Applications, 2021, 57(20): 236-244.
[14] 李志军, 杨圣慧, 史德帅, 等. 基于轻量化改进 YOLOv5 的苹果树产量测定方法[J]. 智慧农业(中英文), 2021(2): 100-114.
LI Zhi-jun, YANG Sheng-hui, SHI De-shuai, et al. Yield Estimation Method of Apple Tree Based on Improved Lightweight YOLOv5[J]. Smart Agriculture, 2021(2): 100-114.
[15] YING Zhi-ping, LIN Zhong-tao, WU Zhen-yu, et al. A Modified-YOLOv5s Model for Detection of Wire Braided Hose Defects[J]. Measurement, 2022, 190: 406-416.
[16] ZHENG Zhao-hui, WANG Ping, REN Dong-wei, et al. Enhancing Geometric Factors in Model Learning and Inference for Object Detection and Instance Segmentation[J]. IEEE Transactions on Cybernetics, 2021, 26(8): 1-13.
[17] HU J, SHEN L, SUN G. Squeeze-and-Excitation Networks[C]// USA: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018.
[18] WANG Q L, WU B G, ZHU P F, et al. ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks[C]// 2020 IEEE CVF Conference on Computer Vision and Pattern Recognition (CVPR), Piscataway, 2020: 11531-11539.
[19] 周宇杰, 徐善永, 黄友锐, 等. 基于改进YOLOv4的输送带损伤检测方法[J]. 工矿自动化, 2021, 47(11): 61-65.
ZHOU Yu-jie, XU Shan-yong, HUANG You-rui, et al. Conveyor Belt Damage Detection Method Based on Improved YOLOv4[J]. Industry and Mine Automation, 2021, 47(11): 61-65.
[20] 王静, 孙紫雲, 郭苹, 等. 改进YOLOv5的白细胞检测算法[J]. 计算机工程与应用, 2022, 58(4): 134-142.
WANG Jing, SUN Zi-yun, GUO Ping, et al. Improved Leukocyte Detection Algorithm of YOLOv5[J]. Computer Engineering and Applications, 2022, 58(4): 134-142.
Reagent Card Printing Defect Detection Algorithm Based on Improved YOLOv5
LIU Guo-qing1, FANG Cheng-gang1*, HUANG De-jun2, LONG Chao1
(1. School of Mechanical and Power Engineering, Nanjing Tech University, Nanjing 211800, China; 2. Nanjing Zicheng Engineering Design Co., Ltd., Nanjing 211800, China)
The work aims to propose an improved reagent card printing defect detection algorithm YOLOv5s-EF based on deep neural network YOLOv5s to solve the problems of low efficiency, high cost and easy to miss detection in manual sorting of reagent cards with printing defects in reagent card manufacturers. High-quality defect image data sets were obtained by image preprocessing algorithm. Efficient Channel Attention (ECA) mechanism was added to the backbone feature extraction network of YOLOv5s to enhance the representation ability of important features in feature maps. Focal loss function was introduced to alleviate the influence of imbalance between positive and negative samples. Combined with the positioning results of the printing area, a method of similarity matching of feature vectors was proposed, which was based on the quadratic accurate positioning and the construction of azimuth feature vectors. The experimental results showed that the average detection accuracy of the reagent card printing defect detection algorithm proposed in this paper could reach 97.3% and the speed was 22.6 FPS on the test set. Compared with other network models, it can identify and locate various printing defects. The model has good detection speed and robustness, which is beneficial to improve the intelligent level of enterprise production.
defect detection; YOLOv5s; deep learning; ECA mechanism; focal loss function
TP391
A
1001-3563(2023)17-0197-09
10.19554/j.cnki.1001-3563.2023.17.024
2022-12-30
责任编辑:曾钰婵