摘 要:针对现有的高精度行人检测模型因资源要求高而导致的难以应用于边缘计算场景的问题,提出了一种适用于边缘GPU设备的轻量级实时密集行人检测算法。该算法通过在检测头中融合全维度动态卷积,降低了冗余信息对于检测效果的影响,并通过优化损失函数增强了算法区分待检测目标和背景的能力。实验结果表明,在密集人群场景下的行人检测任务中,该算法在精确度方面较本文基线算法YOLOv7-tiny提升了4.1百分点,这证明该算法能够在边缘计算场景下实现准确的密集人群检测。
关键词:行人检测;小目标识别;深度学习;边缘计算
中图分类号:TP391 文献标志码:A
0 引言(Introduction)
行人检测在密集人群场景中的应用面临诸多挑战,例如行人之间的互相遮挡、行人尺度较小、低分辨率图像处理及复杂多变的背景环境等。这一技术已经被广泛应用于汽车自动驾驶、安全监控及人机交互等场景[1]。近年来,许多行人检测算法在密集人群场景下的行人检测任务中表现出较高的检测准确率,然而真实的部署场景通常为边缘计算场景,进行行人检测的设备大多为计算能力较低的边缘GPU甚至是CPU,它们难以为这些高精度的模型提供充足的内存和较高的计算能力。针对上述问题,本文提出一种轻量级密集人群场景行人检测算法。该算法通过在YOLOv7-tiny的头部网络应用全维度动态卷积,降低了密集人群场景中冗余信息的影响,同时针对密集人群场景中前景背景难以区分的问题,对损失函数做出优化。实验结果表明,相较于原始的YOLOv7-tiny,本文提出算法在保持轻量化的前提下,在准确率上实现了4.1百分点的提升。