行人跟踪算法及应用综述*

2020-04-27 08:18曹自强赛斌吕欣
物理学报 2020年8期
关键词:行人卷积算法

曹自强 赛斌 吕欣

(国防科技大学系统工程学院,长沙 410073)

行人跟踪是计算机视觉领域中研究的热点和难点,通过对视频资料中行人的跟踪,可以提取出行人的运动轨迹,进而分析个体或群体的行为规律.本文首先对行人跟踪与行人检测问题之间的差别进行了阐述,其次从传统跟踪算法和基于深度学习的跟踪算法两个方面分别综述了相关算法与技术,并对经典的行人动力学模型进行了介绍,最终对行人跟踪在智能监控、拥堵人群分析、异常行为检测等场景的应用进行了系统讲解.在深度学习浪潮席卷计算机视觉领域的背景下,行人跟踪领域的研究取得了飞跃式发展,随着深度学习算法在计算机视觉领域的应用日益成熟,利用这一工具提取和量化个体和群体的行为模式,进而对大规模人群行为开展精确、实时的分析成为了该领域的发展趋势.

1 引 言

近年来,深度学习的浪潮席卷计算机视觉领域,这不仅提高了通用物体的检测性能,也极大地促进了行人检测的发展,为行人跟踪领域的研究奠定了良好的基础[1].行人检测的主要任务是判断图片或者视频中是否有行人,如果有,则用框图把行人标记出来[2],不用考虑前后两帧中行人的匹配问题.行人跟踪与行人检测不同,需要利用数据关联技术关联前后两帧中相似度最大的行人,以达到对视频中的行人持续跟踪[3]的目的,从而得到行人运动的速度、轨迹和方向等信息[4],并将其进一步应用到个人或大规模群体行为的研究领域中去[5,6].行人跟踪是计算机视觉应用中的一项基本任务,虽然已有大量文献提出了各种算法,但由于行人跟踪问题比较复杂,不仅需要考虑拍摄的角度、光照的变化[7-9],还需要考虑新目标出现,旧目标消失,以及当跟丢目标再次出现时,如何进行再识别[10]等问题,这使得健壮的行人跟踪算法仍然是一个巨大的挑战.

随着深度学习技术在计算机视觉领域的广泛应用,用深度学习的方法来研究行人跟踪问题俨然成为了学术界的主流[11].虽然已有相关的文献综述对行人跟踪领域中的算法进行总结,但这些综述大多不够新颖,所提到的算法依旧是传统的目标跟踪算法,没有将最新的深度学习算法包含进来.为了弥补已有文献的不足,同时使得广大科研工作者掌握行人跟踪领域的最新发展趋势,本文首先将行人跟踪领域的算法按照传统跟踪算法和深度学习跟踪算法的分类方法进行了系统介绍,并选取相应的指标评估性能,然后介绍几种经典的人类行为动力学模型,回顾人类行为动力学领域的发展历程,最后围绕新技术条件下的视频监控、拥堵人群分析、异常行为监测等典型应用场景进行了系统地阐述.

2 传统跟踪算法

2.1 卡尔曼滤波算法

1960年,Kalman[12]为了解决离散数据的线性滤波问题,提出了卡尔曼滤波算法,该算法后来被扩展到目标跟踪领域[13],其核心思想是利用上一时刻目标状态的预测值和当前时刻目标状态的测量值得到当前时刻目标状态的最优估计,并把当前时刻得到的最优估计作为下一时刻目标的预测值进行迭代运算,如此循环往复,逼近目标的真实值[14].该算法的创新点在于同时考虑了在预测过程和测量过程中的误差,并且认为这两种误差独立存在,不受测量数据的影响.

该算法包括包括预测阶段和更新阶段两部分.在预测阶段,利用目标上一时刻的预测值预测当前状态并对误差协方差矩阵进行估计;在更新阶段,卡尔曼滤波器用加权的测量结果来矫正预测结果[15].卡尔曼滤波的两个阶段如表1所列,各参数的含义如表2所列.

表1 卡尔曼滤波的预测阶段和更新阶段Table 1.Prediction and update process of Kalman filtering.

利用该运动方程,再结合卡尔曼滤波算法中两个阶段的相关公式,就可以预测目标在下一时刻的状态,具体操作流程为:

由此可得状态转移矩阵

其中外部控制量 Uk-1和控制矩阵 B 均为零,之后分别为误差协方差矩阵、系统噪声协方差矩阵赋予初始值,一般令

表2 卡尔曼滤波公式中的参数及含义Table 2.Parameters and meanings in the Kalman filter formula.

然后用 yk=[yx(k),yy(k)] 表示测量的目标中心点坐标,因为 yk=H×xk,所以状态转移矩阵

利用该算法,有了系统前一时刻状态就能估计出系统下一时刻的状态,同时还可利用当前的观测值修正系统状态,使得估计的均方误差最小[17].

卡尔曼滤波算法经常与其他算法结合共同完成行人跟踪任务,很少单独使用.例如李娟等[18]用卡尔曼滤波算法原理对视频中的行人进行跟踪,他们首先采用混合高斯模型得到运动行人的前景图像,然后利用HSV(hue,saturation,value)颜色空间模型和基于形态学的目标重构方法消除运动阴影,最后用卡尔曼滤波预测行人的位置并得到了行人的运动轨迹.石龙伟[19]将卡尔曼滤波与光流法结合起来,先用光流法对视频进行预处理,然后根据光流法获取的目标位置等信息用卡尔曼滤波实现对行人的有效跟踪.王宏选[20]在动态行人跟踪TLD(tracking-learning-detection,跟踪-学习-检测)算法中引入了卡尔曼滤波器预测行人下一帧可能出现的区域,以缩小检测范围,提高检测速度,改善行人之间因存在遮挡而导致跟踪丢失的问题.

卡尔曼滤波算法比较简单,容易实现,适合跟踪简单场景中的行人.但其易受光照变化的影响,而且当行人突然改变行走的方向或者速度时,跟踪效果较差.

2.2 多假设跟踪算法

1979年,Reid[21]提出了多假设跟踪算法,该算法的最初目的是解决雷达信号的自动跟踪问题,后来Kim等[22,23]对多假设跟踪算法进行了改进,将其扩展到目标跟踪领域.多假设跟踪算法本质上是基于卡尔曼滤波算法在多目标跟踪问题中的扩展,其中假设是指聚簇内一组目标和量测的分配互联关系[24].多假设跟踪是一种延时决策算法,在数据关联发生冲突时,会形成多种假设,直到获取到新的信息再做决定,主要包括数据聚簇、假设生成、计算假设得分、假设删除四部分[25],其中假设生成和假设删除是该算法的核心,该算法的流程如下.

Step 1数据聚簇,将新接收的量测点迹与以前的假设进行关联.

Step 2将所有可能的航迹生成假设并保存,生成的假设用下面的公式表示:

其中Z(k)表示k时刻的量测集合;Zk表示k时刻的累积量测集合;Ωk表示k时刻关联假设的集合;Mk是可用量测个数;表示先验假设;Zm(k)的来源可能是原有目标的继续、新目标的量测、虚警等.如果量测是原有目标的继续,则它符合原有航迹的高斯分布,否则量测是一个均匀分布的噪声;如果是新目标的量测、虚警,则出现当前关联的可能性可以通过泊松分布和二项分布的乘积表示.

Step 3计算假设概率:

Step 4假设删除,因为假设的积累会占据大量的内存,增加运算量,不利于实时跟踪,所以需要对假设进行剔除.目前有两种删除假设的方法,分别是零扫描法和多扫描法.

零扫描法首先使用零扫描滤波器处理每个数据集,然后仅保留概率最大的那个假设.另外一种改进的方法是不仅选择最大似然假设,而且增加卡尔曼滤波器中的协方差以解释误相关的可能性.

多扫描法使用多扫描算法处理数据集之后仍存在若干假设,然后再次修剪所有不太可能的假设,但保持所有概率高于指定的阈值的假设.

多假设跟踪算法保留了假设的大量历史信息,确保了跟踪效果的稳定性,但同时由于这些历史信息占据了过多的存储空间,使得该算法的计算量大,实时性差[26].

2.3 粒子滤波算法

针对卡尔曼滤波需要目标的状态变量满足高斯分布的缺点,Breitenstein等[27]提出了一种基于粒子滤波框架的多行人跟踪检测算法,该算法是卡尔曼滤波算法的一般化方法.卡尔曼滤波建立在线性的状态空间和高斯分布的噪声上,而粒子滤波的状态空间模型可以是非线性的,且噪声分布可以是任何型式,是一种通过非参数化的蒙特卡罗方法来实现递推的贝叶斯滤波,粒子滤波的基本原理是通过先验概率和当前观测值估计后验概率[28],该算法分为两个步骤.

首先进行数据关联,用匹配算法最多将一次检测分配给至多一个目标,再用匹配函数 s(tr,d)评估检测 d与跟踪器 tr的每个粒子p 之间的距离,并用为 tr 训 练的分类器 c tr(d)对 d 进行评估:

其中 pN(d-p)表示评估d和p 之间距离的正态分布;g(tr,d)是门控函数,代表检测相对于目标的速度和运动方向的位置.

其次计算跟踪器 tr的粒子p的权重w(tr,p):

其中参数 β,γ,η是实验设定的;I(tr)是指示函数,如果检测与跟踪器关联,则返回1,否则返回0;dc(p)表 示置信密度;po(tr)是加权函数.

该算法不依赖于背景建模,可以在复杂的遮挡场景中对大量动态移动的人进行鲁棒跟踪,是完全的二维操作(不需要摄像机或地面平面标定),在行人跟踪的实验中可以很好地复现行人的运动模式[29].针对现实世界中行人身体之间的遮挡问题,Xu等[30]用粒子滤波跟踪行人的头部,并用基于颜色直方图和方向梯度直方图的方法对头部外观模型进行更新,有效地减少了由于遮挡问题而造成的行人标号变化频繁的问题.该算法在UT-Interaction数据集的测试结果中,行人的身份标号仅变化了4次.

2.4 基于马尔科夫决策的多目标跟踪算法

2015年,Xiang等[31]提出了一种基于马尔可夫决策过程的在线多目标跟踪框架,将多目标跟踪问题视作一个马尔科夫决策过程来处理.马尔科夫决策过程由一个元组(S,A,T(·),R(·))组成[32],其中S表示目标所处的状态,A 表示目标可以执行的动作,T(·)表 示状态转移函数,R(·)表示奖励方程,行人跟踪问题的马尔科夫决策过程如图1所示.

图1 马尔科夫决策过程流程图[31]Fig.1.Markov decision process flow chart[31].

该算法将行人跟踪中的行人划分为激活、跟踪、丢失、停止四种状态.其处理流程如下.

Step 1行人被检测器检测到后首先进入激活状态,然后用一个训练好的SVM 分类器判断行人是进入跟踪状态还是停止状态,其分类结果用一个5 维的特征向量 ΦActive(s)表示.SVM分类器是从训练视频序列中选出训练样本,并将行人的2 维坐标、高度、宽度以及检测得分归一化为一个5维的标准化向量训练得到的[31],其奖励函数为

如果转移到跟踪状态,则y(a)=1;如果转移到停止状态,则用于定义SVM 的超平面.

Step 2在跟踪状态下的奖励函数:

其中 emedFB表示预测误差的中间值,如果预测误差emedFB太 大则跟踪失效;omean表示前后两帧边界框重叠区域的平均值,只有当 omean在阈值 o0以上时才被认为正确检测到目标;因此当且仅当 emedFB小于阈值e0和omean大于阈值o0才表示跟踪有效,y(a)=+1;否则进入丢失状态,y(a)=—1.

Step 3丢失状态下的奖励函数:

如果转入跟踪状态,则 y(a)=+1;如果进入停止状态,则 y(a)=—1;wTφ(t,dk)是捕捉目标和检测之间相似性的特征向量.

基于马尔科夫决策的多目标跟踪算法的跟踪效果比较好,文献[31]将其在MOT Benchmark上进行了测试,其多目标跟踪准确率可达30.3%,多目标跟踪精度可达70.3%,但是在行人长时间遮挡后容易发生误判.

2.5 相关滤波算法

相关滤波最初是表示信号处理领域中两个信号之间相似度的概念,两个信号之间的相似度越高,它们就越相关.2019年,Bolme等[33]首次将相关滤波算法运用到目标跟踪领域,其核心思想是利用误差平方和最小的滤波器(minimum output sum of squared error,MOSSE)训练图像,使得图像的平方和误差最小,从而建立跟踪目标的外观模型.该算法的处理流程如下:

Step 1首先训练相关滤波器,最小化实际输出与期望输出 Gi之间的平方和误差:

Step 2然后用训练好的相关滤波器 H*与输入图像 F 做相关操作,求其响应 G :

Step 3最后用PSR作为响应G峰值强度的度量,只有当PSR大于某个阈值时才会跟新目标的位置,否则执行Step 1,一般PSR小于7表示跟踪失败,

该算法运用傅里叶变换操作,极大地提高了运算速度,使得该算法具有很好的实时性.但由于没有考虑尺度的变化,导致算法的鲁棒性比较差.针对以上问题,Henriques等[34]提出了KCF算法,利用 HOG(histogramso for ientedgradients)特征代替MOSSE中使用的原像素,增强了滤波器对目标和环境的判别能力.此外在MOSSE线性回归模型的基础上加入了正则项建立了线性岭回归模型[35,36]:

KCF算法利用循环矩阵和核函数大大提高了跟踪的速度和精度.但其跟踪模型仅使用了HOG特征,在特征信息出现模糊时容易导致跟踪失败,而且学习率是固定不变的,使得跟踪模型易受到周围环境的污染,不适合长时间跟踪[37].

3 深度学习算法

深度学习是包含多级非线性变换的层级机器学习方法,深层次神经网络是其主要形式.神经网络中层与层之间的神经元连接模式受启发于生物神经网络[38].深度学习算法与传统算法相比,不需要手动选择特征,具备良好的特征提取能力.但由于深度学习算法需要大量的数据以及高性能的计算机来训练数据,而之前的计算机性能不能满足深度学习算法的需求,也没有大量的数据用来训练[39],因而深度学习算法沉寂了相当长的一段时间[40].近年来,随着大数据时代的到来、计算机性能的提升,深度学习开始广泛应用于计算机视觉的各个领域,深度学习算法在行人跟踪领域应用的主流思路是 tracking-by-detection[41],即首先用深度学习模型提取目标行人的特征,检测出视频中的行人所在位置,然后用多目标跟踪器对目标进行持续跟踪.本文以卷积神经网络为例介绍深度学习算法在行人跟踪上的应用.

3.1 卷积神经网络

卷积神经网络(convolutional neural network,CNN)是一种典型的深度学习模型.LeCun[42]最早提出了CNN的概念.2012年,Krizhevskyd等[43]首次将深度卷积神经网络应用到图像分类领域,其设计的AlexNet 网络模型赢得了ImageNet图像分类比赛的冠军,成功地把深度卷积神经网络引入了计算机视觉领域.此后ImageNet比赛的冠军均是采用深度卷积神经网络的方法完成的.CNN的基本结构包括输入层、卷积层、池化层、全连接层及输出层[44],如图2所示.

图2 CNN基本结构图Fig.2.CNN basic structure diagramt.

图2中只绘制出了一个卷积层和池化层,然而在实际的网络中经常有若干个卷积层和池化层交替连接.在卷积层中通常使用一个大小为 f ×f 的滤波器执行卷积操作来提取图像中的特征,网络前面浅层的卷积层用来提取图像的低级特征,后面更深层的卷积层用来提取图像的高级特征,全连接层将提取到的图片的特征归一化为一维的特征向量,输出层在分类问题中用来输出每个类别的概率.在处理行人检测问题时,卷积神经网络模型按照检测的步骤可以划分为One-stage和Two-stage 两类.Two-stage把检测行人分为两个阶段,首先产生行人候选区域(region proposals),然后对候选区域进行分类,其典型代表是RCNN,SPP-Net,Faster-RCNN等模型,特点是准确率较高,但检测速度慢.One-stage 可以直接生成行人的类别概率和位置坐标,其典型代表是YOLO系列模型以及CornerNet,CenterNet等模型,其特点是运算速度较快,但准确率一般较低.

3.2 RCNN网络模型

2014年,Girshick等[45]提出 RCNN(regions with CNN features)模型进行目标检测,将卷积神经网络引入目标检测领域.RCNN 就是在目标候选区内用CNN的方法来提取特征,处理流程如图3所示.

该模型首先使用选择性搜索(selective search)算法[46]在输入图片上生成2000个左右的目标候选区域,然后对这些候选区域进行归一化操作,并将归一化后的候选区域送到AlexNet卷积网络提取特征.在AlexNet网络中有5个卷积层可以提取特征,经过一轮训练后,每个候选区域都能够得到一个4096维的特征向量,然后将提取到的特征传入SVM分类器中进行分类,最后使用卷积层的输出训练一个回归器(dx,dy,dw,dh)对候选区域进行微修,使其接近真实标注的区域.

RCNN的出现使得科研工作者不用再手工设计大量的人工特征,而且准确率与传统检测算法相比有了很大的提高.但由于RCNN要求图片输入到卷积层的尺寸大小是固定的,因此需要对原始图片做尺寸变换,这会让图片产生形变,损失一部分特征,降低了检测的准确率.并且每次检测都要先生成 2000个候选区域,运算较为耗时,导致RCNN在VOC2007数据集上检测一张图片大约需要47 s[47],不能满足实时性要求.

图3 RCNN算法流程图[45]Fig.3.RCNN algorithm flowchart[45].

3.3 SPP-Net网络模型

2014年,He等[48]发现感兴趣区域(region of interest,ROI)的特征都可以与特征图上相应位置的特征一一对应,于是提出了SPP-Net网络模型.该模型一次检测只需一次卷积运算,这使得检测速度得到了极大提升,其检测速度大约是RCNN的100 倍.SPP-Net网络模型的结构如图4所示.

SPP-Net网络模型首先对输入图片使用选择性搜索(selective search)算法生成2000个左右的目标候选区域,并将每个候选区域的大小划分为4×4,2 ×2,1 ×1 的块,然后用金字塔池化(spatial pyramid poooling,SPP)层进行池化操作,得到维度为(4 ×4+2×2+1×1)× 256 的特征向量,最后将特征向量作为全连接层的输入,在输出层输出.SPP-Net 网络模型的核心是在卷积层后加了空间金字塔池化层,该层可以生成固定大小的图片,不用对图像进行裁剪,减少了特征的损失,而且在整个过程中仅对图片做一次卷积特征提取,极大地提高了通用物体的目标检测速度.但其需要将数据分为多个训练阶段,步骤较为复杂[49].

3.4 Faster-RCNN模型

虽然RCNN网络模型和SPP-Net网络模型检测目标的准确度较高,但是它们在检测之前均要先生成2000个左右的候选区域,这增加了目标检测的时间.Faster-RCNN模型[47]的最大贡献在于废除了选择性搜索算法,利用区域提议网络(region proposal network,RPN)生成候选区域,并通过共享卷积运算提取图片特征,极大地降低了运算量[50],提高了检测速度.RPN网络模型的结构如图5所示.

图4 SPP-Net结构图[48]Fig.4.SPP-Net structure diagramt[48].

图5 RPN结构图[47]Fig.5.RPN structure diagramt[47].

RPN网络首先在 n 维特征图的每个像素上生成 k 个不同尺寸的锚框,并给每个锚框分配一个二进制的标签(是否是目标),若锚框与实际目标的重叠区域的面积大于0.7倍总面积则被标记为正标签,若锚框与实际目标的的重叠区域的面积小于0.3 倍总面积则被标记为负标签.然后用一个大小为 s ×s 的 滑动窗口生成一个 n 维的特征,最后连接到分类层和回归层[51],判断是否存在目标并记录目标位置.

Faster-RCNN采用RPN网络降低了生成候选框所需的时间,并将Softmax分类器和回归器结合,不用分别训练网络模型,检测效果和速度均优于RCNN和SPP-Net网络,作者在PASCKL VOC 2007数据集中测试的平均精度为0.73.但由于RPN网络中采用滑动窗口遍历卷积特征图,因此也增加了时间的开销.

3.5 YOLO系列模型

以上所介绍的目标检测算法都是先划分目标候选区域然后再预测目标类别,而YOLO[52]将目标区域候选区域的划分与类别的预测当作一个回归问题来处理,直接在图片上输出多个目标的位置和类别,在保证较高准确率的前提下实现目标的快速检测,更能满足现实需求[53].YOLO 总共经历了YOLO,YOLOV2,YOLOV3三个版本,下面分别对其进行介绍.

YOLO采用改进的InceptionV1[54]模型提取图片的特征,因为InceptionV1模型要求输入图片的尺寸大小是448 × 448,因此首先要将输入图片的尺寸调整为448 × 448,其次将调整过尺寸的整张图片作为卷积网络的输入,并用大小为 S ×S 的网格对原始图片划分,此时图片中物体的中心点就会落在某个网格单元内,则对应的网格单元就负责检测该物体.每个网格单元预测B个候选框和候选框内的置信度得分.每个候选框中包含 x,y,w,h和置信度5个信息[55],其中(x,y)表示预测边框的中心点坐标,(w,h)表示预测边框的宽和高,但需要注意的是中心点坐标的数值是相对于小网络边框而言的,宽和高的数值是相对于整张图片而言的.如果网格单元不包含物体,则置信度为0,否则置信度的计算公式为

得到置信度之后,每个网格单元会给出 C 个类别的条件概率,然后用(17)式计算各个网格单元内所有类别的概率.

最后这些类别预测信息和置信度得分被编码到 S ×S×(B×5+C)大小的向量中作为YOLO输出层的输出.在预测时每个网格单元会依据类别概率生成一个候选框,但是大物体会生成多个候选框,作者利用非极大值抑制算法选择交并比(intersection over union,IoU)得分最高的候选框,并去除冗余窗口,优化检测结果.YOLO的检测速度很快,可以达到每秒21帧,但是精度不高,平均精度只有0.66,容易漏检小物体.针对以上问题,作者在2017年提出了YOLOV2模型[56],在YOLO模型的基础上做了5 个方面的改进.首先在每一个卷积层后面都增加了批标准化(batch normalization,BN)操作,对数据做归一化预处理,加快了收敛速度.其次将输出层的全连接层替换为卷积层,由此可以微调图片的输入尺寸,使网络适应不同尺寸的输入.然后引入了Faster-RCNN中候选区域框的概念,并采用K-均值聚类方法调整候选区域框的尺寸,使其更好地适应目标的尺寸.然后在模型中添加转移层,将浅层特征图连接到深层特征图上,有利于检测小目标.最后 YOLOV2不再让每一个小网格预测目标类别,而把这一任务交给候选区域框.这5个方面的改进使得YOLOV2在PASCAL VOC数据集上的检测速度达到每秒40帧,平均精度为0.786.

2018年,作者又对YOLOV2在速度和精度上进行了改进,提出了YOLOV3模型[57].该模型采用具有 Darknet-53网络来做特征提取,是YOLOV3的精度得以提升的关键因素.为了进一步加强对小物体的检测能力,YOLOV3利用多尺度特征对目标进行检测,在论文中作者采用了大小为 1 3×13,26×26和52×52 三个不同尺度的特征.最后在分类时用 Logistic回归替代YOLOV2的Softmax回归,以便对多标签任务分类.YOLOV3 检测一张尺寸为 3 20×320 的图片所消耗的时间为22 ms,平均精度为28.2%.

3.6 CornerNet网络模型

以YOLO系列为代表的One-stage深度学习网络模型和Two-stage 深度学习网络模型均属于anchor-base模型,需要使用不同大小、不同高宽比的 anchor作为检测目标的候选区域.anchor 的优点是将目标检测问题转化为目标与anchor 的匹配问题,不必用目标检测算法遍历图片,极大地缩短了检测目标的时间,使得以YOLO 为代表的 Onestage 模型可以和Two-stage模型竞争.但使用anchor的深度学习模型也存在着两个主要缺点,在使用anchor时不仅需要预先生成大量的anchor以便和图片中的目标重叠,这导致只有少量的anchor与目标重叠,造成了正负样本不均匀的问题[58],而且这些 anchor包含很多超参数,比如anchor的数量、尺寸等,使得训练过程变得复杂.针对anchor-base模型存在的缺点,Law和Deng[59]提出一种新的One-stage 模型—CornerNet模型,该模型利用一对关键点—物体边界框的左上角点和右下角点来检测物体从而取代 anchor,CornerNet网络模型的结构如图6 所示.

CornerNet网络模型首先用hourglass网络提取图片特征,hourglass网络先将特征图下采样到一个很小的尺度,之后再进行上采样还原特征图的尺度,这样可以获取不同尺度下图片所包含的信息,然后在hourglass 网络之后连接两个预测模块,这两个预测模块分别预测边界框的左上角点和右下角点,最后在每个预测模块内部经过Corner pooling操作后生成 Heatmaps,Embeddings和Offects.

Heatmaps的作用是预测左上角点和右下角点的位置,其预测角点的损失函数为

其中,c 表示类别,heatmaps的尺寸是 H×W,pcij为 heatmaps中 c类物体在位置(i,j)得分,ycij表示对应位置的groundtruth,N 是目标数量,α,β是超参数,作者在实验中设置α=2,β=4;Embeddings的作用是匹配同一个边界框的左上角点和右下角点,其匹配原理是,如果左上角点和右下角点来自同一个边界框,则它们的Embeddings之间的距离应该比较小,反之它们的Embeddings之间的距离应该比较大.Embeddings通过两个损失函数来表示这两种距离:

其中etk是目标k的左上角点,ebk是目标k的右下角点,Lpull表示属于同一个边界框的左上角点和右下角点之间的距离,Lpush表示属于不同边界框的左上角点和右下角点之间的距离,ek表 示 ebk和etk的平均值,Δ 在实验中设置为1;Offset的作用是微调预测出的边界框,因为对图片进行全卷积操作之后,输出的图片尺寸会很小,因此,当将位置信息从热力图映射到输入图片时会存在精度损失,这部分损失用 ok表示:

图6 CornerNet结构图[59]Fig.6.CornerNet structure diagramt[59].

其中(xk,yk)表示角点 k的(x,y)坐标,得到ok之后,利用smooth L1损失函数监督学习该参数:

由于左上角点和右下角点不在物体内部,因此Law和Deng[59]提出corner pooling来确定左上角点和右下角点,corner pooling的原理是,利用图片中的上边界和左边界的信息确定左上角点,利用图片中的下边界和右边界确定右下角点.CornerNet在MSCOCO数据集上测试的平均精度为42.1%,超过了绝大部分One-stage模型 在MSCOCO数据集中的平均精度.

3.7 CenterNet网络模型

虽然CornerNet网络模型利用一对边角点取代anchor提高了物体检测的精度,由于CornerNet网络模型中的边角点不在物体内部,因此CornerNet网络模型无法感知物体内部的信息,这其实也是大部分One-stage模型普遍存在的问题,而Two-stage模型可以感知物体内部的信息,因此Two-stage模型的准确率一般比One-stage模型的准确率高.针对CornerNet模型无法感知物体内部信息的缺点,Zhou等[60]提出CenterNet网络模型,利用关键点估计找到物体的中心点并返回目标的尺寸、 3 D 位置、方向、甚至姿态等其他属性,充分利用了物体内部的信息.Zhou等[60]在COCO数据集上对CenterNet网络模型的速度和精度进行了测试,CenterNet网络模型在Resnet-18网络下取得了每秒142帧的检测速度和28.1%的检测精度,在DLA-34网络下取得了每秒52帧的检测速度和37.4% 的检测精度,在Hourglass-104网络下取得了每秒1.4 帧的检测速度和45.1%的检测精度,其精度可以媲美Two-stage网络,实现了速度和精度的完美权衡.该模型的核心思想是,将图片输入到全卷积网络中生成一个热力图,其中热力图的峰值对应目标的中心点,每个峰值点的图像特征还可以预测边界框的宽和高,返回目标的其他属性.

CenterNet网络在训练过程中采用标准的密度监督学习训练网络,首先用预先标注好的目标真实中心点坐标作为标签来预测目标的中心点坐标,目标真实中心点坐标的计算公式为

其中(x1,x2,y1,y2)表示目标边界框的坐标,计算出真实坐标 p 之后,用下采样后的替代p,其中 R 是下采样因子,然后采用高斯核Yxyc=将关键点分布到特征图上,其中 σp是目标尺寸自适应标准差,并用如下所示的损失函数使得预测的目标中心点坐标与真实值之间的距离最小:

其中 α,β 是损失函数的超参数,在实验中作者设α=2,β=4;N 是图片中关键点的数量.

由于在训练过程中,用下采样因子 R 对图片进行了下采样,把特征图重新映射到原始图片时会存在误差,因此用local offect补偿损失,并用L1 Loss训练偏置值 Loff:

然后再利用得到的中心点坐标对每个目标的尺寸进行回归,预测边界框的尺寸信息:

其中,λsize=0.1,λoff=1;这样用一个网络就可以得到目标中心点的预测值、偏置和尺寸.

由于CenterNet较为简单,同时兼顾了速度和精度,因此可以考虑将其应用到算力比较小的嵌入式平台中.但CenterNet网络也存在一定的缺点,由于它只检测物体的中心点,因此当多个物体的中心点重叠时,CenterNet 只能检测出一个中心点,会出现漏检的情况.针对CenterNet的这一缺点,Duan等[61]用中心点、左上角点和右下角点三个关键点检测物体,提高了物体的检测精度,在MSCOCO数据集中的检测精度达到了47.0%,但是检测速度比较慢,检测一张图片需要340 ms[61].

相较于传统方法,深度学习能够从训练数据中抽取出更加抽象的特征,而且随着训练数据的增加,模型的效果也显著增加.但深度学习模型计算量大,难以调参,对设备的运算能力要求比较高,大多数深度学习模型很难满足实时性要求.因此在实际应用中一般会对深度模型的结构做轻量化处理,牺牲一定的准确度来换取实时性,或者提高硬件的运算能力.

3.8 多目标跟踪评价指标

由于深度学习算法的评价指标平均精度(mean average precision,mAP)属于目标检测领域的指标,只能用于衡量检测目标的准确性,不能用来衡量多目标算法的跟踪性能,因此为了比较以上跟踪算法的性能,需要选择相应的多目标跟踪评价指标对其进行衡量.文献[62]最早提出了多目标跟踪准确度MOTA、多目标跟踪精度MOTP 两种评价指标,此外在MOT Challenge[63]多目标跟踪评价平台上也提供了部分评价指标,如跟踪轨迹大致完整(大于80%)的比率MT、虚警数FP、丢失数FN 以及轨迹误配数IDS.其中MOTA是最重要的一个指标,用来度量算法能否准确确定目标个数.

其中 f pt,mt,m met分 别表示在第 t 帧时的误判数,丢失数,误配数,gt表 示第 t 帧时跟踪的目标数.MOTA的取值范围是(—∞,1],仅当没有错误的时候取1.

MOTP用来度量算法能否准确确定目标的位置,

本文从文献中查找了相关算法的性能指标并以表格的形式列举出来,其中 “↑”表示数值越大,性能越好.“↓”表示数值越小,性能一越好.“—”表示没有找到相关指标,所以表中并未列出.不同算法之间的性能对比如表3所列.

表3 不同算法之间的性能对比Table 3.Performance comparison between different algorithms.

4 行人动力学模型

利用以上部分介绍的算法和模型,便可以得到行人 k 的边界框坐标(xk1,yk1,xk2,yk2),对相应的坐标求平均值便可得到行人 k 的中心点坐标然后进一步用时间间隔 Δ t 记录行人的中心点坐标,最后用相邻两次的坐标之差与 Δt 相除便可求得行人的速度信息.在得到行人的运动轨迹、速度等参数之后,便可对移动人群的运动模式进行分析,从中挖掘出群体行为的潜在规律[68].已有大量文献建立了各种模型分析行人的动力学行为[69,70],本文介绍三种典型的流体动力学模型、社会力模型、启发式模型,以及结合了多种模型的集成模型.

4.1 流体动力学模型

针对人群行为分析问题,Henderson[71-74]首先将气体动力学和流体动力学模型应用到行人群体中.他通过测量各种人群的速度频率分布发现行人在经过十字路口时大部分人为了躲避来往车辆会降低行走速度,而少部分人会加快行走速度.进一步的研究还表明经过十字路口时女性的速度比男性的速度要低.因此作者用性别和遇到的车辆数量对行人群体进行划分,对女性和男性分别用二维气体的麦克斯韦- 玻尔兹曼速度分布进行描述,得到了很好的拟合效果,但其存在一个动量守恒和能量守恒的假设条件.

后来,Helbing[75]舍弃了动量守恒和能量守恒的假设,用一个改进的类玻尔兹曼的气体动力学模型来描述不同的行人群体.该模型首先将行人按照行走方向的不同划分为不同的模式 μ,其次给不同模式的 μ 设置三个变量其中 x 表示模式 μ 所处的位置,表示模式 μ 的理想速度,vμ表示模式 μ 的实际速度,然后利用上述三个变量建立密度方程密度与 行人达到理想速度的趋势[76,77]、行人间的相互作用、运动模式的改变、每单位时间内区域密度的增加或减少四个因素有关,下面具体介绍这四个因素对密度的影响.

2)行人之间的相互作用通过影响行人的行进速度进而影响行人密度,这一因素的影响可以用类玻尔兹曼混沌 假设[78,79]建模:

3)若行人的运动模式在运动过程中发生变化,则有

4)行人走出和进入某个区域对该区域在单位时间内密度的影响,可以用公式表示为

流体动力学模型从宏观层面来描述行人,注重整个人群中密度和速度的平均值,可以很好地把握行人的整体行为特征,在解释行人拥堵、人群分流等方面得到了广泛的应用[80].但是其忽视了人群中个体与个体之间的相互作用,不能从微观层面刻画每个行人的行为特征,也无法解释个体行为对群体行为的影响[81].

4.2 社会力模型

针对流体动力学模型无法从微观层面上描述个体行为的问题,Johansson等[82]提出了社会力模型.社会力模型中的社会力由自驱动力、排斥力和吸引力三部分组成.

自驱动力的作用是驱使行人向目标方向前进.行人正常行走时,其实际速度 vα等于理想速度.如果受到障碍物的干扰,行人会调整自己的速度,但在自驱动力的作用下会产生一个指向的加速度,使得实际速度 vα向理想速度靠近,自驱动力的作用可以表示为

行人之间的排斥力用于减小其他行人对个体私人领域侵犯的影响.当个人的私人领域受到侵犯时,通常会感到不舒服,从而产生一个排斥力与其他行人保持一定距离.排斥力的大小取决于行人的密度和理想速度 v0,行人 α 在 接近陌生人 β 时,可以用下面的方程表示:

其中 rαβ=rα-rβ是行人 β 步距的数量级.

此外,当行人靠近障碍物时也会感觉到不舒服,行人与障碍物也会保持一定的距离以免自己受伤.这种与障碍物之间的排斥力可以描述为

行人有时也会被其他行人(朋友)或者障碍物所吸引.在地点 ri的 吸引力 fαi可以用单调递增的吸引潜力表示:

上面所提到的力都是行走在运动方向上所能感知到的.除此之外,还应考虑在行人身后的弱影响 c,0 < c < 1.由此引入方向相关权重:

综上,一个行人行为的排斥力和吸引力可以表示为:

行人所受的总社会力为

社会力模型为

其中fluctuations表示波动,代表偶然或者故意偏离了常规的运动模式.社会力模型不仅能解释微观层面上行人行为模式的改变,比如遇到障碍物行人会减慢速度等,而且可以从个体行为模式的改变推导出整个人群中压力、密度等宏观参数的变化.

4.3 行为启发式模型

社会力模型虽然能够解释一部分人群行为,但是在实际的应用过程中会产生比较复杂的数学公式,参数很难校准[83].因此Moussaïd等[84]提出一种简单的行为启发式模型来捕捉人群行为中的潜在规律.该模型认为行人行为模式的改变是通过两种简单的认知过程完成的,并加入了行人的视觉信息[85-87].此外还考虑了极度拥挤情况下行人之间无意的碰撞行为.该模型主要包括视觉信息复现、认知过程、碰撞效应三部分.

首先对现实世界中行人所感受到的视觉信息进行复,视觉信息主要包括视野范围和视野范围内最近的障碍物到行人的距离两部分.其中视野范围用区间 [ - Φ,Φ]表示,其含义是以行人行走视线Hi所在方向为基准,向视线 Hi左右两边最大各倾斜Φ度.视野范围内最近一个障碍物到行人 i 的距离用f 表示,如果行人i以速度在向目标方向前进的过程中不会与障碍物发生碰撞,则令 f 等于无穷大.其次构造两个认知过程来模拟行人对视觉信息的处理,第一个认知过程用来确定行人在遇到障碍物之后所选择的行走方向,第二个认知过程用来确定行人遇到障碍物之后应该调整为多大的速度.

经验数据表明[87],行人在避开障碍物的前提下并不愿意在目的路线上偏离太多.因此,第一个认知过程是“行人在保证不与障碍物发生碰撞的前提下,选择一条到目的地 Oi的最短路径”,可以表示为:

其中 αdes表示行人遇到障碍物后所选择的最短路径方向,α0表示目的地的方向.

行人在发现障碍物之后,需要一个缓冲时间τ来防止与障碍物发生意外碰撞.由此第二个启发式是“行人在所选择的行走方向上与障碍物保持一定的距离”,可以表示为

其中 vdes(t)表 示实际速度,表示理想速度,dh表示最近的障碍物和行人的距离,τ 表示缓冲时间.

上述两部分可以很好地模拟出稀疏场景下行人的行为,但在拥堵场景下需要考虑行人行人之间无意的碰撞.

其中 nij是从行人 i 指 向行人 j 的归一化向量;dij表示行人之间的距离;ri,rj分 别表示行人 i,j的半径;k g是系数;fij表示行人 i,j 之间的相互作用力.

启发式模型相比于流体动力学模型和社会力模型,更加真实地模拟出了人们在遇到地震、恐怖袭击、火灾等紧急场景下的群体行为,且该模型对个体的运动轨迹和集体的运动模式的预测 与大量的经验和实验数据相一致.

4.4 集成模型

随着研究的深入,人们发现单一的模型都存在一定的缺点,很难准确描述人类行为.比如启发式模型虽然简单高效,但它无法像社会力模型那样描述来自其他行人或者障碍物的排斥力.同样社会力模型中也不能运用启发式模型中的视觉信息来调节行走方向.于是Porter等[88]提出了IM模型框架,该模型集成了社会力模型、行为启发式模型以及材料科学理论,充分发挥了每个模型的优势.

作者首先用社会力模型中的公式(24)式描述行人遇到障碍物后实际速度与理想速度的不同,用(25)式和(27)式描述行人之间、行人与障碍物之间的排斥力.其次用行为启发式模型确定行人在遇到障碍物时所选择的行走方向,公式如下:

其中 eα(t)表 示行人 α 的 目标方向,dmax表示行人α视线的最远距离,r(e)表示距离行人最近的一个障碍物的距离,e0表 示目的地的方向,e 表示视野范围内的方向.

作者最后将材料科学中“只考虑直接相邻的分子,就可以很好地模拟分子间的相互作用”的理论应用到行人之间的交互中,只考虑在行人视野中的多个行人的影响,这样就不需要考虑周围所有的行人,大大简化了运算量.

5 典型系统及应用

5.1 智能监控领域

现在市场上安装的监控摄像机需要有专门的人员不断地监察影像以应付可疑事件,但实际上这些摄像头拍摄的视频很少有人一直监察或者根本没有人监察,导致摄像机没有起到应有的作用[89].因此,如果计算机能自动监视它便可起到预警的作用,帮助人们提前发现异常情况.

在拥挤的环境(比如机场、车站、地铁等)中经常发生行人丢失物品的事件,一旦丢失物品,就需要视频调度员从大量的视频中寻找,耗时且滞后.为了解决这一问题,Ferrando等[90]建立了一种从室内场景中检测丢失物体的系统.该系统包括目标分割、目标的识别和跟踪以及动作决策三个模块.该系统首先将目标按照是行人还是物体、是动态还是静态划分为4 类,然后对动态的行人和物体进行持续跟踪,最终物体处于静止状态时则被认定为丢失,及时发出警报,来协助工作人员进行处理.但该系统仅适合在室内场合使用,并且行人之间的遮挡时间过长会导致误报,这时就需要人工来判别.

类似的系统还包括国内清华大学刘晓东等[91]开发的一套集运动目标检测、目标跟踪、目标分类一体的智能监控系统,湖南大学万琴和王耀南[92]提出的一种针对固定监控场景的运动检测与目标跟踪方法.在国外,Nikouei等[93]把智能监控作为一种边缘网络服务,提出了一种轻量级CNN算法,拥有更高的运算速度和较少的内存使用,提高了行人检测的实时性.Gajjar等[94]用K-均值算法来跟踪监控视频中的行人,首先在视频中记录与行人位置相关的HOG特征向量,然后用K-均值算法聚类得到了行人的轨迹.

5.2 拥堵人群分析

人群踩踏是拥堵人群中最具灾难性的事件之一[95].当聚集在一个地点的人群密度过高时,人与人之间不可避免地会发生身体接触,此时一个行人对其周围人的作用力会像水纹一样不断向外传播,并与其他各个方向不同大小的力相互叠加起来共同作用在人群中.这些合力将人们在人潮中推来推去,同时由于人群密度的增加,人群之间的温度也随之升高.拥挤的空间加上闷热的环境会让人产生头晕、乏力等症状.如果此时有人不幸跌倒,那么在多米诺骨牌效应的作用下会引发一系列连锁反应—周围的人也相继跌倒[96],从而引发大规模的踩踏伤亡事件.拥堵人群的安全问题在应急管理、消防安全、建筑设计等领域都有着重要意义[97].

然而行人跟踪领域长期缺乏带注释的视频数据集,很难用计算机视觉的方法对其进行分析.直到最近Zawbaa等[98]利用HUER数据集,对6个不同的朝圣地点进行了建模,可以实现在不同的朝圣视频场景中对仪式地点进行分类.该系统包括预处理、分割、特征提取和位置分类四个阶段.将视频帧作为输入输入到k近邻(KNN)、人工神经网络(ANN)和支持向量机(SVM)分类器中.该系统普遍提高了六个朝觐仪式的识别准确率,其准确率超过90%.虽然这个系统在识别朝觐仪式上有更好的准确性,但还不足以对踩踏事件作出预警.

针对以上问题,Helbing等[99]通过对拥堵人群中密度、速度、压力等参数的分析,发现当人群中的压力是导致踩踏事件的关键因素,一旦压力超过0.02 则踩踏事件不可避免,由此提供了一个踩踏事件的预警机制.在实际生活中,踩踏事件多由突发事件引起,Zhao等[100]通过对由突发事件的研究发现,在突发事件发生之后人们会争先恐后地往出口方向逃脱,这造成出口区域附近人员密度极高,人与人之间的拥挤程度加深,减缓了人们的逃离速度.针对这一现象,Zhao等[100]在出口处设置类似面板形状的障碍物引导行人分流,降低出口区域的人群密度,并通过实验表明该方法可以提高疏散效率,减少人员伤亡.因此对拥堵人群设计有效的疏散方法,有助于减少人群中由于恐慌和从众行为所造成的经济损失和人员伤亡,对改进应对突发事件的策略具有十分重要的意义[101].

5.3 异常行为分析

在公共安全领域,需要及时发现危险分子的异常行为,确保人民群众的生命和财产安全.Yogameena和Nagananthini[102]利用投影和骨架化方法对个体的正常和异常行为进行分类,该系统主要包括运动检测与跟踪、行为分析,它可以检测到人类走路、跑步、打架、弯腰等异常行为,准确率高.但是适合稀疏人群,在拥堵人群中效果不佳.

随着我国老龄化人口越来越严重,如何照顾好老人、防止老人摔倒是很重要的问题.Miaou等[103]认为约70%的意外摔倒是可以预防的,并提出了一种结合个人信息(如年龄、性别、体重)的全摄像头来检测老年人是否摔倒.摄像机的图像实时传输到一台服务器上,对前景中感兴趣的对象进行背景减除,然后系统使用连接组件标记来获取每个对象的面积、高度和宽度,设置一个简单的判定跌落阈值来确定一个人是否跌落.此外,马里兰大学的计算机视觉实验室利用对灰度图像中的人体建模,同时根据手、腿及头部等部位的动作的分析与跟踪,能够实现对多个行人进行检测与跟踪[104].Kocabas等[105]提出了一种多人姿态估计框架,该框架将多任务模型与残差网络相结合,可以联合处理人体检测、关键点检测和姿态估计问题,作者在COCO关键点数据集上测试的检测速度是23帧每秒.

6 结 论

行人跟踪是计算机视觉领域中的难点和热点问题,同时也是人类行为动力学中一个难点问题.虽然之前的工作提出了大量再现人群行为的模型,但由于缺乏对现有模型进行验证或校准的公开数据集,使得这些模型之间没有一个很好的评判标准.而且目前关于大规模人群行为的分析大都停留在统计和宏观层面上,如基于手机数据对受地震、极端气候影响的人口迁移模式[106-108]以及对个人旅行模式的时空分布的研究[109,110];基于社交网络软件对自然灾害发生前后社交网络的结构及其演化的研究[111],对男同这一特殊群体的行为研究[112];基于传感器的应急管理救援研究等[113],但微观层面上的研究极度缺乏.近年来,随着深度学习技术在计算机视觉领域的兴起,已有部分文献运用深度学习技术分析人群中的异常行为、估计行人的运动姿态,且取得了良好的效果.这使得人们应用开源分析平台建立大规模标准数据集成为了可能,并为在微观和中观尺度下对大规模人群行为分析提供了一个新思路.

猜你喜欢
行人卷积算法
哪种算法简便
基于3D-Winograd的快速卷积算法设计及FPGA实现
毒舌出没,行人避让
卷积神经网络的分析与设计
Travellng thg World Full—time for Rree
从滤波器理解卷积
路不为寻找者而设
进位加法的两种算法
根据问题 确定算法
基于傅里叶域卷积表示的目标跟踪算法