赵 龙 肖军波
(北京航空航天大学 飞行器控制一体化技术重点实验室,北京100191)
遮挡情况下的运动目标跟踪是运动目标检测与跟踪领域中的难题.为解决运动遮挡问题,国内外学者已进行了大量的研究,提出了许多有效的方法.文献[1-2]通过提取对目标形状、大小和尺度不变的 SIFT(Scale-invariant Feature Transform)特征,在遮挡过程中利用未被遮挡的特征点构造多维矩阵反解出目标的位置和大小,该算法提取的特征点具有很强的鲁棒性,但计算量大,且在目标被严重遮挡时无法提取有效特征点;文献[3-4]提出了利用像素灰度预测值和测量值的差异来判断该像素是否发生遮挡,进而确定模板如何更新,但该方法不适用于目标运动轨迹变化较大的情况.文献[5-7]提出了基于概率外观模型Condensation的跟踪方法,该方法通过在未遮挡情况下建立目标颜色模型并实时更新,来保持目标颜色的空间分布信息,但无法解决目标与遮挡物颜色相近情况下的跟踪.文献[8-9]利用匹配误差判定子模板是否被遮挡,用整体的目标灰度相关匹配来实现对目标的有效跟踪,但该方法同样不适用于目标遮挡较为严重的情况;文献[10-11]将目标前景进行分块,通过各子块表决确定最佳匹配位置来实现对目标的跟踪,但由于子块中包含了背景信息,且仅采用单峰值子块表决值作为目标的真实运动偏移量会导致误匹配.文献[12]采用动态模板和遮挡检测的方法(VMTM,Variant-mask Template Match)解决了目标发生遮挡时的跟踪问题,但更新后模板与真正目标相差较大,在完全遮挡下无法对目标进行有效跟踪.
在对文献[10-12]进行研究的基础上,提出一种改进的基于子块模板匹配的抗遮挡跟踪方法(IMTM,Improved Multi-blocks Template Match).该方法采用改进后的目标遮挡判定准则,通过对目标模板进行自适应分块,在搜索区域内对子块位移量进行加权表决来获得目标真实位置,实现运动目标在多种遮挡情况下的快速稳定跟踪.
文献[10]中采用Bhattacharyya系数来判定目标是否被场景中的静物遮挡,即
式中,H1和H2为前后两帧中目标灰度模板规一化后直方图;L为直方图划分的颜色区间数量.
当目标与遮挡物颜色相差较大时,Bhattacharyya系数迅速增大;否则,当目标与遮挡物颜色相近时,Bhattacharyya系数没有明显变化,因此单独靠Bhattacharyya系数不能准确判定目标是否发生遮挡.为此,本文提出改进的遮挡判定准则为
式中,TB为Bhattacharyya系数的阈值,TB∈(0,1);γs和φs分别为计算目标在第t帧与第t-1帧的像素面积之比以及有效前景点数之比.
针对静物遮挡运动目标的跟踪,文献[10]采用固定边长在当前目标矩形框中分割子块,得到的子块包含了背景信息,且目标面积较大时算法匹配计算量将成倍增加.为克服此缺点,本文根据目标宽高(w,h)来自适应分配模板子块的边长为
为避免目标边缘剧烈变化导致边缘子块无效,当模板子块包含的有效前景像素之和大于阈值时,将该子块作为候选匹配子块.
利用文献[12]中的方法进行候选匹配子块匹配时易出现单峰表决值,导致计算出的位移量不是目标整体的真实位移量.为此本文提出一种改进的基于加权平均的表决方法,利用文献[12]中的方法选出票数最高的3个位移量{d1,d2,d3},并计算出他们最高票数的总额,根据每位票数所占总额的权重βi进行累加求和,进而得到改进后的运动位移量为
目标完成匹配后,在进行模板子块更新时,为减少相关性较小的子块对匹配可靠性的影响,本文除了利用文献[12]中的方法对历史目标子块进行筛选以外,还采用了低通滤波器(IIR,Infinite Impulse Response)对每个历史目标子块灰度值进行自适应加权更新,即
式中,It为子块的灰度值;bt为子块匹配上的灰度值;pmax为最高票数所占的票数比率;Tp为所设滤波器阈值,取值范围为(0,1);λ为子块更新率,取值范围为(0.0,0.3].通过对历史目标子块进行自适应实时更新,能够有效避免前景噪声和模板滞后引起的误匹配.为实现对目标运动轨迹进行预测,根据目标在当前帧的质心坐标(x,y)、矩形宽高(w,h)和瞬时速度(vx,vy)等信息,利用卡尔曼滤波模型预测目标在下一帧中的状态.卡尔曼滤波模型的状态向量和观测向量为
当目标在预测邻域内未检测出新目标时,表明该目标已被完全遮挡,此时采用卡尔曼滤波模型对目标运动轨迹进行预测和跟踪;当目标离开遮挡区域被重新检测到时,本文提出一种新的匹配方法来实现目标的对接跟踪.
本文采用重现目标的感兴趣矩形(ROI,Rectangle of Interest)完成跟踪,定位规则见表1,由新目标的运动速度vx和vy来确定历史目标原始模板的ROI位置和尺寸,并计算模板灰度前景Ft.根据式(1)计算Ft与新目标灰度前景Fc的Bhattacharyya系数dB.如果满足dB<TB,则认为目标匹配成功,用新目标的运动信息对历史目标进行更新;否则,目标匹配失败,开始新一轮的目标跟踪.
表1 重现目标的ROI定位规则
目标对接匹配示意图如图1所示,实线矩形框表示新目标;虚线矩形框表示历史目标的原始模板;图中箭头代表目标运动方向.由于目标运动速度vx和vy均为正,因此将模板的ROI区域设置为右下角.本文抗遮挡跟踪算法流程图如图2所示.
图1 目标对接匹配示意图
图2 本文目标抗遮挡跟踪算法流程图
为验证本文提出算法的性能,针对各种不同视频序列进行实验测试.
测试视频1为文献[12]中采用的 CAVIAR(Context Aware Vision using Image-based Active Recognition)多人行走视频序列,图像为384像素×288像素;测试视频2为实际拍摄的多人部分遮挡视频序列,图像为364像素×281像素;测试视频3和4采用IEEE跟踪和监控性能评估标准数据库(PETS,Performance Evaluation of Tracking and Surveillance)中的车辆完全遮挡视频序列,图像为768像素×576像素;测试视频5和6为北京航空航天大学数字导航中心视频数据库中的行人完全遮挡视频序列,图像为640像素×480像素.所有视频序列的帧率均为25帧/s.
利用测试视频1~6分别对文献[12]中提出的VMTM方法和本文方法进行目标跟踪实验测试,实验结果如图3~图8所示,其中虚线矩形框和轨迹为VMTM算法的跟踪结果,实线矩形框和轨迹为本文算法的跟踪结果.
图3 测试视频1的两种方法结果
图4 测试视频2的两种方法结果
图5 测试视频3的两种方法结果
图6 测试视频4的两种方法结果
图7 测试视频5的两种方法结果
图8 测试视频6的两种方法结果
从图3和图4的测试结果中可以得出,两种方法在目标被部分遮挡、甚至严重遮挡情况下仍能实现目标的持续稳定跟踪,两种方法的目标跟踪矩形框和轨迹与真实值基本一致.这是因为本文方法与VMTM方法均采用子块模板表决来获取目标的整体位移量.通过对图5~图8中目标在完全遮挡情况下的跟踪结果进行分析,采用VMTM方法跟踪的目标矩形框和轨迹与实际目标存在较大偏差,模板漂移比较严重,而且当目标再次出现时,无法准确跟踪目标;而采用本文算法则不存在上述偏差和漂移,在目标因遮挡再次出现时,依然能够准确跟踪目标.造成两种算法差异的主要原因是本文方法可以根据子块表决结果得到加权后的位移量,避免单峰表决值不能代表整体子块位移量的缺陷,同时历史目标模板可以根据子块表决情况自适应地进行更新,可以有效地防止遮挡物噪声成为模板的一部分,进而减少匹配误差.利用视频3分别对两种方法进行实验测试,获得跟踪目标质心坐标与真实质心坐标的对比结果如图9和图10所示.
图9 两种方法与真实值在x轴上的轨迹对比
图10 两种方法与真实值在y轴上的轨迹对比
从图9和图10可以看出,在第20帧目标进入遮挡状态时,两种方法通过子块模板匹配得到的质心轨迹相差很小,误差均在真实值附近;而在第35帧目标进入完全遮挡状态时,VMTM方法得到的质心坐标逐渐偏离真实值,而本文方法得到的质心轨迹依然能与真实值的变化趋势保持一致;在第53帧目标再次出现时,存在一个明显的轨迹跳变,这是因为真实值是整个跟踪目标的质心坐标,而本文方法检测到的质心坐标是目标前景的质心坐标,在目标尚未完全脱离遮挡状态时会与真实值有差异,而在遮挡结束后二者的轨迹将逐渐重合,保证在目标再次出现后能够准确地跟踪目标.
针对运动目标在遮挡情况下的跟踪难题,提出一种改进的目标抗遮挡跟踪算法,建立了目标抗遮挡跟踪的准则,实现了目标的抗融合遮挡跟踪.通过多种测试视频进行测试验证,本文方法在不同遮挡情况下,均能实现对刚体及非刚体运动目标的稳定跟踪.
References)
[1] Lowe G D.Distinctive image features from scale-invariant key points[J].International Journal of Computer Vision,2004,60(2):91-110
[2] Zhou Huiyu,Yuan Yuan,Shi Chunmei.Object tracking using SIFT features and mean shift[J].Computer Vision and Image Understanding,2009,113(3):345-352
[3] Senior A,Hampapur A,Tian Yingli,et al.Appearance models for occlusion handling[J].Image and Vision Computing,2006,24(11):1233-1243
[4] Zhang Jin,Sun Hongguang,Guan Weizhou,et al.Robust human tracking algorithm applied for occlusion handling[C] //Proceedings International Conference on Frontier of Computer Science and Technology.Changchun:[s.n.],2010:546-551
[5] Gross R,Mattews I,Baker S.Active appearance models with occlusion[J].Image and Vision Computing,2006,24(6):593-604
[6] Khan M S,Shah M.Tracking multiple occluding people by localizing on multiple scene planes[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(3):505-518
[7] Ablavsky V,Thangali A,Sclaroff S.Layered graphical models for tracking partially-occluded objects[C] //Proceedings IEEE Conference on Computer Vision and Pattern Recognition.Alaska:IEEE,2008:1-8
[8] Zhou Yue,Tao Hai.A background layer model for object tracking through occlusion[C] //Proceedings IEEE Conference on Computer Vision and Pattern Recognition.Wisconsin:IEEE,2003:1079-1085
[9] Wang Yan,Liu Tao,Li Ming.Object tracking with appearancebased kalman particle filter in presence of occlusions[C] //Global Congress on Intelligent Systems.Hongkong:Conference Publishing Services,2009:288-293
[10] Zhang Zui,Gunes H,Piccardi M.Tracking people in crowds by a part matching approach[C] //Proceedings IEEE 5th International Conference on Advanced Video and Signal Based Surveillance.New Mexico:IEEE,2008:88-93
[11] Latecki J L,Miezianko R.Object tracking with dynamic template update and occlusion detection[C] //Proceedings IEEE 18th International Conference on Pattern Recognition.Hongkong:IEEE,2006:188-193
[12] Pan Jiyan,Hu Bo.Robust occlusion handling in object tracking[C] //Proceedings IEEE Conference on Computer Vision and Pattern Recognition.Minnesota:IEEE,2007:1-8