张蕴绮 苗志程 陈弘健
摘要:基于图像识别技术的录播系统是对人工录制模式的革新,其使用拓宽了优质教育资源的应用范围。本文主要研究适用于录播系统中的目标检测和跟踪技术,在没有人工干预的情况下,利用图像处理算法对视频图像进行实时分析与处理,实现对跟踪目标的自动检测、跟踪和拍摄。
关键词:录播系统;图像识别;目标检测;目标跟踪
中图分类号:TP391 文献标识码:A
文章编号:1009-3044(2023)06-0097-06
开放科学(资源服务)标识码(OSID)
0引言
国家“十三五”教育改革提出通过提升教育信息化促进教育公平、提高教育质量的方针[1]。近年来随着云计算、大数据等技术的实现,使利用信息化手段扩大优质教育资源覆盖面、缩小区域、城乡、校际教育资源不均衡再次提上议程。录播采集课堂教学资源,促进优质教育资源共享的特点,使得录播系统成为教育均衡发展最为重要的基础设施,得到多方面的重视。
1录播系统概述
全自动录播系统集图像分析技术、多媒体技术、网络流媒体技术、人工智能和自动控制技术于一体,将老师授课、师生互动、电脑VGA信号及课堂板书等进行智能跟踪切换录制,自动生成课程资源。
在功能架构上,录播系统由电源控制模块、视频模块、音频模块、跟踪模块、导播模块这五大子系统组成,如图1所示。
(1)电源控制模块
通过高度集成化的控制面板实现录播系统和其他设备的电源控制,一键开/关系统、一键启/止录播,操作简明。
(2)视频模块
通过网络摄像机采集课堂情景并传送至录播设备进行实时录制并生成流媒体文件,压缩率高,能够实现动态捕捉并自动生成文字索引。
(3)音频模块
利用通过智能混音器把課堂上师生的语音信号全息地采集下来,并实时传送至录制系统完成课件实时录制。
(4)跟踪模块
该模块根据图像差异匹配相应的控制策略驱动摄像机对目标进行智能跟踪定位,同时识别分析目标的活动轨迹,以此实现授课场景的特写、镜头切换等录制。即便在不同场景下也能实现多目标的跟踪及镜头切换。
(5)导播模块
该模块主要用于录制过程中多场景及多路视频信号源、音视频文件和电脑VGA信号间的自动切换,系统根据教学活动的变化智能选择切换策略,并实现具备特效功能的智能导播。
2基于图像识别技术的运动目标检测与跟踪
基于图像识别技术的运动目标检测与跟踪技术是当前技术含量最高、多媒体教学录播系统中采用最为广泛的一种手段。它的原理是利用图像处理算法,在没有人工干预的条件下对摄像机拍摄的图像序列进行分析、处理,从而实现课堂中师生的自动检测与定位跟踪。基于图像识别技术的跟踪框架图如图2所示:
2.1运动目标检测
运动目标检测是把运动目标的信息(如方位、尺寸、颜色等)从背景中提取中来,它是后续目标跟踪及其他分析处理的基础。目标检测算法不具备普适性,需针对特定场景选择可靠性高、复杂度低且满足最佳实时性的算法。
2.1.1运动目标检测介绍
根据摄像机与背景是否发生相对运动,可把运动目标检测分为动态背景和静态背景两类。在录播系统中除特写摄像机外其他机位都相对固定,因此属于静态背景的运动目标检测。目前较常用的静态背景运动目标检测有三种,分别是光流法、帧间差分法、背景差分法,横向对比如表1所示[2]。
根据对比结果,三种算法各有其优缺点,无法适用所有场景,因此应结合多种算法进行设计。录播教室通常会发生的干扰是遮挡、背景杂波和光照变化,跟踪目标的运动速度通常较慢,因此本文采用基于背景差分法的运动目标检测算法。
2.1.2背景差分法
背景差分法(又称背景减法)的基本思路是把当前帧图像与系统存贮或实时获取的背景图像进行差分运算,把背景偏离超过一定阈值的区域作为运动区域[5]。在做差分运算之前进行图像滤波可在一定程度上去除噪声的影响,本文采用高斯滤波法对当前帧去噪。与背景帧差分后选取适当的阈值对图像做二值化处理,为了消除细小噪声点的影响,二值化后的图像需进行形态学处理,最后对处理结果提取目标轮廓,具体流程图如图3所示。下文将重点阐述背景差分法中的背景更新算法、图像阈值分割算法、形态学处理算法和轮廓提取算法。
1)基于滑动平均法的背景更新
背景差分法实现的关键在于背景模型的获取和更新,混合高斯模型因其能可靠处理背景混乱运动的干扰和长时间的场景变化等特点成为近年来广泛使用的背景模型,但是它对于光线突然变化的场景该模型并不理想,因此本文提出基于滑动平均算法的背景模型。
滑动平均算法是利用背景图像像素值与当前帧像素值进行加权求和来达到背景自适应更新目的的算法。其公式如下:
[Bn(i,j)=Bn-1(i,j)+αIn(i,j)-Bn-1(i,j)=αIn(i,j)+(1-α)Bn-1(i,j)] (1)
其中[Bn(i,j)]表示第[n]帧更新后的背景像素值,[In(i,j)]表示当前帧像素值,[α]表示背景更新系数,一般在0到1之间取值,它的取值会影响到运动目标与背景模型融合的速度,考虑到录播场景中主要是缓慢的光照变化,本文中[α]取值为 0.01[6]。
2)基于最大间类方差法的图像阈值分割
当前帧与背景帧做差分后,要选取合适的阈值对图像进行分割来得到二值化图像。最大间类方差法的原理是按照图像的灰度特性把图像分为目标前景和背景两部分。当选取最佳阈值时,前景和背景之间的类间方差越大,错分概率越小[7]。
记[T]为前景与背景的分割阈值,前景像素点出现的概率记为[ω0],平均灰度为[u0];背景像素点出现的概率为[ω1],平均灰度为[u1],图像的平均灰度记为[u],可得到:
[u=ω0×u0+ω1×u1] (2)
前景和背景图像的方差公式为:
[g=ω0×(u0-u)×(u0-u)+ω1×(u1-u)×(u1-u)=ω0×ω1×u0-u12] (3)
当方差[g]最大时,可认为此时前景和背景差异最大,此时的灰度[T]是最佳阈值。
3)形态学处理
在目标分割的过程中难免会产生噪声点,或是运动目标图像中出现空洞或不连通现象,影响轮廓提取的精度,通常采用数学形态学解决此类问题。数学形态学以膨胀、腐蚀为基础,结合起来可构成开、闭运算[8]。开运算用来消除细小对象、微小粘连,闭运算可用来连接邻近对象、填充对象内部细小空洞。开、闭运算都可在不改变目标面积的前提下平滑目标边缘。结合本文的实际场景,选择开运算来消除细小噪声点的影响。
4)轮廓提取
通过阈值分割得到二值化图像后,需进一步提取出运动目标的轮廓。目标轮廓提取的原理如下:遍历图像中的每个像素点, 如果该点灰度值为0,不管周围相邻的8个像素点的灰度值是0还是1,当前该点的灰度值取值为0;若该点灰度值为255,并且周围相邻的8个像素点的灰度值也是255, 则当前该点的灰度值取值为0;除上述两种情况外,将该点灰度值取值为255。通过上述方法可完成对目标轮廓的提取,轮廓由灰度值为255的所有像素点组成 。
2.2运动目标跟踪
运动目标跟踪是在视频图像中提取出运动目标并在后续帧中定位出目标位置的过程。与运动目标检测算法相比,运动目标跟踪算法的着重点在于如何设计更有效的标记方法使该标记在各种情况下都能清晰可见、易识别[9]。
运动目标跟踪的过程可分为以下几个步骤:
1)在视频帧图像中检测出运动目标并从背景中分割出该目标。
2)提取出运动目标包含的特征(如中心、速度、轮廓、颜色直方图等),并根据这些特征建立目标模型。
3)根据模型预测该运动目标在下一刻可能出现的位置并锁定搜索范围。
4)使用之前的目标模型在搜索范围内搜寻匹配目标并确定最佳匹配位置,若在所有的搜索范围内都没有找到匹配目标,进行特定处理。
5)根据最佳匹配目标修正运动目标的模型,再重复上面的操作。
根据运动目标跟踪算法采集图像特征及使用跟踪策略的差异,运动目标跟踪算法可分为基于模式匹配、基于分类和基于目标状态估计这三类[10]。下面对这三种类别算法及其下属的二级分类进行简要介绍,并分别列出各算法的适用条件形成横向对比表2。
根据表2可知,基于贝叶斯框架的目标状态估计滤波算法表现形式灵活、融合性强且追踪性能稳定,成为当前运动目标跟踪方向的主流研究方法。与卡尔曼滤波算法相比,粒子滤波算法不受空间模型状态的限制,适合实际视频图像中噪声呈非线性、非正态分布的特点,因此本文选取粒子滤波作为目标跟踪算法。
2.3粒子滤波目标跟踪算法
粒子滤波是以蒙特卡洛随机模拟理论为基础,对系统状态后验分布用一组加权随机样本(即所谓的粒子)近似表示,新的状态分布通过这些随机样本的贝叶斯递推估计。该算法不受线性、高斯分布及维数的限制,对目标模型没有限制。在粒子数足够多的前提下,其精度可接近最优估计。基于这些特点,粒子滤波目标跟踪算法成为目标跟踪领域的研究热点,拥有广阔的应用前景。
粒子滤波主要包括四个步骤:
1)粒子采样,从建议分布中抽取一组新的粒子;
2)粒子加权,根据观测概率分布和贝叶斯公式计算各个粒子的权值;
3)估计输出,输出系统状态的均值、协方差或高阶矩等;
4)重采样,为了缓解粒子滤波中出现权值退化的问题而采取的方法。
虽然粒子滤波算法能较好地克服录制环境的噪声,但在实际使用中也存在以下两项缺陷:第一,粒子贫化现象严重,多次重采样后会发生样本枯竭;第二,使用单一特征作为参考模板,对目标描述不详尽[11]。这些都会影响到目标追踪的精度和稳定性。因此本文在传统粒子滤波算法的基础框架上,选取颜色、纹理、梯度特征,设计多特征自适应融合算法。
2.4多特征融合的粒子滤波目标跟踪算法
传统粒子滤波目标跟踪算法多数是基于单一的颜色特征建立目标模型,导致环境复杂时追踪不准确,因此本文采用多视觉特征融合的方式建立模型。
2.4.1 HSV颜色特征
颜色特征是目标跟踪最常用的特征之一,其提取简单且对较小程度的遮挡具较强的鲁棒性[12]。RGB和HSV是常用的颜色空间,但由于RGB空间是非均匀的,不符合人体视觉对颜色的主观感知,本文采用HSV颜色空间来描述目标。HSV是根据顏色的直观特性建立的颜色空间,更注重表达对于颜色的视觉感知差异,其参数分别是色调(H)、饱和度(S)、明度(V)。
在进行HSV特征的直方图统计时,为增加颜色分布的可靠性,对离目标区域中心点较近的像素赋予较大的权重,使像素点距中心点的距离与权值呈反比例关系,从而精确地表征目标颜色模型。采用式(4)所示的高斯核函数计算权重:
[k(r)=1-r2r<10,r≥1] (4)
式中[r]表示区域内某像素点到中心点的距离。候选区域颜色直方图[p(u)C]用算式表示为:
[p(u)C=i=1Nkx0-xihδb(xi)-ui=1Nkx0-xih] (5)
該式中[N]是目标区域内像素点总数,[u]是颜色直方图的索引区间,[b(xi)]表示目标区域内第[i]个像素点在直方图中的索引值,[δb(xi)-u]用于判断像素点[xi]的索引值是否属于直方图第[u]个索引区间内,[x0-xi]表示点[xi]到目标中心点[x0]的距离,参数[h=Hx2+Hy2],代表目标区域的半径[13]。
为了计算目标模型[q(u)C]和候选模型[p(u)C]的相似性,在两个归一化直方图(直方图等级数为[m])之间定义一个基于Bhattacharyya系数的度量:
[ρ=u=1mp(u)Cq(u)C] (6)
[dC=1-ρ] (7)
式(6)中[ρ]是Bhattacharyya系数,[ρ]越大,[dC]的值越小,目标模型和候选模型的相似度越高。HSV特征的似然观测模型可以表示为[14]:
[pC(zkxk)=12πσCexp(-dC22σC2)] (8)
2.4.2 LBP纹理特征
局部二值模式(Local Binary Patterns,LBP)是一种用于纹理描述算子,用于度量和提取图像局部的纹理信息,具有对光照变化及旋转不敏感的优点。依据该特征建立的目标模型能有效解决因场景变化导致追踪精度下降的问题。传统LBP算法中使用3×3矩形模板遍历图像进行二进制编码,模板中心像素值为[gc],从右侧中间像素点按逆时针方向依次编号[gp(p=0,...7)],每次周围像素与中心点像素比较:
[s(gp-gc)=1,gp-gc≥00,gp-gc<0] (9)
得到二值图像,再把二进制数转化成十进制数,得到中心点[gc]的LBP特征值[15]:
[LBP=p=07s(gp-gc)2p] (10)
具体实现过程如图4所示。
朴素LBP只能处理固定尺寸的纹理特征,因此研究者在此基础上继续拓展,提出其他改进算法。就目前研究成果而言,旋转不变Uniform LBP算法提取特征的效率最高。其算法的基本思路为把旋转不变LBP(LBP基础理论的扩展,将圆形邻域代替正方形领域,并将其不断旋转得到的LBP值中取最小值作为该邻域的LBP值)值二进制数字从0到1或1到0跳变最多发生两次的模式称为Uniform模式,其他情况则为非Uniform模式。基于旋转不变特性,旋转不变Uniform LBP算法只有两种结果:跳变两次或不发生跳变。
本文采用8采样点的旋转不变Uniform LBP算子提取目标的纹理特征,共有9种取值可能,更能节省存储空间。把LBP特征量化为8个bin的直方图[p(u)T]并归一化,[S]是归一化系数,令[u=1mp(u)T=1],
[p(u)T=Si=1Nδb(xi)-u] (11)
与计算HSV特征相同,得到 LBP特征的Bhattacharyya距离[dT]和观测模型[pT(zkxk)]。
2.4.3 HOG特征
方向梯度直方图(Histogram of Oriented Gradient, HOG)通过梯度信息和边缘的方向密度分布来描述图像局部纹理特征。HOG对图像几何和光学能保持良好的不变性,对人体细微的肢体动作不敏感,因而特别适于人体检测。计算公式如下:
[M(x,y)=Ix2+Iy2θ(x,y)=arctanIyIx∈0,360?or∈0,180?] (12)
式中[Ix]和[Iy]表示水平和垂直方向上的梯度值,[M(x,y)]代表梯度的幅度值,[θ(x,y)]代表梯度的方向,以圆周为范围,每10°为一个直方图索引区间,共计36个区间作为直方图的通道数,统计各像素点的幅值[M(x,y)]为某方向的直方图通道进行分布权重投票,与之前计算LBP直方图相似,可得到梯度特征的分布直方图[p(u)E],再计算HOG特征的Bhattacharyya距离[dE]和似然观测模型[pE(zkxk)]。
2.4.4多特征的自适应融合
常用的多特征融合策略有乘性融合和加权和融合,两种策略各有利弊:乘性融合计算简单、易于实现,且各特征值在独立条件假设下依据贝叶斯理论其估计结果可达到最优,但在背景出现强干扰时容易放大噪声,造成误差;加权和融合是对多个特征赋予相应的权值来加权求和,该策略对噪声影响不敏感,但无法提高目标后验密度概率的置信度[16]。因此,本文在假设多特征条件独立的情况下,采用自适应权重的加权和算法,通过度量单特征的观测值和目标模型的距离来计算自适应权重。
通过前文的算法可得到[k]时刻目标区域矩形框内不同特征对应的似然观测模型[pC(zkxk)]、[pT(zkxk)]、[pE(zkxk)]。[p(zkxk)]为[k]时刻三种特征融合后的观测模型,其计算公式如下:
[p(zkxk)=ωCpC(zkxk)+ωTpT(zkxk)+ωEpE(zkxk)] (13)
[ωi]是第[i]种特征在融合中的权值,满足[ωC+ωT+ωE=1]。[ωi]的计算方法如下:
[ωi=1di,min2] (14)
式中[di,min]表示第[i]个特征根据Bhattacharyya距离衡量目标与候选区域特征直方图的最小值。通过对[ωi]进行归一化得到各特征的权重。
2.4.5权值优化
针对传统粒子滤波算法重采样过程中出现的样本枯竭、粒子退化的问题,本文采用文献[17]权值优化方法进行重采样。权值优化重采样计算方法如下:
首先设置权值阈值[Thr=ωk×μ],式中[ωk]是[k]时刻粒子平均权值,[0<μ<1],根据设置[μ]值大小可剔除权值过小的粒子来排除干扰,同时降低计算的复杂度。本文中[μ]设置为0.3,当[k]时刻第[i]个粒子的权值[ωik]小于阈值便舍弃该粒子,对经阈值筛选后剩余的[m]个权值较大的粒子[ωik]求平均值,计算公式如下:
[ωik=1mi=1mωik] (15)
在重采样时权值小的粒子被舍弃,权值大的被保留并复制,在经过若干次迭代递推后会形成有效粒子减少,样本枯竭的现象,很大程度地影响目标跟踪的稳定性。所以需对权值小于[ωik]的粒子做優化处理,增大其重采样时被选中的概率。优化处理的计算公式如下:
[ωik=T-1Tωik+1Tωik,ωik<ωikωik=ωik,ωik≥ωik] (16)
式中[T]取值为4,[ωik]是优化处理后的权值。
2.4.6模板更新
传统的粒子滤波跟踪算法采用固定的目标模板,当运动目标发生方向、角度变化或旋转时会出现误差或跟踪失败,因此需策略性地更新模板来实现长时间稳定跟踪。本文采用度量当前候选模板和目标模板匹配度的Bhattacharyya系数来选择模板更新的时刻[18]。具体算法是设置阈值[ρthr],当Bhattacharyya系数小于[ρthr]时说明当前候选模板与目标模板的匹配度低,需要实时更新模板,否则无须更新。目标模板更新策略的计算公式为:
[qk=αpk+(1-α)qk-1] (17)
式中[qk]和[qk-1]表示当前帧和前一帧的目标模板,[pk]表示当前跟踪目标直方图,本文中加权系数[α]取值0.2,阈值[ρthr]取值0.7。
2.4.7算法流程
1) [k=1]时刻,在初始帧中人工选取跟踪目标矩形区域,提取该区域的颜色特征[pC(zkxk)]、纹理特征[pT(zkxk)]、HOG特征[pE(zkxk)],根据目标状态初始概率分布随机采样得到初始粒子集[xi1,ωi1Ni=1],表示第[k]帧第[i]个粒子的位置与权值,并将所有粒子等权重为[1N]。
2) [k=k+1]时刻,通过状态转移方程对重采样的粒子集进行传播,得到新的粒子集[xikNi=1],状态转移方程见式(18):
[xik=Axik-1+μik-1] (18)
式中[A]是状态转移矩阵,[μik-1]是高斯噪声。
3)求出各单特征对应的似然观测模型,并根据式(14)求出每种特征的权值[ωi],并对其进行归一化计算,根据式(13)得到三种特征融合后的自适应观测模型[p(zkxk)]。
4)根据多特征融合的观测模型更新权值,[ωik=ωik-1p(zkxk)],归一化权值[ωik=ωik/i=1Nωik]。
5)采用加权求和的方法对目标状态进行估计,[Xk=i=1Nωikxik]。
6)根据2.4.5所述的权值优化的方法对粒子集[xik,ωikNi=1]进行权值优化,后对该粒子集进行系统重采样,得到新的粒子集[x'ik,ωikNi=1,][ωki=1/N]。
7)根据2.4.6所述的模板更新方法对目标模板实时更新。
8)当前帧数小于总帧数时返回步骤2,否则结束跟踪。
3实验结果及分析
选取智慧录播教室录制的时长6分53秒的教学视频,像素352×288,包含教师讲课、学生起立、相同服装人物遮挡、跟踪目标形变、旋转、光照变化、出视野等多种场景及干扰因素,在硬件配置为Intel(R)Core(TM)i5-10400,主频2.9GHz,内存8GB的台式机上使用Matlab R2019a编程实现。
3.1运动目标检测实验
把上述实验素材作为样本,使用2.1.1介绍的三种运动目标检测算法进行对比实验,三种算法的示例如图5所示。
示例图是在前排相似目标干扰下对学生举手起立场景进行检测。从图5中可以出,光流法和帧间差分法对帧间位移较小或静止的目标检测效果不如背景差分法。实验采用检测速度和正确率两项指标考评,检测速度的单位是FPS(frame/s),检测正确率通过算法判断运动目标出现的总帧数占实际帧数的百分比来计算,得出目标检测算法的结果对比如表3所示:
通过表3可以看出,光流法因迭代计算量大,不适用于实时图像处理;帧间差分法的检测速度最优,但在精度上低于其他两种算法,背景差分法保证了一定的检测速度,同时拥有最高的精度。
3.2运动目标跟踪实验
在运动目标跟踪实验中,选择单颜色特征粒子滤波(PF)、定值加权和粒子滤波(Constant weight)及本文算法(Proposed)进行对比实验。仿真参数如下:Monte-Carlo仿真次数为100,单次仿真时长60,粒子数50,定值加权和粒子滤波的特征权重[ωC=ωT=ωE=1/3]。采用Monte-Carlo仿真的平均值来衡量,评价指标为跟踪速度、均方根误差(Root Mean Square Error ,RMSE) 、样本协方差(Covariance,COV)。RMSE的计算方法见式(19)。
[RMSEk=1Mm=1MXmk-Xk2] (19)
式中,M表示Monte-Carlo运行次數,[Xmk]和[Xk]分别表示第m次观测k时刻跟踪目标的估计状态和真实状态,三种算法的RMSE比较如图6所示。
样本协方差的计算方法见式(20)。
[COVk=1Mm=1Mtr(Cmk)] (20)
式中,[Cmk]表示第m次观测k时刻的粒子协方差矩阵,协方差表示状态估计的置信度,协方差越小,粒子的空间分布越紧密,状态估计的置信度越高。三种算法的样本协方差比较如图7所示。
通过表4可以看出,单颜色特征粒子滤波算法的实时性最强,样本协方差最小,说明样该算法的似然观测模型令样本容易快速收敛到高似然区,但是在背景信息的影响下也容易放大噪声,所以该算法的均方根误差最大。本文算法的样本协方差值大于单颜色特征粒子滤波,说明本文算法样本分布的多峰性优于单颜色特征,有利于抑制噪声;小于定值加权和粒子滤波,说明与定值权重相比,自适应权重的概率密度的鉴别能力更强,所以本文算法的均方根误差最小,基本满足录播系统的性能指标要求。
4结束语
图像识别技术是计算机视觉领域的一个重要分支,是模式识别、图像处理、计算机视觉、机器学习等学科的交叉研究,有着广泛的应用前景[19]。本文研究的重点是适用于录播系统的智能跟踪,研究在课堂环境下特定运动目标的检测识别及跟踪技术。目标检测阶段采用背景差分算法,重点研究背景建模的建立、图像阈值分割、形态学处理、轮廓提取技术;目标跟踪阶段,在粒子滤波框架下使用多特征表征目标,并采用组合权值优化算法对重采样前的粒子做优化处理,避免出现样本匮乏,同时结合自适应模板更新策略来减轻目标漂移。在实验中采用实时性、正确率和样本协方差三项指标与其他算法做横向对比,实验结果证明本文算法更具备综合优势。
参考文献:
[1] 中华人民共和国教育部.教育部关于印发《教育信息化“十三五”规划》的通知[EB/OL].(2016-6-7)[2016-6-7].http://www.moe.gov.cn/srcsite/A16/s3342/201606/t20160622_26936 7.html.
[2] 宋香君.基于背景差法的篮球投篮轨迹自动捕捉方法研究[J].自动化与仪器仪表,2020(7):42-45.
[3] Cao B G. A new car-following model considering drivers sensory memory[J].Physica A:Statistical Mechanics and Its Applications,2015(427):218-225.
[4] 韩悦,金晅宏,郭旭,等.视频序列中的运动目标检测算法研究[J].电子测量技术,2019,42(13):103-106.
[5] 马蕾,张忠秋,张娜娜.改进背景差分法的运动轨迹实时跟踪方法[J].微型电脑应用,2021,37(9):27-29.
[6] 赵以国.课堂视频录播系统中运动目标检测与跟踪技术研究[D].南京:南京邮电大学,2015.
[7] 张丽,李潇,吴皓天,等.基于最大类间方差的图像分割算法研究[J].科技创新与应用,2021(8):39-41,46.
[8] 宋冬梅.数学形态学在数字图像处理中的应用研究[J].计算技术与自动化,2021,40(2):136-139.
[9] 邓小海,姜周曙.图像识别技术在智慧教室录播系统中的应用研究[J].电子技术应用,2020,46(3):92-96.
[10] 苏高玲.智能视觉监控系统中的运动目标跟踪算法研究[D].沈阳:沈阳建筑大学,2015.
[11] 高海,韩洋.改进的粒子滤波目标跟踪算法[J].包装学报,2018,10(5):57-64.
[12] 刘昌旭.复杂环境下的粒子滤波目标跟踪算法研究[D].兰州:兰州理工大学,2013.
[13] 张博,刘刚.基于相似性特征估计的目标跟踪算法研究[J].激光与光电子学进展,2020,57(24):78-87. (下转第105页)
(上接第102页)
[14] Dou J F,Li J X.Robust visual tracking base on adaptively multi-feature fusion and particle filter[J].Optik,2014,125(5):1680-1686.
[15] Ojala T,Pietikainen M,Maenpaa T.Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(7):971-987.
[16] 龙君.基于特征融合与二级粒子滤波的目标跟踪方法研究[D].长沙:湖南大学,2015.
[17] 杜正聪,辛强,邓寻.基于权值优化的粒子滤波算法研究[J].重庆师范大学学报(自然科学版),2015,32(3):124-129.
[18] 熊杰,吴晓红,卿粼波,等.基于多特征融合的权值优化粒子滤波目标跟踪[J].电视技术,2017,41(S3):155-160.
[19] 张亚烁.基于机器学习的目标跟踪算法研究[D].乌鲁木齐:新疆大学,2020.
【通联编辑:唐一东】