基于对象的视频摘要算法的实现与加速*

2015-10-21 00:35林龙新刘小丽全渝娟林伟伟
关键词:高斯分布慧眼线程

林龙新 刘小丽 全渝娟 林伟伟

(1.暨南大学 信息科学技术学院,广东 广州510632;2.华南理工大学 计算机科学与工程学院,广东 广州510006)

随着平安城市、智慧城市等项目的大规模实施,公安部门等的媒体数据中心存储了海量的视频资源.浏览这些视频资源需要消耗大量的时间和人力成本.对于公安办案,从海量视频中快速找到所关心的目标对象可大幅提升办案效率和降低人力成本.视频摘要技术刚好可以满足这种需求.

基于对象的视频摘要是近年来提出的一种新的摘要技术,是当前计算机视觉方面的研究热点之一.Rav-Acha 和Pritch 等[1-2]开展了开创性工作,基本思想是将原始视频中不同时发生的对象活动合成到时间轴上相对紧凑的简短摘要视频,从而大幅减少视频浏览时间,同时相对原始视频大幅降低存储空间;随后提出了基于相似活动聚类的视频摘要方法[3],并进一步推广到在线网络摄像头业务[4],将视频转化为一个三维(3D)空间-时间表示,把每个感兴趣的运动对象看作一段“管带”,将提取的“管带”以最优的排列和背景图像组合成合适的3D 空间-时间表示,最后生成符合用户需求的视频摘要.基于对象的视频摘要中最终摘要视频对象出现碰撞和拥挤问题,为此,文献[5]中通过“多级补丁迁移”方法来充分利用时间和空间,把更多运动目标放入一个扩展重构的背景空间,以得到更紧凑的视频摘要.文献[6]在多源视频摘要的基础上开展复杂场景的语义挖掘. 文献[7]针对摘要视频中所描述的运动目标结构和原始视频不一致的问题,提出了保持运动目标结构完整性的方法. 文献[8]利用遗传算法对视频摘要中的对象轨迹重排进行了优化. 文献[9]基于视频摘要技术构建了一个针对安防监控视频的索引和浏览系统.

以上这些相关工作大都在Rav-Acha 和Pritch的工作基础上针对摘要视频存在的问题进行改进或者利用摘要视频开展语义层面的应用,较少考虑算法的效率和实际的产业化应用. Pritch 等 提及了算法效率问题,并指出常规安防监控视频的摘要计算时间接近原始视频时长. 文献[10]指出Pritch等[1-2]提出的算法需要消耗大量的计算资源,为此提出了从压缩域进行运动对象“管带”提取工作以加快速度,但速度提升并不明显而且所采用的方法通用性差.笔者在实践中发现依据Pritch 等[1-2]提出的算法所设计的产品很难满足安防监控领域的实际需求,主要原因是速度太慢,尤其在平安城市领域中警察需要快速浏览大量的监控视频内容.为此,文中针对算法的速度提升问题,提出了基于对象的视频摘要算法:基于Pritch 的基本框架在保证质量的前提下,采用降低帧率和分辨率、运动片段检测及基于重心的对象跟踪等方法来提升算法效率;利用现代CPU 多核多线程的特点,将视频摘要算法设计成可流水线式计算的步骤,通过多线程编程充分发挥CPU 的硬件能力以加快计算速度;对算法中最耗时的背景建模步骤通过图形处理单元(GPU)进行加速.文中最后通过实验来验证所提算法的性能.

1 基于对象的视频摘要算法的实现

1.1 基本原理

基于对象的视频摘要是把感兴趣的活动对象从原始视频中提取出来,然后通过空间-时间轴的压缩合成一段简短的浓缩视频,基本原理如下[1]:

(1)对任意一段含N 帧的视频I,用I(x,y,k)表示一个像素,(x,y)是此像素的空间坐标,k(1≤k≤N)为帧号.目标是获得一段视频摘要S(x,y,k),S 应尽可能比原始视频短,同时包含感兴趣的原始视频中的“活动”,S 中运动对象的运动行为保持和原始视频类似.

(2)S 由时间偏移函数M 生成,即S =M(I).对S 中的每个坐标(x,y,k),保持时间平移和空间位置固定,即

可通过能量最小化问题获得M,其代价函数为

式中,Ea(M)为活动损失,Ed(M)为接缝两端的不连续性代价,α 为相关权值.

Ea(M)是I 中没有出现在S 中的活动像素点的数量,即

其中χ(x,y,k)为活动像素点的特征函数,

若输入像素的I(x,y,k)与中值M(x,y)的颜色差大于给定阈值th,则该输入像素为活动像素点.

Ed(M)被定义为同一时空领域内摘要视频中对应像素与输入视频接缝两端的颜色差之和,即

ei为6个时空邻居的单位向量,即4个空间邻居和2个时间邻居.

(3)通过一定的对象检测和跟踪算法来获得一组对象,其中每个对象可以由特征函数

表示.对于每个对象o,可选择一些包含此对象的帧的子集来形成视频片段.

最终的视频摘要S 可以通过输入视频I 按如下步骤构造:

①从I 中分解出对象o1,o2,…,or;

②从I 中选择一组不重叠的片段集合G;

③将式(2)中的时间偏移函数M 运用到这些片段后形成最终的视频摘要S.

1.2 算法实现

基于1.1 中的基本原理,笔者在算法实现过程中发现其效率较低,计算时间接近原始视频时长.为使算法走向商用,文中针对平安城市这类安防监控领域提出了如下改进的算法(慧眼算法),算法描述如下:

(1)视频采集和初始化. 支持实时视频流和视频文件两种采集输入,适当降低帧率和分辨率以加快计算速度.采用均匀丢帧处理,依据场景采用8 ~15 f/s 的帧率和CIF 格式分辨率进行初始化.

(2)关键帧和运动片段提取.对步骤(1)输入的视频帧,计算相邻两帧的相似度度量,满足一定条件后保存为关键帧;然后确定运动片段以加快后续处理.设视频分辨率为m ×n,则第k 帧图像的像素点灰度矩阵为

第k+1 帧图像的像素点灰度矩阵为I ,将第k 帧灰度矩阵的每列元素相加得到数列

每行元素相加得到数列

同理,得到第k +1 帧的Ck+1和Rk+1.用

表示两帧之间在垂直方向上的变化情况.用

表示两帧之间在水平方向上的变化情况. 设ΔC 和ΔR 的所有元素相加得到的总和为Δ,如果Δ 大于特定阈值Θ,则认为这两帧间存在运动对象,保留第k+1帧,否则丢弃之.

(3)背景建模和对象检测.对步骤(2)输出的运动片段进行背景建模,把视频内容的前、背景分离以检测出运动对象.常用的方法主要包括时间中值滤波器、混合高斯模型、核密度估计和一些其他局部优化方法[11].针对监控视频,文中通过实验验证最终采用混合高斯模型.

混合高斯模型[12-13]用K个高斯分布混合模拟像素点的背景值,图像帧I 的点(x,y)在t 时刻为背景的概率为其中ωi,t、μi,t和Σi,t分别为t 时刻混合高斯模型中第i个高斯分布的权重、均值和协方差矩阵,η(·)为高斯分布概率密度函数. 在t 时刻将当前帧像素值It(x,y)与K个高斯分布(按ρi,t= ωi,t/σi排列)按匹配. 如果It(x,y)与任意高斯分布都不匹配,则添加一个均值、方差和权重自设定的高斯分布,用它替换最不可能代表背景的高斯分布;否则第1个匹配的高斯分布的参数要按照一定的概率进行更新. 然后,按ρi,t=ωi,t/σi由大到小对高斯分布进行排列,依据取前B个高斯分布联机生成背景. 经实验测试,当K=5,T = 0. 3,σ = 0. 1,初始权重和方差分别为0.333、30 时可以达到较优的背景建模效果.接下来用背景减除法来实现运动对象检测. 设t 时刻当前帧和背景帧分别为It,c和It,b,则背景差分图为

设Γ 为阈值,则当Dt(x,y)>Γ 时,该像素点为运动点,反之为背景点.

(4)对象跟踪. 许多对象跟踪方法(如Kalman滤波、Meanshift 算法等)的计算复杂度较高,文中采用基于特征的跟踪方法,依赖对象的质心变化来完成对象的跟踪. 设一对象在第k 帧的质心坐标为(x1,y1)(刚好包含对象的矩形区域的中心),其所跟踪的下一帧可能对应原始视频的第k+d 帧.考虑这两帧的时间差、对象的大小变化,给出一个预测该对象的质心坐标(x′2,y′2),而实际上在k +d 帧中检测出多个运动对象,任选一个运动对象,设其质心位置为(x2,y2),计算两点间的距离

选择Δ′ <Φ(Φ 为阈值)且Δ′值最小的对象作为被跟踪对象的匹配对象.

(5)对象的非线性规划和重排. 依据1.1 节的方法将这些运动对象在时间轴上进行非线性规划和重排.

(6)摘要视频的生成. 把运动对象和背景图拼接在一起,将原始视频不同时间段的目标嵌入到选定好的背景图像中. 为消除对象和背景接缝的不平滑性,文中在接缝处颜色采用均值的方法以达到自然过渡.另一方面,针对运动对象间的重叠和遮挡问题,文中采用半透明处理的技术,使得重叠区原始目标对象可若隐若现,并辅之以不同颜色的对象外部矩形框加以区别.

1.3 具体实例和算法复杂度分析

图1 是针对公安领域的慧眼单兵智能分析系统,视频摘要是其核心功能,视频内容检索、摘要原始视频同步播放和定位等是其扩展功能. 图2 给出了拼接后的摘要视频图像及原始视频中对应的对象.为确定慧眼算法效率和输入视频帧率的关系,文中从取自公安部门的实际监控视频资源中选取了有代表性的视频数据集,具体信息见表1.不同帧率下文中算法的测试结果见表2,其中tm为背景建模,ta为摘要分析时间,tc为摘要合成时间,ts为摘要算法总计算时间,ts=ta+tc. 从表中可知:视频摘要算法所消耗的计算时间与帧率之间呈近似线性关系,在保证摘要质量的前提下,帧率越低计算效率越高;背景建模消耗了大量的计算时间,几乎占总计算时间的50%~80%.

图1 面向公安领域的视频智能分析系统Fig.1 Smart video analysis system for social security

图2 摘要视频图像及其原始视频图像Fig.2 Synopsis video image and its source video images

表1 测试所用原始视频信息Table 1 Information of original videos used in test

表2 不同帧率下文中算法的执行时间Table 2 Execution time of the proposed algorithm under different frame rates

下面分析慧眼算法的计算复杂度.假设要分析的原始视频共N 帧,每帧包含mn个像素点,所包含的运动对象数为l,则1.2 节中算法步骤(1)-(6)的计算复杂度分别为O(N)、O(Nmn)、O(KNm2n2)、O(Nl)、O(l2)和O(Nmn).故慧眼算法的计算复杂度为O(Nmn+KNm2n2+Nl +l2),由于l 所代表的对象数一般远小于每帧的像素点数mn,因此步骤(3)的计算耗时最长.表2 的实验数据也证明了这一点.

接下来分析Pritch 算法 的时间复杂度,鉴于帧率和分辨率对算法的影响很大,假设Pritch 算法和慧眼算法采用相同的降帧率及分辨率预处理,主要区别在于Pritch 算法中没有关键帧和运动片段检测过程,在对象跟踪时Pritch 算法采用Meanshift 算法.通过类似分析可知,Pritch 算法的计算复杂度为O(Nmn+KNm2n2+Nm2n2+l2),其中Nm2n2为Meanshift 算法的计算复杂度,为每次计算的迭代次数.很明显,在相同分辨率和帧率情况下,慧眼算法的时间复杂度要优于Pritch 算法. 如果慧眼算法采取降帧率和分辨率预处理,而Pritch 算法不采用类似预处理,可以预见这两种算法会有较大的性能差距.

2 计算加速

视频摘要及其扩展功能在安防监控领域具有广阔的应用价值,但在产品化过程中速度是制约其推向市场的主要障碍之一. 慧眼算法需要消耗大量的计算资源. 为此,文中采用两种粒度的运算加速:①粗粒度加速,即采用线程池方式,在线程级对计算进行加速,旨在充分利用当前多核多线程CPU 的计算资源;②细粒度加速,即对算法的最耗时步骤(即混合高斯背景建模)利用GPU 进行加速.

2.1 多线程加速

对于慧眼算法,常规做法是把这些步骤串行在一起通过一个操作系统的单线程实现,这会导致现代CPU 的多核资源没有被充分地利用.多线程加速的主要思想为:将慧眼算法的不同计算步骤对应操作系统的多个独立计算线程,这些线程组成的线程池协同完成对一个视频资源的摘要计算.预处理、背景建模、目标提取与跟踪和对象规划以流水线方式执行.可以把一个包含N 帧的视频按照u 帧一段等长地分割成多段,每段的预处理、背景建模、目标提取与跟踪、对象规划对应4个不同线程,那么这些段就可以以流水线方式进行计算.例如,预处理线程处理完一段视频后,只需要把处理结果通过消息队列传送到背景建模线程而不需要等待本段的其他过程就可以马上处理下一段. 这些线程可以被指定或由操作系统自动均匀调度到不同的硬件线程上执行,从而达到真正的并行计算.具体算法描述如下:

∥从线程池中获得i个线程,Tarray[0]- Tarray[4]分别为预处理线程、背景建模线程、对象提取和跟踪线程、对象规划和重排线程以及视频摘要合成线程

startThreads(Tarray);

∥启动所有计算线程,建立彼此间通信消息队列,处于阻塞状态,等待数据消息

stop=FALSE;∥设置摘要制作停止标志

while stop≠TRUE do∥当摘要制作需要继续时

Fu=getFramesFromVideo(V);

∥从V 中顺序读取u 帧数据存入帧数组Fu,u 帧为一个流水作业视频段

sendMessage(Fu,Tarray[0]);

∥把Fu通过消息队列发送给Tarray[0]线程. Tarray[0]线程处于并行运行状态

Fobj=Tarray[0].preProcessVideo(Fu);

∥对Fu降分辨率、帧率和运动片段检测,得出含运动对象的帧序列Fobj.

sendMessage(Fobj,Tarray[1]);∥把Fobj通过消息队列发送给Tarray[1]线程以实现背景建模

Bframes=Tarray[1].getBackModel(Fobj,T);

∥对输入的Fobj运行混合高斯算法并生成背景更新模型序列Bframes

sendMessage(Fobj,Bframes,Tarray[2]);

∥把Fobj和Bframes发送给Tarray[2]线程,以实现目标提取及对象跟踪

Oarray=Tarray[2].getObjects(Fobj,Bframes,Φ);

∥运行对象提取和跟踪算法提取出相应对象序列数据Oarray

sendMessage(Oarray,Bframes,Tarray[3]);

∥把Oarray和Bframes通过消息队列发送给Tarray[3]线程进行对象规划和重排

OsypDes=Tarray[3].cutAndArrange(Oarray,Bframes);

∥根据重排算法把对象放置到合适的位置,OsypDes为最后的对象相关描述信息,用以合成摘要文件end procedure.

慧眼算法中步骤(1)-(5)以流水线方式执行,当其对应线程处于不同CPU 硬件线程时,他们是并行执行的.步骤(6)生成最后的摘要视频,只能串行执行.系统启动时创建线程池,在执行时从中分配线程,通过消息激活,从而减少了线程创立和维护开销.线程间的消息传递数据(如Fu、Fobj、Bframes、Oarray和OsypDes等)均以指针的方式在队列中传递,从而把数据复制操作开销降低到最小.

2.2 GPU 加速

根据算法复杂度分析和实验可知,背景建模消耗了大部分计算时间. 由于混合高斯算法需要大量的矩阵迭代运算,而GPU 通常包含数百甚至数千个统一计算设备架构(CUDA)核用于并行处理,非常适合这类计算. 文中算法主要基于OpenCV 2.4.9实现,此版本提供了两种混合高斯背景建模算法的GPU 加速实现,分别为GOM[14]和GOM2[15].在慧眼算法中,文中将背景建模过程进行了GPU 加速,其他步骤依然运行在CPU 之上,故整个算法的实现过程是典型的CPU +GPU 混合计算. 在CPU 和GPU混合计算模型中,当涉及CPU 和GPU 之间数据通信时,会大大降低执行效率,如果程序需要CPU 和GPU 频繁进行数据通信反而起不到加速的效果,因而将加速过程放到最耗计算资源的背景建模过程,而非通信消耗比重较大的其他过程.

3 实验结果和分析

为验证文中算法的加速性能,在Visual Studio 2008 开发环境下用C ++分别实现了单线程、多线程加速、多线程+GPU 加速3 种算法,OpenCV 版本为2.4.9,GPU 编程环境为Nvida CUDA 4.0 Toolkit.

3.1 度量指标

为评估算法性能,定义以下术语和度量指标:S(Fo)和S(Fs)分别为原始文件Fo、摘要文件Fs的大小,单位为MB;t(Fo)为Fo的时长;t(Fs)为Fs的时长;Rt为时间压缩比,,其值越大表示所生成的摘要文件相对原始文件所需要浏览的时间越短;Rc为容量压缩比,其值越大表示摘要文件占用的磁盘空间越小;Rs为摘要计算耗时比,即摘要计算时间相对原始视频长度的比值,Rs=为单线程摘要计算时间,ts,S= ta,S+ tc,S;ts,M为多线程单服务器摘要计算时间;ts,G为多线程GPU 加速版本摘要计算时间;为算法分析加速比,多线程单服务器算法加速比多线程GPU 算法加速比为总加速比,多线程单服务器算法加速比多线程GPU 算法加速比

3.2 单线程视频摘要算法的功能测试

测试环境配置:Windows7 32 位操作系统,内存2 GB,CPU 为Intel Core i3-2100 双核四线程3.10 GHz.采用表1 所示的原始测试视频信息进行单线程无加速版本的性能和功能测试.测试中,test1.avi 帧率为15 f/s,其他测试视频在算法步骤(1)时的帧率降低一半,采用CIF 格式分辨率.大于8 ×8 像素面积大小的对象将被检出,确保最终生成的摘要视频可以清楚地辨别所有对象. 为便于比较,笔者实现了Pritch 算法,虽然Pritch 并没有建议降低帧率,但鉴于帧率对计算速度的影响,文中对Pritch 算法采用相同的帧率和分辨率进行测试,结果如表3 所示,其中分析时间ta指算法实现中步骤(1)-(5)所需计算时间,合成时间tc指步骤(6)所需计算时间.运动对象数指算法所检测到的不同运动对象的个数,同一运动对象在不同帧出现其计数为1. 从表3 中可以看出,平均Rt和Rc均是原始视频的数十倍.慧眼算法的平均Rt为37.64,意味着针对安防监控视频,用户浏览所有内容的效率可以提高37 倍以上,这对综合大量视频的公安案情分析无疑具有重要的实用价值;平均Rc为70.95,意味着摘要所存储的空间大小小于原始视频;平均Rs为0.66,意味着对于大部分监控视频,单线程算法需要超过原始视频时长一半以上的时间才可以完成计算.对于大量的视频,如果需要在普通的硬件平台上高速完成对所有视频的分析,单线程算法需要进一步提升速度. 此外,慧眼算法的平均Rs(为0. 66)相对于Pritch 算法(为0.86)提升了23.3%,其Rt和Rc也表现更好一些.

表3 单线程版本测试结果Table 3 Experiment results of single thread version test

3.3 加速性能测试比较

测试环境:Windows7 32 位操作系统;内存8 GB,CPU 为Intel Core i3-3220 双核四线程3.30 GHz;GPU为Nvidia GeForce GT640,902 MHz,显存2 GB,384个CUDA 核.多线程加速算法中的线程数、其他配置和单线程算法一样.

表4 性能测试所用原始视频Table 4 Original videos used in performance test

上述原始视频依然采用公安局提供的一些实际安防监控视频文件.为简单起见,用S 代表单线程算法,M 代表多线程算法,G 代表背景建模GPU 加速后的多线程算法(背景建模采用了OpenCV 2.4.9中GPU 模块的GOM 算法).相应的测试结果如表5所示.从表中可以看出:多线程版本的平均为1.83,变化范围在1.27 ~2.37 之间,平均Rsacc,M 为1.74;GPU 多线程本版的平均和分别为9.77 和7.51;单线程、多线程、GPU 多线程算法的平均Rs分别为0.76、0.49 和0.27. 可见,相对于单线程算法,多线程及多线程GPU 加速算法具有明显的加速效果.从表5 中还可以看出,对于很短的视频(如sample1 和sample2),加速并不明显,而对于长视频(sample3 至sample6),和在GPU 多线程的加速下有几倍甚至近20 倍的增长,而计算耗时比Rs在0.03 ~0.2 之间,这意味着对于一个100 min 的长视频,通过GPU 和多线程加速,可以在3 ~10 min内就完成分析并制作摘要视频. 这是因为在很短的视频情况下,分析过程相对总开销所占的比重比较小,大量的计算消耗在其他的运算步骤,如表中的合成用时并不会随着原始视频的增大而线性增长. 但在长视频情况下,GPU 的加速性能得到明显的体现,因为在这种情况下,分析所需要的计算资源占主导地位.此外,在GPU 多线程加速下形成的摘要长度和其他两种模式下可能有细微的差别,经测试是由于OpenCV 的GPU 前、背景分离算法和慧眼CPU算法不完全一致造成的,不过并没有影响最终的效果.

表5 3 种算法的性能测试结果Table 5 Performance test results of three algorithms

4 结论

文中研究了基于对象的视频摘要技术,提出并实现了视频摘要的具体算法. 结合安防监控领域特点,该算法通过降低分辨率、降低帧率、运动片段提取、非线性重排和半透明处理等优化方法来提高生成视频摘要的质量和速度.

此外,为进一步充分挖掘CPU 的多核多线程特性和GPU 数以百计的众核运算能力,文中设计了相应的多线程和GPU 加速算法,以通过CPU 和GPU对视频摘要算法进行双重加速.实验结果表明,CPU多线程计算可以使摘要算法获得倍数的加速效果,而GPU 甚至可以使摘要算法获得数十倍的加速效果.今后拟将文中算法扩展到多个具有高性能GPU单元的服务器环境中,以实现大量视频资源的同时高速分析和视频摘要制作.

[1]Rav-Acha A,Pritch Y,Peleg S. Making a long video short:dynamic video synopsis[C]∥Proceedings of 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York:IEEE,2006:435-441.

[2]Pritch Y,Rav-Acha A,Peleg S. Nonchronological video synopsis and indexing[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2008,30(11):1971-1984.

[3]Pritch Y,Ratovitch S,Hendel A,et al. Clustered synopsis of surveillance video[C]∥Proceedings of the Sixth IEEE International Conference on Advanced Video and Signal Based Surveillance.Genova:IEEE,2009:195-200.

[4]Pritch Y,Rav-Acha A,Gutman A,et al. Webcam synopsis:peeking around the world[C]∥Proceedings of IEEE the 11th International Conference on Computer Vision.Rio de Janeiro:IEEE,2007:1-8.

[5]Nie Yongwei,Xiao Chunxia,Sun Hanqiu,et al. Compact video synopsis via global spatiotemporal optimization[J]. IEEE Transactions on Visualization and Computer Graphics,2013,19(10):1664-1676.

[6]Zhu Xiatian,Loy Chen Chang,Gong Shaogang. Video synopsis by heterogeneous multi-source correlation[C]∥Proceedings of 2013 IEEE International Conference on Computer Vision.Sydney:IEEE,2013:81-88.

[7]Fu Wei,Wang Jinqiao,Gui Liangke,et al. Online video synopsis of structured motion[J].Neurocomputing,2014,135:155-162.

[8]Xu L,Liu H,Yan X,et al.Optimization method for trajectory combination in surveillance video synopsis based on genetic algorithm [J]. Journal of Ambient Intelligence and Humanized Computing,2015,doi:10.1007/s12652-015-0278-7.

[9]Ye G,Liao W,Dong J,et al. A surveillance video index and browsing system based on object flags and video synopsis[C]∥Proceedings of 2015 MultiMedia Modeling.Sydney:Springer International Publishing,2015:311-314.

[10]Zhong Rui,Hu Ruimin,Wang Zhongyuan,et al. Fast synopsis for moving objects using compressed video [J].IEEE Signal Processing Letters,2014,21(7):834-838.

[11]李子龙,刘伟铭,张阳. 基于自适应模糊估计的背景建模方法[J]. 华南理工大学学报:自然科学版,2013,41(9):77-81.Li Zi-long,Liu Wei-ming,Zhang Yang. A background modeling method based on adaptive fuzzy estimation[J]. Journal of South China University of Techhology:Natural Science Edition,2013,41(9):77-81.

[12]Stauffer C,Grimson W E L.Adaptive background mixture models for real-time tracking[C]∥Proceedings of 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Fort Collins:IEEE,1999:246-252.

[13]Stauffer C,Grimson W E L.Learning patterns of activity using real-time tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(8):747-757.

[14]KaewTraKulPong P,Bowden R. An improved adaptive background mixture model for real-time tracking with shadow detection[M]∥Remagnino P,Jones G A,Paragios N,et al. Video-Based Surveillance Systems. New York:Springer,2002:135-144.

[15]Zivkovic Z. Improved adaptive Gaussian mixture model for background subtraction [C]∥Proceedings of the 17th International Conference on Pattern Recognition.Cambridge:IEEE,2004:28-31.

猜你喜欢
高斯分布慧眼线程
紧箍咒和慧眼
基于C#线程实验探究
利用Box-Cox变换对移动通信中小区级业务流量分布的研究
2种非对称广义高斯分布模型的构造
基于国产化环境的线程池模型研究与实现
错中寻源 练就慧眼
安全隐患逃不过他的慧眼
在航集装箱船舶摇摆姿态的概率模型
借你一双慧眼
一种基于改进混合高斯模型的前景检测