复杂动态环境下运动车辆的识别方法*

2017-01-18 08:15:33刘博艺程杰仁唐湘滟殷建平
计算机与生活 2017年1期
关键词:权法背景阈值

刘博艺,程杰仁,2+,唐湘滟,殷建平

1.海南大学 信息科学技术学院,海口 570228

2.海南大学 南海海洋资源利用国家重点实验室,海口 570228

3.国防科学技术大学 高性能计算国家重点实验室,长沙 410073

复杂动态环境下运动车辆的识别方法*

刘博艺1,程杰仁1,2+,唐湘滟1,殷建平3

1.海南大学 信息科学技术学院,海口 570228

2.海南大学 南海海洋资源利用国家重点实验室,海口 570228

3.国防科学技术大学 高性能计算国家重点实验室,长沙 410073

LIU Boyi,CHENG Jieren,TANG Xiangyan,et al.Moving vehicles recognition in complex dynamic environment.Journal of Frontiers of Computer Science and Technology,2017,11(1):134-143.

针对目前车辆识别方法在动态变化的复杂环境中车辆识别正确率低的问题,提出了一种基于动态自适应阈值的车辆识别方法。该方法首先利用基于熵权法的图像质量量化算法计算交通流视频中背景图像的质量值;然后通过对样本交通流设置的车辆检测阈值和基于该阈值识别车辆的正确率进行多项式拟合,获得该样本的车辆最佳检测阈值;最后对样本背景图像的质量值和样本车辆的最佳检测阈值进行高斯拟合,得到自适应阈值计算模型。该方法采用高斯混合模型实时获取交通流视频中的背景图像,计算背景图像的质量值,并输入到自适应阈值计算模型得到实时的车辆最佳检测阈值以识别车辆。实验和理论分析表明,该方法能根据动态变化的环境实时更新车辆检测阈值,有效地提高了车辆识别的正确率。

车辆识别;图像质量;高斯拟合;熵权法

1 引言

车辆识别是智能交通系统中的基础环节,精确的车辆识别效果是智能交通系统更自动化、更智能的保障。目前对于车辆识别的研究,大部分都是局限在一个特定的环境内,比如只是针对晴朗的天气环境、雾霾环境等。但是现实中的交通摄像头是在动态变化的复杂环境中工作的,主要体现在天气环境变化的影响。不同的天气环境,甚至在一天中不同的时刻,摄像头录制的交通视频的效果都有差异,不同的天气环境对于视频质量造成的影响也不同。如果不能够根据天气情况自动调整车辆识别算法的相关参数或者阈值,就会造成车辆识别结果误差的增大,继而影响智能交通系统中其他功能的实现,或者导致其他功能准确率的降低。因此,只有能够自动适应多种气候环境的视频车辆识别方法才具有实用价值。本文提出了一种基于动态自适应阈值的车辆识别方法,实现了对不同天气环境的自适应,具备较大的实用价值。

2 研究现状

2.1 车辆识别研究现状

基于交通流视频的车辆识别技术[1],包括以车辆识别为目的的背景差分法[2-3]、帧间差分法[4]、光流法[5]和以车辆跟踪为目的的虚拟传感器法和目标跟踪法[6]。背景差分法通过连续多帧的图像序列获取背景图像,然后将当前帧的图像与背景图像进行差分,并通过联通区域面积的大小或者联通区域面积与变化区域之比对车辆目标进行识别。帧间差分法通过对视频中相邻两帧的图像做差分运算得到运动目标的轮廓。光流法通过在图像中构建速度矢量场的方式,实现对车辆的识别,但其算法复杂度高,实时性较差。虚拟传感器法是在视频中的道路上设置一些虚拟传感器,当车辆通过这些虚拟传感器时,会引起传感器的变化,通过对虚拟传感器的特征变化进行分析获得当前交通流信息。如Takaba等人提出的基于虚拟点的交通参数提取法[7]、Abramczuk等人提出的虚拟检测线法[8]、尹朝征提出的虚拟线圈法[9]等都是基于添加虚拟传感器的方法。目标跟踪法相比虚拟传感器法的优点是能够获取车辆的属性信息,可以分为车辆模型法[10]、特征提取法[11]、区域检测法[12]、轮廓提取法[13]等。车辆模型法是通过对车辆形状的分析,建立目标模型,再通过一定的匹配方法跟踪目标,并对模型进行实时更新;特征提取法是通过提取运动目标的某个不变的特征,如色彩、纹理等,并将其与设定的固定特征值相匹配,实现对运动目标的跟踪;区域检测法是指通过包含车辆区域的图像模板对图像序列进行匹配,超过一定的阈值后,就确定为车辆;轮廓提取法与区域检测法相似,不同的是其采用的是运动目标轮廓的匹配,要对视频图像中的车辆进行轮廓提取处理。近年来提出的属于目标跟踪的算法有确定性目标关联法[14]、视觉车辆跟踪法[15]等,都是在以上方法的基础上进行改进。

在实现了车辆识别功能的基础上,为了增强方法的实用性,国内外学者对不同环境下的车辆识别算法进行了研究。例如光照条件下车辆的影子对车辆识别的影响和应对方法[16]、夜晚时间车辆的识别方法[17]、复杂环境下车辆的识别方法[18]等。但是他们提出的算法大都只能适用于某一种特定的环境,算法中选取的车辆判断阈值保持不变,而只是对视频图像进行预处理或者改进相关算法,不能够实现同时对多种天气环境的适应。针对这个问题,本文提出了一种基于动态自适应阈值的车辆识别方法。因背景差分法的实现较为简单,故以背景差分法作为运动车辆识别算法。通过对背景图像的质量进行量化,获得背景差分法中的车辆判别阈值,并通过高斯混合模型不断更新背景图像,实现方法对天气环境的自适应功能。其中图像质量量化是方法的重要组成部分。

2.2 图像质量量化研究现状

对图像质量量化的研究可以追溯到40多年前,1974年,Mannos和Sakrison提出了图像保真度的判断依据[19],开创了图像质量量化的先河。发展到今天,图像质量的评价方法包括主观评价法和客观评价法。主观评价法中,平均意见分数(mean opinion score,MOS)被认为是最佳方法。但是,主观评价法难以在软硬件系统中实现,几乎不可能实际应用。显然客观评价法更具有实用性,其中,基于均方差(mean squared error,MSE)的图像质量估计法[20]和基于峰值信噪比(peak signal to noise ratio,PSNR)的图像质量估计法是最为普遍的质量量化方法,易于实现。近年来,基于全仿真人类视觉系统(human visual system,HVS)的图像质量量化法[21]得到了发展,但是尚不成熟,且算法复杂度较高,不适用于实时系统,故本文没有采用这种方法。另外,基于灰度梯度函数、频谱函数和熵函数[22]等的图像清晰度评价方法也是实现本文所提出的自适应多种环境的车辆识别系统的重要组成部分。然而以上方法都具有各自的固有缺陷,往往只适用于具备某些特征的图像,不能做到对所有图像的精确评价。针对这些问题,本文在分析了不同天气环境对图像的影响后,提出了利用熵权法进行图像质量量化的方法。

3 基于动态自适应阈值的车辆识别方法

在本文提出的基于动态自适应阈值的车辆识别方法中,自学习和系统运行过程的结构图如图1所示。以背景差分法为例,添加了系统获取车辆检测阈值的自学习过程,包括基于熵权法的图像质量量化算法和最佳阈值的获取算法,以实现面积阈值的自动获取。其中图像质量量化算法的评价指标包括对比度、PSNR、信息熵、与参考图像的相似度[23]、逆差矩[24]。

在图像质量量化模块,系统首先根据各个指标的计算方法,得出当前背景图像的各项指标得分;然后利用熵权法计算出各项指标应占的权重,将得分与权重分别相乘并相加,得出图像质量的量化值。在最佳阈值的获取模块,方法通过求阈值和正确率之间拟合函数的最值得到最佳阈值。最后通过高斯拟合,得到最佳阈值和背景图像质量量化值之间的转化模型,完成自学习过程。

在车辆识别过程中,方法首先依次按帧读取视频,每间隔一定时间就获取视频的当前背景图像;然后根据数学形态学原理和背景差分法获得前景区域(前景像素点数量)的各个联通图像块的面积,将该面积与通过熵权法确定的面积阈值相比较,大于该阈值的被认为是车辆。

3.1 基于熵权法的图像质量量化算法

本文实现基于视频的车辆自动识别系统的环境自适应功能是以实现对背景差分法联通区域面积阈值自动获取为基础的,采用的实现联通区域面积阈值的自动获取方法是通过图像相关属性的量化实现的。图像的属性有很多,而实现自适应环境的车辆识别系统则需要使用与车辆识别算法中相关的图像属性,即主要能够反映出图像中的目标可被识别的容易程度。本文提出的图像质量量化,是指图像中的对象可被计算机识别的容易程度,其主要是指通过主观观察或者对图像属性的客观评价对图像的质量进行描述,其指标包括图像的清晰度、图像压缩之后的保真度、对比度等。除了这些基本的图像属性,还应包括一些经典的图像质量评价方法,其评价值也可以作为重要的评价指标。图像的质量是衡量图像的一个重要指标,在模式识别、计算机视觉等领域发挥着越来越重要的作用。

不同的天气环境,对于图像质量的影响是不同的,这也是实现自适应环境的车辆识别方法的主要难点。因此,本文对不同天气环境对视频图像的影响进行了分析。图2是从文献[25]中获取到的同一个拍摄地点在雾天、雨天、阴天、晴天环境下的图像。

Fig.1 Structure of vehicle recognition-system based on dynamic adaptive threshold图1 基于动态自适应阈值的车辆识别方法的系统结构

Fig.2 Images of same site under different weather conditions图2 同一地点不同天气环境下的图像

针对上述4幅图片,分别将图像的对比度、峰值信噪比、信息熵、相似度、逆差矩作为量化方法,计算图像质量量化值。图3是在不同的评价方法下图像的得分情况。

从图3中可以看出,不同天气情况下的图像属性得分有很大差异。仅仅采用其中的某一种评价方法或者评价指标难以准确地对图像质量进行量化。因此,本文提出了基于熵权法的图像质量量化算法。

熵权法是一种客观评价方法,在信息论中,熵是描述系统无序程度的量。当某一项评价指标的值差别比较大时,说明这项指标提供的信息量越大,其权重就应越大,熵权法就是实现这个功能的方法。在用上文的指标进行评价时,4幅同一地点不同天气的图片中,同一图片在不同的评价方法上得分不同,这是由于天气情况对图像的影响不同所导致的。例如雨天图像主要受雨点噪声的影响,如果用峰值信噪比法进行评分的话得分就较低,但是采用其他评分指标得分就比较高一些。如果仅仅采用其中某一种评价指标对图像质量进行评价,或者仅仅采用将几个评价指标的得分相加的方式,不能够突出具体的某种天气对图像质量的影响。为了反映出具体的天气影响,本文采用了熵权法对6种评价指标赋予权重,将图像对6种评价指标的得分与指标权重相乘,便可得到最后的图像质量量化结果。本文使用的熵权法公式为:

Fig.3 Score based on different evaluation methods图3 不同的评价方法下图像的得分情况

其中,Ymax表示图像评价指标中最大的得分值;Ymin则表示最小的得分值;Yi表示图像对第i个评价指标的得分。通过该公式,便可以确定针对当前图像各个指标的得分情况所赋予的各个指标的权重,特点是图像对某个评价指标得分越少,则该指标在评价背景图像时权重越大。本文认为,图像的对比度、PSNR、信息熵、与参考图像的相似度、逆差矩这5项能够充分反映出图像质量,并将它们作为图像质量的评价指标。这5种指标的计算方法如下所示。

(1)对比度

(2)峰值信噪比(PSNR)

(3)信息熵

(4)与参考背景图像的相似度

(5)逆差矩

公式中,D表示图像的对比度;Imax表示图像中的最大灰度值;Imin表示图像中的最小灰度值;H表示灰度均值;m表示图像矩阵的行数;n表示图像矩阵的列数;I(i,j)表示背景图像第i行第j列的像素点的灰度;PSNR表示当前背景图像的峰值信噪比;C(i,j)表示参考背景图像第i行第j列的像素点的灰度;L表示图像的最大灰度等级,8位图像为255;X表示图像的信息熵;Pk表示图像中灰度级k出现的概率;HD表示当前背景图像与参考背景图像的相似度;IDM表示图像的逆差矩。在上述6项指标中,图像的对比度能够反映出图像的清晰程度,一般来说,对比度越强,图像越清晰;图像的灰度均值能够反映出图像的亮度,晴天的环境更有利于进行车辆的识别;图像的PSNR值是被广泛使用的评价图像质量的标准,但具有一定的局限性,因此本文将其作为评价指标之一,而没有直接采取PSNR值作为图像的质量量化值;图像的信息熵能够反映出图像的信息量大小,也能从侧面反映图像的模糊程度,即模糊的图像提供的信息量比清晰的图像提供的信息量更小一些;图像与参考背景图像的相似度反映出实际图像和理想的清晰背景图像的相似程度,显然具有很大的参考价值;图像的逆差矩反映出图像的局部均匀性,体现图像的纹理特征和模糊程度。

系统根据各个指标的计算方法,得出当前背景图像的各项指标得分,然后利用熵权法计算出各项指标应占的权重,将得分与权重分别相乘并相加,得出图像质量的量化值。

3.2 动态自适应阈值计算方法

在获得了图像质量的具体量化值后,需要将这一量化值转化成能够用于车辆识别系统的阈值,例如背景差分法中的面积阈值。本文通过对多个不同天气下的交通流视频进行多次实验后,得到每段实验视频在不同的阈值取值中的准确率数据;再对准确率进行二次函数拟合并求解二次函数的极值,便可以得出对该交通视频进行背景差分法车辆识别的最佳面积阈值;得出该值后,再利用提取出的背景图像,采用基于熵权法的图像质量量化算法得出图像质量的量化值,并与对应的最佳阈值数据进行高斯拟合,可得出图像质量阈值和面积阈值之间的转化模型。以其中一个视频为例,获得转化模型的步骤为:

步骤1设定阈值并得出当前阈值情况下方法的准确率,进行函数拟合或利用逼近法求最佳阈值。

步骤2更换交通流视频并对其执行步骤1,得到一组交通流视频所对应的最佳阈值数据。

步骤3获得交通流视频的背景图像,并用本文所提出的基于熵权法的图像质量量化方法获得背景图像的具体量化值。

步骤4依次对应各段交通流视频的背景图像质量值和最佳阈值,并通过高斯拟合得出图像质量值和最佳阈值之间的关系,即为图像质量量化值与基于背景差分法的面积阈值之间的转化模型。

其中,对于步骤1中的拟合方法,可以采用最小二乘法,因为其使用广泛,算法复杂度低,根据不同道路的车流量特点也可以选取矩估计法或最大似然估计法等其他曲线拟合方法,3种算法的优缺点比较和应用场景分析在文献[26]中有详细分析。另外,当交通流视频较为清晰时,会出现面积阈值小于某个值时,准确率一直保持在最高值的情况。这是因为当交通视频比较清晰时,背景差分法利用数学形态学原理,可以把车辆的联通区域块非常准确地从背景当中提取出来,而不会出现其他非车辆的联通区域的干扰,所以当阈值小于最小联通区域块的面积后,无论阈值如何继续变小,都能够准确地获得当前的车辆数量。此时,应获取在拐点处阈值单位相差更小的实验,并得到拐点的横坐标,当阈值小于这一横坐标时,便可以达到最高准确率。但为了进一步得到图像质量和阈值之间的关系,应将横坐标和其最高准确率相乘,作为最佳阈值。

4 实验

针对本文基于动态自适应阈值的视频车辆识别方法,在处理速度为2.5 GHz的双核CPU主机,Windows10系统下的Matlab2013a软件中进行了实验验证。其中3.2节中步骤1最佳阈值的实验数据和拟合结果如表1和图4所示。

Table 1 Experimental data of the best threshold表1 最佳阈值实验数据

Fig.4 Threshold and accuracy of quadratic function fitting图4 阈值和正确率的二次函数拟合图

拟合结果为:

当x约取663.23时,为最佳阈值,方法准确率最高。另外,本文3.2节步骤1中所提到的当交通流视频较为清晰时,在不同粒度下通过逼近法获取最佳阈值的部分实验过程如图5和图6所示。

当方法准确率和阈值符合图6所示的关系时,可通过实验将转折点所在横坐标的值和下一数据点横坐标的值继续精确化,并不断迭代此过程;当转折点的精确度达到要求时,取其横坐标,然后和其最高准确率相乘,即为最佳阈值。

Fig.5 Accuracy with threshold on a scale of 100图5 100粒度下准确率随阈值变化图

Fig.6 Accuracy with threshold on a scale of 5图6 5粒度下准确率随阈值变化图

Fig.7 Function fitting图7 函数拟合图

最后,本文对交通流视频进行了仿真多种天气环境的处理,并进行了阈值获取实验。通过最后实验所得出的部分视频的背景图像质量值和最佳阈值如表2所示。在获得了上述实验数据后,利用高斯拟合法对数据进行函数拟合,得到图像质量量化值与面积阈值之间的转化模型,拟合图形如图7所示。根据拟合结果可知,图像质量量化值面积阈值之间的转化模型为:

由图8可以看出,利用本文基于动态自适应阈值的车辆识别方法相比普通的利用人为设定的经验值进行车辆识别的方法,其车辆识别的准确率要提高很多。运动目标通常在不同背景图像下像素和不同,因此经验值是不能够适应天气变化的,会造成车辆识别误差的增大。

通过理论分析和实验验证可以看出,本文基于动态自适应阈值的车辆识别方法具有以下优点:

(1)使用基于熵权法的图像质量量化算法对图像质量进行量化,解决了只使用其中一种评价指标或方法不能反映不同的天气情况对图像影响的问题,使得图像质量量化算法精确度更高,具有更强的适应性。

(2)将背景图像的质量进行量化,并和方法的阈值相联系,建立图像质量的得分与阈值之间的转换模型,实现了基于视频背景图像质量的阈值自动调整,摆脱了对人为经验的依赖。

Table 2 The best threshold and background image of traffic video in different environment表2 不同环境下交通视频的最佳阈值和背景图像及其质量值

Fig.8 Comparison of experimental results图8 实验结果比较

5 总结

针对目前车辆识别方法在动态变化的复杂环境中车辆识别正确率低的问题,本文提出了基于动态自适应阈值的车辆识别方法。该方法首先将视频按帧读取,然后获取视频的背景图像并进行图像质量量化。对于背景图像的质量量化问题,提出了基于熵权法的图像质量量化算法,提高了图像质量量化的准确度。得到图像质量的量化值后,通过图像质量量化值转化车辆识别系统阈值的模型,得到车辆识别系统当前的最佳阈值,提高了车辆识别准确度。本文通过实验展示了详细的计算步骤和方法,并验证了该方法能根据动态变化的环境实时更新车辆检测阈值,有效地提高了车辆识别的正确率。

[1]Jain R,Nagel H.On the analysis of accumulative difference pictures from image sequence of real world scenes[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1979,1(2):206-214.

[2]Tsai D-M,Lai S-C.Independent component analysis-based background subtraction for indoor surveillance[J].IEEE Transactions on Image Processing,2009,18(1):158-167.

[3]Han Jianhui,Cui Mengqiang,Yuan Yaohui.FPGA implementation for background subtraction based on Gaussian mixture models[J].Journal of Harbin University of Science and Technology,2013,18(4):89-93.

[4]Wang Kongqiao,Xu Lei,Fang Yikai,et al.One-against-all frame differences based on hand detection for human and mobile interaction[J].Neurocomputing,2013,120(11):185-191.

[5]Xin Yunhong,Hou Jie,Dong Leming,et al.A self-adaptive optical flow method for the moving object detection in the video sequences[J].Optik-International Journal for Light and Electron Optics,2014,125(19):5690-5694.

[6]Wan Weibing,Huo Hongwei,Zhao Yuming.Object detection and tracking in intelligent video surveillance[M].Shanghai:Shanghai JiaoTong University Press,2009.

[7]Takaba S,Sakauchi M,Kaneko T,et al.Measurement of traffic flow using real time processing of moving pictures [C]//Proceedings of the 32nd IEEE Vehicular Technology Conference.Piscataway,USA:IEEE,1982:488-494.

[8]Abramczuk T.A microcomputer based TV detector for road traffic[J].Symposium on Road Program,1984,3(2):145-147.

[9]Yin Chaozheng.Traffic parameters detection based on video virtual-loop sensors[D].Beijing:Tsinghua University,2002.

[10]Sulivan G D,Baker K D,Worrall A D,et al.Model-based vehicle detection and classification using orthographic approximations[J].Image and Vision Computing,1997,15(8): 649-654.

[11]Badenas J,Sanchiz J M,Pla F.Motion-based segmentation and region tracking in image sequences[J].Pattern Recognition,2001,34(3):661-670.

[12]Battiato S,Farinella G M,Furnari A,et al.An integrated system for vehicle tracking and classification[J].Expert Systems withApplications,2015,42(21):7263-7275.

[13]Akula A,Khanna N,Ghosh R,et al.Adaptive contourbased statistical background subtraction method for moving target detection in infrared video sequences[J].Infrared Physics&Technology,2014,63(11):103-109.

[14]Zhou Junjing,Duan Jianmin,Yang Guangzu.Vehicle tracking based on improved deterministic data association[J].Pattern Recognition and Artificial Intelligence,2014,27(1): 89-95.

[15]Yang Min,Pei Mingtao,Wang Yongjie,et al.Video-based vehicle tracking based on moving object detection[J].Journal of Beijing Institute of Technology,2014,34(4):370-375.

[16]Oh J,Min J,Heo B.Development of an integrated system based vehicle-tracking algorithm with shadow removal and occlusion handling methods[J].Journal of Advanced Trans-portation,2012,46(2):139-150.

[17]Hajimolahoseini H,Armirfattahi R,Soltanian-Zadeh H.Robust vehicle tracking algorithm for nighttime videos captured by fixed cameras in highly reflective environments[J]. IET Computer Vision,2014,8(6):535-544.

[18]Gao Tao,Liu Zhengguang,Yue Shihong,et al.Traffic videobased moving vehicle detection and tracking in the complex environment[J].Cybernetics&Systems,2009,40(7): 20-27.

[19]Mannos J L,Sakrison D J.The effects of a visual fidelity criterion on the encoding of images[J].IEEE Transactions on Information Theory,1974,20(4):525-536.

[20]Hu Wenrui,Xie Yuan,Zhang Wensheng.Image denoising based on high order singular value decomposition and mean square error iteration[J].Journal of Image and Graphics, 2014,19(11):1563-1569.

[21]Watson A B,Hu J,McGowanⅢJ F.DVQ:a digital video quality metric based on human vision[J].Journal of Electronic Imaging,2001,10(1):20-29.

[22]Zhao Yan,Meng Liru,Wang Shigang,et al.Improved PSNR evaluation method consistent with human visual perception [J].Journal of Jilin University:Engineering and Technology Edition,2015,45(1):309-313.

[23]Hui Guobao,Tong Yifei,Li Dongbo.Image features matching based on improved patch similarity learning framework[J]. Chinese Journal of Computers,2015,38(6):1148-1161.

[24]Hu Hongyu,Guan Kehan,Li Zhihui,et al.Pedestrian count estimation considering feature spatial distribution[J].Journal of Chang'an University:Natural Science Edition,2015 (S1):54-58.

[25]Li Qian,Fan Yin,Zhang Jing,et al.Method of weather recognition based on decision-tree-based SVM[J].Journal of ComputerApplications,2011,31(6):1624-1627.

[26]Hu De,Guo Gangzheng.Comparison of applications on least square method,moment method and maximum likelihood[J].Statistics and Decision,2015(9):20-24.

附中文参考文献:

[3]韩剑辉,崔猛强,袁耀辉.基于混合高斯模型的背景差分法的FPGA实现[J].哈尔滨理工大学学报,2013,18(4): 89-93.

[6]万卫兵,霍宏伟,赵宇明.智能视频监控中目标检测与识别[M].上海:上海交通大学出版社,2009.

[9]尹朝征.基于视频虚拟线圈的交通流参数检测[D].北京:清华大学,2002.

[14]周俊静,段建民,杨光祖.基于改进的确定性目标关联的目标跟踪法[J].模式识别与人工智能,2014,27(1):89-95.

[15]杨敏,裴明涛,王永杰,等.一种基于运动目标检测的视觉车辆跟踪方法[J].北京理工大学学报,2014,34(4):370-375.

[20]胡文锐,谢源,张文生.基于高阶奇异值分解和均方差迭代的图像去噪[J].中国图象图形学报,2014,19(11):1563-1569.

[22]赵岩,孟丽茹,王世刚,等.符合人眼视觉感知特性的改进PSNR评价方法[J].吉林大学学报:工学版,2015,45(1): 309-313.

[23]惠国保,童一飞,李东波.基于改进的图像局部区域相似度学习架构的图像特征匹配技术研究[J].计算机学报, 2015,38(6):1148-1161.

[24]胡宏宇,关可汗,李志慧,等.考虑特征空间分布的行人数量估计方法[J].长安大学学报:自然科学版,2015(S1): 54-58.

[25]李骞,范茵,张璟,等.基于室外图像的天气现象识别方法[J].计算机应用,2011,31(6):1624-1627.

[26]胡德,郭刚正.最小二乘法、矩法和最大似然法的应用比较[J].统计与决策,2015(9):20-24.

LIU Boyi was born in 1995.He is a student at College of Information Science and Technology,Hainan University, and the member of CCF.His research interests include intelligent transportation,pattern recognition and intelligent system,etc.

刘博艺(1995—),男,山东菏泽人,海南大学信息科学与技术学院学生,CCF会员,主要研究领域为智能交通,模式识别与智能系统等。

CHENG Jieren was born in 1974.He received the Ph.D.degree from School of Computer,National University of Defense Technology in 2010.Now he is a professor and graduate supervisor at Hainan University,and the member of CCF.His research interests include cloud computing,artificial intelligence,network security and intelligent transportation,etc.

程杰仁(1974—),男,湖南郴州人,2010年于国防科学技术大学计算机学院获得博士学位,现为海南大学信息科学技术学院教授、研究生导师,CCF会员,主要研究领域为云计算,人工智能,网络安全,智能交通等。发表学术论文50余篇。

TANG Xiangyan was born in 1981.She received the M.S.degree from School of Computer,Hunan Agricultural University in 2011.Now she is a lecturer at Hainan University.Her research interests include artificial intelligence, network security and intelligent transportation,etc.

唐湘滟(1981—),女,湖南邵阳人,2011年于湖南农业大学计算机学院获得硕士学位,现为海南大学信息科学技术学院讲师,主要研究领域为人工智能,网络安全,智能交通等。

YIN Jianping was born in 1963.He received the Ph.D.degree in computer science and technology from National University of Defense Technology in 1990.Now he is a professor and Ph.D.supervisor at National University of Defense Technology,and the head of Technical Committee on Theoretical Computer Science of China Computer Federation.His research interests include algorithm design,artificial intelligence,pattern recognition and information security,etc.

殷建平(1963—),男,湖南益阳人,1990年于国防科学技术大学获得博士学位,现为国防科学技术大学教授、博士生导师,CCF会员,主要研究领域为算法设计,人工智能,模式识别,信息安全等。

Moving Vehicles Recognition in Complex Dynamic Environment*

LIU Boyi1,CHENG Jieren1,2+,TANG Xiangyan1,YIN Jianping3
1.College of Information Science and Technology,Hainan University,Haikou 570228,China
2.State Key Laboratory of Marine Resource Utilization in South China Sea,Hainan University,Haikou 570228,China
3.State Key Laboratory of High Performance Computing,National University of Defense Technology,Changsha 410073,China
+Corresponding author:E-mail:cjr22@163.com

In view of the problem of obtaining the best threshold in vehicle recognition system,this paper presents a dynamic adaptive threshold method for vehicle recognition based on current research.This method firstly uses the image quality equalization algorithm based on entropy weight method to calculate the equalization of background image in traffic video.Secondly,the method obtains the best threshold of vehicle recognition by using polynomial fitting. Thirdly,the method makes Gaussian fitting between the equalization of background image and the best threshold of vehicle samples to get an adaptive threshold calculation model.The system updates the background image and calculates the equalization of background image real time.Then the system inputs the image equalization to the adaptivethreshold calculation model and gets the best threshold of real-time vehicle recognition.The experimental results and theoretical analysis show that the method realizes the adaptive update of vehicle recognition according to the dynamic environment,and improves the accuracy of vehicle recognition in different environments.

vehicle recognition;image quality;Gaussian fitting;entropy weight method

A

:TP391

10.3778/j.issn.1673-9418.1607035

*The National Natural Science Foundation of China under Grant Nos.61363071,61379145,61471169(国家自然科学基金);the Natural Science Foundation of Hainan Province under Grant No.614220(海南省自然科学基金);the Doctor Start Fund of Hainan University under Grant No.kyqd1328(海南大学博士启动基金);the Youth Fund of Hainan University under Grant No.qnjj1444(海南大学青年基金).

Received 2016-07,Accepted 2016-11.

CNKI网络优先出版:2016-11-25,http://www.cnki.net/kcms/detail/11.5602.TP.20161125.1530.002.html

猜你喜欢
权法背景阈值
基于熵权法的BDS钟差组合预测模型的建立
“新四化”背景下汽车NVH的发展趋势
《论持久战》的写作背景
当代陕西(2020年14期)2021-01-08 09:30:42
小波阈值去噪在深小孔钻削声发射信号处理中的应用
基于自适应阈值和连通域的隧道裂缝提取
BP神经网络结合熵权法优化甘草皂苷提取工艺
中成药(2017年9期)2017-12-19 13:34:30
基于熵权法*的广西能源安全评价
比值遥感蚀变信息提取及阈值确定(插图)
河北遥感(2017年2期)2017-08-07 14:49:00
晚清外语翻译人才培养的背景
室内表面平均氡析出率阈值探讨