陈芬
摘要:基于单目视觉的环境感知一直是机器视觉领域的重要研究内容。视觉信息处理技术主要应用于道路检测识别、路标检测识别、障碍检测识别、障碍跟踪及其他传感器的自标定、辅助标定等几个主要方面。道路检测识别是环境感知、场景理解中的关键技术之一。道路图像理解不仅能够从道路图像中理解道路环境、获取未知信息,而且能为其他任务(如行人和车辆检测、路径规划等)提供线索。但同时,基于视觉的道路图像理解也是一项极具挑战性的任务,因为道路场景的检测易受光照、天气、遮挡等因素的影响。
关键词:计算机视觉;场景理解;道路检测
中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2015)23-0118-02
An Overview of Road Image Understanding Based on Monocular Vision
CHEN Fen
(Armored Force Institute, Bengbu 233050 China)
Abstract: The ambient awareness based on monocular vision is always the important research in the computer vision. The visual information processing almost has been applied into the some aspects, such as road detection and identification, sign detection and identification, block detection and identification, block tracking and other sensors demarcated and aided demarcated. Road image understanding not only can master road environment and fetch unknown information from road image, but also can provide intelligence for other missions as pedestrian, vehicle detection and route planning, etc. However, road image understanding based on vision is also a challenging mission, because the road scene detection vulnerable to light, weather and shelter etc.
Key words: computer version; scenes understanding; road detection
1概述
计算机视觉旨在用各种成像系统代替视觉器官作为输入敏感手段,由计算机来代替大脑完成处理和解释,其最终研究目标就是使计算机能像人一样通过视觉的观察和理解,弄清楚外部世界有什么东西,它们在什么地方。基于单目视觉的道路图像理解在移动机器人、自动导引车、辅助驾驶、智能交通系统等领域得到了广泛的应用。
道路图像包含了丰富的周围环境信息,依据不同的应用,道路图像对周围场景给出不同的解释。道路检测是从道路图像中检测出道路区域或道路的边缘,它是道路理解的基础。对于结构化道路(如高速公路场景),道路边缘、车道线的颜色、亮度与路面差异较大,通常使用基于道路边缘的检测方法检测道路。对于边缘不够明显的道路(如越野道路),基于道路边缘的检测方法便不再适用,此时,可以采用基于路面的检测方法检测道路。该类方法是建立在道路区域内特征比较统一,且与背景的特征之间有可区分性的基础上。
本文将着重介绍道路检测方法,并对今后的研究进行展望。
2研究现状
由于缺乏标注数据,早期的道路检测算法通常是针对在线场景,如[1-2]。多数针对在线场景的道路检测算法都假设输入图像的中央底部区域的像素属于道路样本,则该区域像素特征分布可以用于在线训练,进而判别图像中的剩余像素是否属于道路。这种简单的假设在路面条件较简单的情况下比较有效,但是当路面条件较复杂时,图像底部的像素与道路存在偏差,这种假设便不成立,从而导致算法的检测结果很差。
随着一些标准数据库(如 CamVid[3],KITTI[4-5])的公开,使得利用大规模标注数据训练离线模型成为了可能,因此基于监督学习的离线训练方法开始流行起来。现有的大部分基于离线训练的道路检测算法都是基于图像表面和运动特征训练像素分类器[6]。当遇到与训练场景类似的测试场景时,训练得到的分类器能够较好地检测出道路,使得算法能够保持较好的性能;当遇到不同的场景或受到外界干扰时,训练得到的分类器就会表现出“数据库偏见”[3],从而导致算法的性能急剧下降。
近年来,出现了一些基于在线学习的道路检测算法,如[7-8]。其中文献[7]提出了一种结合在线学习和离线学习的道路检测方法:利用离线标记样本训练学习得到道路模型,该离线道路模型包含了离线样本的一般性信息,当进行在线道路检测时,这些信息能够与在线学习相结合,进而提高道路检测的鲁棒性。
3检测方法分类
迄今为止,虽然衍生出了众多的道路检测方法,但是并没有一种权威的方法对其进行分类。通常情况下,当前视觉导航中的道路检测技术,可以被大概分为下述三类:
3.1基于模型的道路检测方法
基于模型的方法首先假设非结构化道路具有相对规则的路边,根据路边形状建立相应的道路模型。根据所建立的道路模型,然后结合图像特征和视觉模型对道路。进行拟合匹配,求得道路的路边。常用的模型有直线模型、蛇型线模型、抛物线模型、样条曲线模型等[9]。基于道路模型的匹配法可以有效克服路面阴影、污染、光照不均等外界环境因素干扰,但是当道路不符合预先假设模型时,算法就会失效,因此道路模型的选取显得至关重要。
3.2基于学习的道路检测方法
基于学习的方法主要是采用神经网络[10]或自监督的方式,根据车前方一块区域是道路这一假定,然后通过分析其特征来进行其他区域的道路检测。
3.3基于特征的道路检测方法
基于特征的非结构化道路检测算法是目前应用最广泛也是被研究最多的算法。图像特征法在进行道路检测时,利用图像特征上的差异作为其主要思想,主要是指道路标线或边界在形状、纹理、灰度和对比度等方面与其他图像背景之间的特征差异,大部分的计算集中在图像处理以及如何感知分类所利用的特征值上。这种方法的优点是计算较为简单,但外界因素的干扰,比如阴影遮挡、光照变化、噪声、道路边界或标志线的不连续性等都会成为难以跨越的障碍。另外由于各个特征都存在自身的优点和不足,因此同时采用边缘、区域等多种特征是基于道路图像特征检测算法的一种趋势。
4图像特征
在基于视觉的目标检测中,特征选择是关键的一步,特征选择结果的好坏直接影响着分类器的分类精度和泛化性能。常用的图像特征包括颜色特征、纹理特征和形状特征等。
图像的颜色特征被广泛应用于道路检测中,如RGB、HSV等。实际上,道路场景中光照条件的变化会导致道路中经常出现阴影,在这种情况下,仅使用图像的颜色特征就不能很好地描述道路信息。针对这种情况,使用基于颜色特征的光照不变特征,能够改善道路检测结果。
除了颜色特征和光照不变特征,纹理特征也是表示图像的重要视觉特征。纹理结构反映图像亮度的空间变化情况并不依赖彩色和灰度[14],它具有局部与整体的自相似性。纹理是由纹理基元按某种确定性的规律或某种统计规律排列组成的,在纹理区域内各部分具有大致相同的结构。文献和文献[16]分别提取不同的纹理特征用于道路检测。
方向梯度直方图(Histogram of Oriented Gradient,HOG)是通过计算局部区域的梯度方向直方图来构成特征,可以对图像的纹理特征进行描述。最初用在行人检测]当中并且得到了很好的效果,因此在物体检测领域得到了广泛的应用。
颜色特征在光照条件不理想的场景下,不适用于目标颜色与背景颜色相近的情况;在非结构化环境下,道路中有些地方的纹理特征可能与背景纹理特征非常相似,使得提取的纹理特征存在较大的噪声;HOG特征对光照和阴影的适应性强,对图像几何和光学的形变都能保持良好的不变性,但其计算量较大。近年来,为了将各种特征的优势结合起来,组合特征被用于目标检测中,文献[18]中将颜色特征、灰度特征和纹理特征的组合作为路面检测的依据。
5面临的挑战
目前基于单目视觉的道路图像在移动机器人、自动导引车、辅助驾驶、智能交通系统等领域得到了广泛的应用,但仍有很多的问题需要解决:
1) 实际的道路标示线由于磨损而变得模糊,或者被道路上的其他物体所遮挡,或者由 于天气等原因光照条件比较差。
2) 结构化道路有着明显的道路标志,易于检测,准确性高。 一般的城市道路、乡村道路从建立道路模型到道路检测与识别跟踪都仍然是富有挑战性的课题。
3) 计算机视觉具有信息量丰富、信号探测范围广、获取信息完整、智能化水平高等优点,激光雷达、GPS、测距器传感器等则可提供精确的检测物方位与距离信息,将其结合起来可以更好地检测跟踪道路。充分利用多个传感器资源,将各种传感器在空间和时间上的互补与冗余信息依据某种优化准则组合起来,可产生对观测环境的一致性解释和描述。
6结束语
道路检测是道路场景理解中十分关键的一步,因为道路既是道路场景中的一大要素,又能为其他任务的完成提供线索。然而,道路检测却是一项极具挑战性的任务,今后的研究仍然需要进一步提高系统的实时性、可靠性、鲁棒性,并且从适合结构化道路转向适合各种自然道路,同时进行多传感器信息融合。
参考文献:
[1] Sotelo M A,Rodriguez F J,Magdalena L.Virtuous:Vision-based road transportation for unmanned operation on urban-like scenarios[J].Intelligent Transportation Systems,IEEE Transactions on. 2004,5(2):69-83.
[2] Alvarez J M,Gevers T,Lopez A M.3D scene priors for road detection[C].In Computer Vision and Pattern Recognition,IEEE Conference on.2010:57-64.
[3] Brostow G J,Shotton J,Fauqueur J,et al.Segmentation and recognition usingstructure from motion point clouds[M]//Brostow G J,Shotton J,FauqueurJ,et al.Computer Vision–ECCV 2008.Springer,2008:44-57.
[4] Geiger A,Lenz P,Urtasun R.Are we ready for autonomous driving? The KITTIvision benchmark suite[C]// Computer Vision and Pattern Recognition (CVPR),2012 IEEE Conference on.2012:3354-3361.
[5] Geiger A,Lenz P,Stiller C,et al.Vision meets robotics:The KITTI dataset[J].The International Journal of Robotics Research.2013.
[6] Sturgess P,Alahari K,Ladicky L,et al.Combining appearance and structure frommotion features for road scene understanding[J].2009.
[7] Alvarez J M,Gevers T, LeCun Y, et al. Road scene segmentation from a singleimage[M]//Alvarez J M,Gevers T,LeCun Y,et al.Computer Vision–ECCV 2012.Springer, 2012:376-389.
[8] Kong H, Audibert J-Y, Ponce J. Vanishing point detection for road detection[C]// Computer Vision and Pattern Recognition,IEEE Conference on,2009:96-103..
[9] Alvarez J M, Gevers T, Lopez A M.3d scene priors for road detection[C]// Computer Visionand Pattern Recognition (CVPR), Conference on,pages2010:57-64.