智能车辆视觉里程计算法研究进展

2012-01-14 11:01江燕华熊光明姜岩龚建伟陈慧岩
兵工学报 2012年2期
关键词:里程计特征算法

江燕华,熊光明,姜岩,龚建伟,陈慧岩

(北京理工大学 机械与车辆学院,北京100081)

0 引言

对智能车辆的自主导航来说,车辆在运动过程中的自定位能力非常重要。早期的车辆定位系统中常使用轮速编码器来进行航迹推算。然而,轮速编码器存在原理性的累积误差,并且在某些特殊环境下(如土质疏松、轮胎打滑等)会出现失误,不能确保得到精确的车辆位置与姿态估计。

随着计算机视觉技术的发展,视觉传感器越来越多地被用来进行车辆的定位和运动估计。首先,视觉传感器所提供的丰富的感知信息,既可以满足车辆的自定位要求,又能够同时为其他重要的任务提供信息,如目标检测、避障等。其次,视觉传感器相对其他传感器来说成本较低,且体积小,在布置上更为灵活。另外,基于视觉的定位和运动估计还可以独立于地形以及地形—轮胎接触特性,如不受轮胎打滑的影响等[1]。因此,近年来大量研究者对车载视觉里程计技术进行了研究,也获得了许多的成果。

1 视觉里程计的基本原理

视觉里程计是利用车载相机采集到的图像信息来恢复车体本身的6 自由度运动,包括3 自由度的旋转和3 自由度的平移。由于类似于里程计的航迹推算,这种基于图像信息的自运动估计方法称为视觉里程计技术。视觉里程计概念最早可以追溯到Moravec[2]和Matthies[3],基本步骤包括特征提取、特征匹配、坐标变换和运动估计,当前大多数视觉里程计系统仍是基于此框架[4]。

与视觉里程计技术联系非常紧密的2 个研究领域是形状信息的运动复原(SFM)算法和视觉同步定位与地图构建(SLAM)算法。在视觉SLAM 问题中,需要同步实时估计相机本身的位置以及所检测的路标的空间位置及其关联,从而对其所处的环境进行地图创建。早期的SLAM 算法需要依靠那些能够获得深度信息的传感器,如激光雷达、声纳等,而近年来单纯依靠机器视觉的V-SLAM 开始得到关注,如Eade、Davison 等人的单目视觉SLAM 算法[5-7],其计算机制在性质上与基于非线性滤波器的视觉里程计系统非常相似。

SFM 算法是从二维图像数据中恢复3 维场景结构以及相机本身的6 自由度运动的方法。在这里,相机提供的观测量都是特征位置在相机坐标系下的二维投影,在经典的视觉SLAM 的术语中,可以说SFM 的设备只提供了方位而没有范围。对于本文着重要介绍的两帧视觉里程计,有研究者将其称为基于SFM 技术的视觉里程计,可以视为不需要估计场景结构的SFM 算法,或者简化了的SFM 算法。所以此类视觉里程计算法的核心模块大多来自经典SFM 算法。

2 视觉里程计算法的分类

近10年来,车载视觉里程计技术已经获得了许多的研究成果。接下来从系统构成的角度,包括所利用的视觉信息类型、相机数量、相机类型、计算框架、是否与其他传感器融合等5 个方面对其进行分类,详细介绍现有视觉里程计系统的研究进展。

2.1 离散方法与连续方法

从所利用的视觉信息的角度分类,视觉里程计技术主要有基于特征的离散处理方法和基于光流的连续处理方法。早期的研究主要是基于光流的,利用摄像机拍摄的时间序列图像来估计光流。但它需要对图像亮度恒定性作出很强的假设,即认为连续帧图像亮度基本不发生改变,而在实际应用中,由于遮挡性、多光源、透明性和噪声等原因,无法满足光流场的灰度守恒假设条件,不能求解出正确的光流场,同时大多数的光流方法相当复杂,计算量巨大。因此,近10年来的研究主要集中在基于特征的离散处理方法[8]。

2.2 单目视觉与双目视觉

从使用的相机的个数来分类,视觉里程计可以分为单目视觉系统和立体视觉系统,其中立体视觉里程计绝大多数指的是双目视觉。Badino 认为,在大部分情况下立体视觉的效果要优于单目系统,最主要的原因在于,使用单目视觉会碰到的尺度歧义问题,采用立体视觉便不复存在[9]。Nistér 在其著名的视觉里程计系统[10]中也对单目视觉和双目视觉的方案进行了比较,同样指出采用双目相机在尺度估计方面的优势,能避免艰难的相对姿态求解步骤,以及对运动退化的良好的抵抗能力。

根据现在的研究情况来看,采用单目视觉[5,11-13]和立体视觉[14-20]的方案各有其应用的场合。但也有文章分析认为单纯依靠视觉来进行相机姿态估计与运动复原来说,双目立体视觉才是发展的趋势[21]。

2.3 普通相机与全方位相机

从所使用的相机类型来看,视觉里程计又可分为普通相机系统与全方位相机系统。当前大部分算法采用的依然是提供有限视角范围的普通相机。对普通相机来说,由于全局信息的缺乏,当相机姿态变化的幅度超出视野范围时,很容易出现估计的断档和失效。倘若需要对较大幅度的位姿变换进行估计,采用全方位相机的优点便凸显出来。对于接近球面视野的全方位相机来说,特征可以在视野中存在更多时间,空间上的扩大也使得特征匹配的正确程度大大提高[12]。

Lee 采用全方位相机,在IEKF 计算框架下对相机的较大范围的运动进行估计[22]。Corke 则提供了采用全方位相机时的光流方法与基于迭代扩散卡尔曼滤波(EKF)的算法2 种实现方案[13]。Tardif 采用全方位相机,结合SIFT 特征点与两帧SFM 算法机制来实现相机运动的稳定估计[12]。更多全方位相机在移动平台运动估计中的应用可以参考文献[23].然而,全方位相机视野的扩大是以牺牲分辨率为前提的,在需要精度非常高的应用场合采用全方位相机的算法仍需改进。

2.4 两帧方案与多帧方案

从恢复姿态所需要的图像的帧数来分类,视觉里程计系统可以分为两帧方案和多帧方案。其中多帧方案又依据计算方式可分为“批处理”方式和递归方式2 种。视觉里程计中的两帧方案典型地来自SFM 算法,也就是利用连续两帧图像的特征信息,来求解位姿变换。经典的视觉里程计系统大多基于这种计算框架[10,12,19,21,24-25],将在第3 节详细讨论。

在多帧方案“批处理”算法中应用最广泛的是光束法平差[26]。全局的光束法平差算法是一种非常耗时的计算过程,其基本原理是迭代优化相机姿态以及点的3 维坐标,从而获得最小化所有帧的重投影误差的最优最小二乘解,包括Levenberg-Marquardt最小化来求非线性解、高斯牛顿法加梯度下降等都常常采用。光束法平差的计算结果精度非常高,但是计算效率非常低以致无法在实时系统中使用,最初只用于离线仿真和参数优化等。直到Shum 提出了关键帧概念[27],该方法才开始在实时系统中应用。文献[11,14,28]都用光束法平差来进行相机的姿态估计。但是关键帧的选择,却又成为该算法中的一个难题。因为如果两个连续关键帧之间没有足够的相机运动,对极几何的约束计算便会成为一个病态问题;如果两关键帧之间间距过长,插值又不能产生精度足够高的计算结果。Royer 的分层算法将一个大的图像序列递归地进行分裂直至每个部分都只含有3 帧图像,然后对每个3 元组用光束法平差进行计算,从而避免了关键帧的选择问题[29]。

另外,光束法平差在众多的两帧算法系统中也得到了应用[10,12,14,30-32]。这是由于两帧算法是增量式计算姿态的方法,不可避免地会存在累积误差,于是结合多帧方法来作精细化以减小累积误差、增强鲁棒性是一种很好的选择。

多帧方案的递归算法,也就是采用非线性滤波器来对系统进行递归估计。与两帧算法或光束法平差不同,多帧递归算法将非线性问题交给滤波器来作线性化逼近,其中最常用的是EKF 和无迹卡尔曼滤波(UKF),前者利用高斯分布的特性进行精确的线性化[13,22-33],后者则通过考虑高斯分布的无迹变换获得更好的估计[18]。有研究者认为UKF 在处理非线性问题中虽然计算效率较低但效果要优于EKF,因为对高斯分布UKF 接近于3 阶精度而EKF仅接近1 阶[34]。Kitt 采用迭代Sigma 点卡尔曼(ISPKF)滤波器,并指出与采用一阶泰勒展开的传统EKF 相比,基于Sigma 点均值和方差传播的迭代优化能够获得更佳的估计结果,且收敛速度要快60倍[18]。

在多帧递归方案中,一般基于卡尔曼滤波计算框架的系统都在特征匹配时作较强的约束,如极线限制等牺牲特征的数量来降低误匹配的程度,从而跳过异常值的问题。但是递归方案的另一个难题是,特征会消失,也会有新的特征进入,如何为此来改变状态量?Mclauchlan 首次提出了这个问题,并且相应地采用了一种变状态维数的滤波器[35]。Chiuso 则通过运行一个并行的“子滤波器”来应对新进入的特征,其初始化则由主滤波器的估计得到[33]。Chius 还对采用EKF 计算框架的全局可观测性、联合可观测性、最小实现以及数值稳定性都进行了详细的分析。

2.5 纯视觉系统与混合系统

根据前文定义,仅仅依靠视觉信息输入的里程计系统称为纯视觉系统。本文中提到的绝大部分算法都属于纯视觉系统。但是对于增量式的两帧视觉里程计的累积误差,除了2.4 节提到的光束法平差,也可以采用能提供全局定位信息的全球定位系统(GPS)[36],或能够提供短期精度高的高频数据的惯性导航元件(IMU)[31,37-38]等来改进系统性能。这种依靠其他传感器来辅助视觉进行定位导航的系统本文称为混合系统,它们大都是基于非线性滤波器,如EKF、UKF 等的数据融合机制。其中又以相机-IMU 的融合系统应用最为广泛。然而引入附加传感器的做法可能会带来新的问题,如多传感器间位置关系的精确标定、正确的数据融合等,仍需要进一步的研究。

3 两帧视觉里程计算法中的关键问题

如在第2 节中提到的,经典的视觉里程计系统大多基于两帧计算框架,于是在此作详细介绍。两帧视觉里程计算法的核心算法模块一般包括特征的选择与匹配,以及基于所选择的特征集合的鲁棒运动估计。其中鲁棒运动估计又由从噪声数据中选择内数据和依据理想数据求解方位2 个部分组成。接下来对这些步骤的现有技术状况进行分析与讨论。

3.1 特征的选择与匹配

视觉里程计的关键工作之一,就是得到一些稳定鲁棒的特征。用于恢复相机位姿的特征应当具有良好的光度不变性和几何不变性[39]。前者是指当2 个视角有较大的光线变化时,从对应两帧图像所检测到的特征依然对应相同的3 维世界坐标系点。后者则表示特征在任何投影变换后性质不发生改变,例如投影变换后的点还是点,直线还是直线。这种几何不变性可以说是基于特征的位姿恢复算法的重要基础。

点特征、线特征[40]、曲线(轮廓)特征[41]都可以用于解算2 个视角之间的几何变换关系。其中Harris 角点和尺度不变特征变换(SIFT)特征点得到了最为广泛的应用。Schmid 证明了Harris 角点在较大范围的光度变化和几何变换中能够保持良好的不变性,也证明了它在信息丰富度方面的表现非常优秀[42]。许多基于视觉的位姿估计系统都采用了Harris 角点或其改进版本(FAST 角点等)作为其特征检测的对象[4,11,14,19-20,28]。

不过,倘若场景中存在成簇的或是重复的纹理特征时,角点可能会失效,并不是因为它们不具备良好的判别能力,而是在匹配时容易产生误匹配。Parra 证明了Harris 角点的这一缺陷,并认为SIFT特征更适合应用在视觉姿态恢复系统中[24]。SIFT特征点对图像的平移变换、尺度变换、旋转变换,一定程度的光照变化、仿射变换或三维投影变换都具有良好的不变性[43]。近来也有许多研究者在他们的系统中采用了SIFT 特征[12,24-25,44]。但是,SIFT特征点的缺点主要在于计算复杂,效率低下,Howard证明在他的系统中,用角点的处理时间比用SIFT 特征点少了一个数量级[19]。所以,SIFT 特征点更适合于应用在那些对系统频率要求不高的场合。

除了Harris 角点和SIFT 特征之外,应用较多的特征 还 有Shi-Tomasi 特 征 点[7,16],加 速 鲁 棒 特 征(SURF)[45-46]等。

特征检测完成之后,需要对连续帧的特征进行匹配来生成可以用于估计姿态的特征集。最简单常用的匹配方案是绝对误差和(SAD)[19,47]和零均值归一化互相关(ZMNCC)[11,17,20,24]。在大部分情况下,前者的效率更高而后者的鲁棒性更佳。Nistér采用归一化互相关与相互一致性检验方法来获得理想的特征匹配效果[10]。当然,不同的特征检测对应不同的特征匹配方法,如Gordon 提出对SIFT 特征点来说最合适的匹配方法是最邻近算法[48]。考虑到特征数量一般都非常多,直接搜索最邻近匹配需要大量的计算时间,Parra 用一种基于k-d 树搜索的Best-Bin-First 算法来为所有的特征点寻找其最佳匹配,能比直接搜索节省近95%的时间[24]。

3.2 基于噪声数据的内数据提取

在实际中,由特征检测与匹配得到的特征数量远大于求解的需要。并且由于不可避免的误差,得到的特征集合实际是一个噪声数据集。传统的方法是利用所有点做全局直接最小二乘或是更鲁棒的加权最小二乘[49]来求解此超定方程,没有任何抛弃误匹配数据的机制。如今,基于统计学的假设-验证结构算法能够从这样的噪声数据中寻找正确的内数据,正逐渐成为解决该问题的通用方法[50],其中最常用的就是随机采样一致性(RANSAC)算法。

RANSAC 算法首先从全部的观测数据中选择一定数量的随机集合,然后用每一个随机小特征集进行求解,此前的步骤称为假设生成;最后在全部的观测数据上验证,通过某种函数形式计分,分最高者作为最终结果[51]。Nistér 专门对计分函数进行了分析,证明它应是一个计算重投影误差的鲁棒的似然函数或贝叶斯代价函数,而非简单的计数[52]。Scaramuzza 分析了假设生成所需要的最少特征数与其能得到正确解的迭代次数之间的关系,证明最少特征数越小,迭代次数也越少,即算法效率越高。为此,他还提出了基于Ackermann 转向模型的单点RANSAC 算法,使其在保证成功率99%和数据异常值比率50%的条件下,平均只需要迭代7 次便能得到理想结果[53-54]。

与剔除异常值相对应的另一种获得理想特征集的思路是直接用基于最大团的方法检测内数据。Hirschmüller 用欧氏距离约束来选择那些内数据[15]。Howard[19]采用了与Hirschmüller 相同的算法,并证明它在整体数据集包含90%异常值的情况下依然能够获得理想的内数据集。

3.3 从理想数据集中求解方位

从特征点集计算姿态的问题根据2 个视角的数据坐标性质来说包括2 类:1)绝对定向问题,即2 个数据点集分别是一个视角的二维图像坐标和另一个视角的三维世界坐标;2)相对定向问题,即2 个数据点集分别是2 个视角的二维图像坐标。

绝对定向问题和相对定向问题都有最小集直接方法和非最小集方法。其中最小集直接方法,即用能解算约束方程所需的最少特征来求解,一般包括求解相对定向问题的N(N≥5)点算法[10]和求解绝对定向问题的3 点算法[10,18]。

绝对定向问题主要出现在用立体视觉,可以获知场景三维信息的场合。Haralick 给出了从1841年到1994年3 点算法的综述,详细介绍比较了6 种方法,证明Finsterwalder 算法能够获得最高的精度[55]。但传统的3 点算法那一般局限于某种相机模型,如针孔模型等,Nistér 提出了不限定相机模型的3 点问题的通用最小集算法[56]。而求解绝对定向问题的非最小集方法,最常用的是用奇异值分解(SVD)方法[45,57]或四元数方法[58]等。

相对定向问题则是采用单目视觉所不可避免的。Stéwenius 对截至2006年相对定向问题的最小集直接算法作了总结[59],比较了包括Nistér 的高效5 点算法[50]和其他多种N(N =6~8)点算法,证明了5 点算法在数值稳定性、计算效率和对场景退化的处理能力方面都有最为优秀的性能,所以它在单目视觉里程计系统中应用广泛。而求解相对定向问题的非最小集方法中,迭代最近点(ICP)算法是较为常用的一种[17]。ICP 算法是一种利用理想几何模型对目标的离散数据作配准的迭代方法,尤其适用于那些相关性未知的点云数据。在视觉里程计系统中,ICP 算法一般不用于直接求解姿态,而是在用高效方法求解最小二乘问题的粗糙解之后来进行迭代优化[16-17]。

4 研究展望

如上所述,视觉里程计算法已经获得了许多研究成果。但是,单纯依靠视觉的自主车辆定位与导航技术还不够成熟。在2007年的DARPA 城市挑战赛中,单纯依靠视觉的定位系统还没有获得最好的效果[54];在火星探测车上,视觉定位系统也还只是惯型导航系统的备选[60]。所以,视觉里程计算法中还有许多问题在等待解决,如下研究方向或可作为下一步研究的重点:

1)更高效率、更高精度的特征检测与匹配算法。当前的研究中,鲁棒的特征提取与匹配本身计算量大,而快速的特征检测又会造成特征集噪声过大,使检测内数据的计算量加大,都影响了系统的实时性。所以,设计更鲁棒更快速的特征提取与匹配算法非常重要;

2)“批处理”算法与递归算法的结合。本文在比较两帧方案与多帧方案时提到了“批处理”算法的高精度与低效率,若将其与精度相对较低的递归方案相结合设计出高效高精度的“批处理”—递归混合系统,将会是视觉里程计系统的一个可行的发展方向;

3)在经典的视觉里程计系统中,一个非常重要的假设就是静态场景假设,而在实际应用环境中是难以成立的,如存在动态的行人、车辆等目标。近年来也出现了一些针对动态环境的方法,有依靠低水平的目标识别[61]、对噪声建模来剔除动态目标数据[62]或是采用对数据质量要求极低的内数据获得算法[63]等,都没有脱离固有的特征检测机制。若能将视觉里程计系统与基于视觉的行人检测、车辆检测或道路检测等在目前已有大量研究成果的算法有效地结合起来,将是非常有意义的研究工作。

5 结论

视觉里程计技术发展至今已经获得了一定的成果,具备直接在实时系统中应用的可能。但是视觉里程计技术中当前仍然有许多问题存在,包括特征检测与跟踪算法效率与精度的权衡,递归算法的累积误差缺陷以及难以应对复杂的动态噪声环境等。这些问题都需要从视觉里程计算法的各个模块技术出发,研究解决以期改善整体系统性能。并最终希望视觉里程计可以独立实现智能车辆的精确自定位。

References)

[1] 吴功伟.立体视觉里程计的关键技术研究[D].杭州:浙江大学,2007.WU Gong-wei.Research on key technologies in stereo visual odometry[D].Hangzhou:Zhejiang University,2007.(in Chinese)

[2] Moravec H.Obstacle avoidance and navigation in the real world by a.seeing robot rover[D].Stanford:Univ.of Stanford,1980.

[3] Matthies L,Shafer S A.Error modeling in stereo navigation[J].IEEE J.Robot.Automat.,1987,RA23(3):239-250.

[4] 彭勃,周文晖,刘济林.基于Harris 角点检测的立体视觉里程计[J].兵工学报,2007,28(12):1498-1502.PENG Bo,ZHOU Wen-hui,LIU Ji-lin.Harris corner detectionbased stereo visual odometry[J].Acta Armanmentarii,2007,28(12):1498-1502.(in Chinese)

[5] Eade E,Drummond T.Scalable monocular SLAM[C]∥Proc.IEEE Computer Society Conference on Computer Vision and Pattern Recognition,New York:IEEE,2006:469-476.

[6] Davison A J,Reid I D,Molton N D,et al.Mono SLAM:realtime single camera SLAM[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(6):1052-1067.

[7] Davison A J.Real-time simultaneous localization and mapping with a single camera[C]∥Proc.International Conference on Computer Vision,Nice:IEEE,2003:1403-1410.

[8] 马玉娇.基于立体视觉里程计的移动机器人定位研究[D].武汉:武汉科技大学,2009.MA Yu-jiao.Research on mobile robot localization based on stereo visual odometry[D].Wuhan:Wuhan University of Science and Technology,2009.(in Chinese)

[9] Badino H.A robust approach for ego-motion estimation using a mobile stereo platform[J].Lecture Notes in Computer Science,2007,3417:198-208.

[10] Nistér D,Naroditsky O,Bergen J.Visual odometry[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Washington:IEEE,2004:652-659.

[11] Mouragnon E,Lhuillier M,Dhome M,et al.Real time localization and 3D reconstruction[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition,New York:IEEE,2006:363-370.

[12] Tardif J,Pavlidis Y,Daniilidis K.Monocular visual cdometry in urban environments using an omnidirectional camera[C]∥IEEE/RSJ International Conference on Intelligent Robots and Systems,Nice:IEEE,2008:2531-2538.

[13] Corke P,Strelow D,Singh S.Omnidirectional visual odometry for a planetary rover[C]∥IEEE/RSJ International Conference on Intelligent Robots and Systems,IEEE,2004:4007-4012.

[14] Agrawal M,Konolige K.Rough terrain visual odometry[C].International Conference on Advanced Robotics,Menlo Park:2007.

[15] Hirschmüller H,Innocent P R,Garibaldi J M.Fast,unconstrained camera motion estimation from stereo without tracking and robust statistics[C]∥In International Conference on Control,Automation,Robotics and Vision,Singapore:Nayang Technological Univ,2002:1099-1104.

[16] Milella A,Reina G.Vision-based methods for mobile robot localization and wheel sinkage estimation[C]∥ASME Dynamic Systems and Control Conference,Michigan:2008:625-621.

[17] Milella A,Siegwart R.Stereo-based ego-motion estimation using pixel-tracking and iterative closest point[C]∥Proc.IEEE International Conference on Computer Vision Systems,New York:IEEE,2006:21-27.

[18] Kitt B,Geiger A,Lategahn H.Visual odometry based on stereo image sequences with RANSAC-based outlier rejection scheme[C]∥IEEE Intelligent Vehicle Symposium,San Diego:IEEE,2010:486-492.

[19] Howard A.Real-time stereo visual odometry for autonomous ground vehicles[C]∥IEEE/RSJ International Conference on Intelligent Robots and Systems,Nice:IEEE,2008:3946-3952.

[20] García-García R,Sotelo M A,Parra I,et al.3D visual odometry for road vehicles[J].Journal of Intelligent and Robotic Systems Archive,2008,51(1):113-134.

[21] Sappa A D,Dornaika F,Ponsa D,et al.An efficient approach to onboard stereo vision system POSE estimation[J].IEEE Trans.Intell.Transp.Syst,2008,9(3):476-490.

[22] Jong Weon Lee,Suya You,Ulrich Neumann.Large motion estimation for omnidirectional vision[C]∥IEEE Workshop on Omnidirectional Vision,Hilton Head Island:IEEE,2000:161-168.

[23] Wen Lik Dennis Lui,Ray A.Jarvis.An omnidirectional vision system for outdoor mobile robots[C]∥IEEE Workshop on Omnidirectional Robot Vision,Anchorage:IEEE,2008:273-284.

[24] Parra I,Sotelo M A,Llorca D F.Robust visual odometry for vehicle localization in urban environments[J].Robotica,2010,28(3):441-452.

[25] Parra I,Sotelo M A,Vlacic L.Robust visual odometry for complex urban environments[C]∥IEEE Intelligent Vehicles Symposium,Eindhoven:IEEE,2008:440-445.

[26] Triggs B,McLauchlan P F,Hartley R I,et al.Bundle adjustment-a modern synthesis[J].In Vision Algorithms:Theory and Practice,ser.LNCS.Springer Verlag,2000,1883:298-375.

[27] Shum H,K E Q,Zhang Z.Efficient bundle adjustment with virtual key frames:a hierarchical approach to multi-frame structure from motion[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Collins:IEEE,1999:538-543.

[28] Jungho Kim,In So Kweon.Vision-based autonomous navigation based on motion estimation[C]∥International Conference on Control,Seoul:Automation and Systems,2008:1738-1743.

[29] Royer E,Lhuillier M,Dhome M,et al.Monocular vision for mobile robot localization and autonomous navigation[J].International Journal of Computer Vision,2007,74(3):237-260.

[30] Levin A,Szeliski R.Visual odometry and map correlation[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Washington:IEEE,2004:1611-1618.

[31] Konolige K,Agrawal M,Sola J.Large scale visual odometry for rough terrain[C]∥In International Symposium on Research in Robotics,Hiroshima:2007.

[32] Kwolek B.Visual odometry based on gabor filters and sparse bundle adjustment[C]∥IEEE International Conference on Robotics and Automation,Roma:IEEE,2007:3573-3578.

[33] Chiuso A,Favaro P,Jin H,et al.Structure from motion causally integrated over time[J].IEEE Trans.on Pattern Anal.Mach.Intell.,2002,24(4):523-535.

[34] Rudolph van der Merwe,Eric A.Wan.Sigma-point kalman filters for integrated navigation[C]∥Proc.Annual Meeting of The Institute of Navigation,Dayton:NSF,2004:641-654.

[35] Mclauchlan P,Reid I,Murray D.Recursive affine structure and motion from image sequences[C]∥Proc.European Conf.Comp.Vision,Stockholm:Springer Verlag,1994:217-224.

[36] García-García R G,Sotelo M A,Parra I,et al.3D visual odometry for GPS navigation assistance[C]∥Proc.IEEE Intelligent Vehicles Symposium,Istanbul:IEEE,2007:444-449.

[37] Zhu Z,Oskiper T,Samarasekera S,et al.Sawhney.Ten-fold improvement in visual odometry using landmark matching[C]∥IEEE International Conference on Computer Vision,Rio de Janeiro:IEEE,2007:1747-1754.

[38] Oskiper T,Zhu Z,Samarasekera S.Visual odometry system using multiple stereo cameras and inertial measurement unit[C]∥IEEE Conference on Computer Vision and Pattern Recognition,Minneapolis:IEEE,2007:976-983.

[39] P.H.S.Torr and A.Zisserman.Feature based methods for structure and motion estimation[J].in Vision Algorithms:Theory and Practice,2000,1883:278-295.

[40] Taylor C J,Kriegman D J.Structure and motion from line segments in multiple images[J].IEEE Trans.on Pattern Anal.Mach.Intell.,1995,17(11):1021-1032.

[41] Wong K Y K,Mendonca P R S,Cipolla R.Structure and motion estimation from apparent contours under circular motion[J].Image and Vision Computing,2002,20:441-448.

[42] Schmid C,Mohr R,Baukhage C.Evaluation of interest point detectors[J].International Journal of Computer Vision,2000,37(2):151-172.

[43] Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

[44] 李智,周文晖,刘济林.动态场景下基于视差空间的立体视觉里程计[J].浙江大学学报(工学版),2008,42(10):1661-1665.LI Zhi,ZHOU Wen-hui,LIU Ji-lin.Stereo visual odometry from disparity space in dynamic environments[J].Journal of Zhejiang University:Engineering Science,2008,42(10):1661-1665.(in Chinese)

[45] Gong P L,Zhang Q F,Zhang A Q.Stereo vision based motion estimation for underwater vehicles[C]∥International Conference on Intelligent Computation Technology and Automation,Changsha:IEEE,2009:745-749.

[46] Rodriguez S A,Fremont F V,Bonnifait P.An experiment of a 3D real-time robust visual odometry for intelligent vehicles[C]∥Proc.International Conference on Intelligent Transportation Systems,Shizuoka:IEEE,2009:226-231.

[47] Zhang T,Liu X,Kuhnlenz K,et al.Visual odometry for the autonomous city explorer[C]∥IEEE/RSJ International Conference on Intelligent Robots and Systems,St.Louis:IEEE,2009:3513-3518.

[48] Gordon I,Lowe D G.What and where:3D object recognition with accurate pose[C]∥International Symposium on Mixed and Augmented Reality,Santa Barbara:IEEE,2006:67-82.

[49] Horn B K P.Relative orientation[J].International Journal of Computer Vision,1990,4:59-78.

[50] Nistér D.An efficient solution to the five-point relative pose problem[J].IEEE Trans.on Pattern Anal.Mach.Intell.,2004,26(6):756-770.

[51] Fischler M A,Bolles R C.Random sample consensus:a paradigm for model fitting with apphcatlons to image analysis and automated cartography[J].Graphics and Image Processing,1981,24(6):381-395.

[52] Nister D.Preemptive RANSAC for live structure and motion estimation[C]∥Proc.International Conference on Computer Vision,Nice:2003:199-206.

[53] Scaramuzza D,Fraundorfer F,Siegwart R.Real-time monocular visual odometry for on-road vehicles with 1-point RANSAC[C]∥International Conference on Robotics and Automation,Kobe:2009:4293-4299.

[54] Nourani-Vatani N,Roberts J,Srinivasan M V.Practical visual odometry for car-like vehicles[C]∥International Conference on Robotics and Automation,Kobe:2009:3551-3557.

[55] Haralick R,Lee C,Ottenberg K,et al.Review and analysis of solutions of the three point perspective pose estimation problem[J].International Journal of Computer Vision,1994,13(3):331-356.

[56] Nistér D.A minimal solution to the generalised 3-Point pose problem[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Washington:IEEE,2004:560-567.

[57] Horn B K P,Hilden H M,Negahdaripour S.Closed-form solution of absolute orientation using orthonormal matrices[J].Journal Opt.Soc.Am.A,1988,5:1127-1135.

[58] Horn B K P.Closed-form solution of absolute orientation using unit quaternions[J].Journal Opt.Soc.Am.A,1987,4(4):629-642.

[59] Stéwenius H,Engels C,Nistér D.Recent developments on direct relative orientation[J].ISPRS Journal of Photogrammetry and Remote Sensing,2006,60:284-294.

[60] Matthies L,Maimone M,Johnson A,et al.Computer vision on mars[J].International Journal of Computer Vision,2007,75(1):67-92.

[61] Kitt B,Moosmann F,Stiller C.Moving on to dynamic environments:visual odometry using feature classification[C]∥International Conference on Intelligent Robots and Systems,Taipei:IEEE,2010:5551-5556.

[62] Sakai A,Mitsuhashi M,Kuroda Y.Noise model creation for visual odometry with neural-fuzzy model[C]∥IEEE/RSJ International Conference on Intelligent Robots and Systems,Taipei:IEEE,2010:5190-5195.

[63] Sáez J M,Escolano F.6DOF entropy minimization SLAM for stereo-based wearable devices[J].Computer Vision and Image Understanding,2011,115(2):270-285.

猜你喜欢
里程计特征算法
根据方程特征选解法
室内退化场景下UWB双基站辅助LiDAR里程计的定位方法
离散型随机变量的分布列与数字特征
哪种算法简便
Travellng thg World Full—time for Rree
不忠诚的四个特征
进位加法的两种算法
SINS/OD组合导航系统转弯误差补偿*
一种改进的整周模糊度去相关算法
大角度斜置激光惯组与里程计组合导航方法