应用于无人机视频影像密集匹配的特征描述方法

2016-12-13 08:53:09魏云鹏赵红颖辛甜甜郑鸿云
北京大学学报(自然科学版) 2016年6期
关键词:特征描述角点密集

魏云鹏 赵红颖 辛甜甜 郑鸿云



应用于无人机视频影像密集匹配的特征描述方法

魏云鹏 赵红颖†辛甜甜 郑鸿云

北京大学遥感与地理信息研究所, 北京 100871; † 通信作者, E-mail: zhaohy@pku.edu.cn

为了降低无人机视频影像密集匹配的消耗时间, 提高处理效率, 提出快速的特征描述和特征匹配方法。该方法首先利用Harris算子检测角点, 然后通过特征描述符simplified-DASIY (S-DASIY)对检测角点进行特征描述, 生成该点的 25 维特征描述符。根据相应的匹配准则对影像对特征点进行匹配, 得到影像对的匹配点。实验表明, 该方法能够显著减少特征点的生成和匹配时间。

无人机; 密集匹配; 特征描述符; 视频影像

图像匹配是在两幅或多幅图像之间寻找同名匹配点, 是图像融合、图像配准、三维重建和模式识别的基础, 在计算机视觉、数字摄影测量、遥感、地图学以及军事技术等诸多领域有广泛应用[1–4]。图像匹配的方法一般分为基于灰度相关的匹配算法和基于特征的匹配算法。基于灰度相关的匹配算法中较为常用的是块匹配法[5]、比值匹配法[6]和网格匹配法[7]。块匹配法精度受模块大小影响, 模块较大时精度较高, 同时时间消耗也很大; 比值匹配法精度比较低; 网格匹配法分为粗匹配和精匹配, 在粗匹配基础上再进行精匹配, 从而要求粗匹配精度要高, 这样才能保证精匹配精度。基于灰度相关的匹配算法的计算量比较大, 不同光照条件对图像灰度的影响非常大, 直接影响匹配精度。基于特征的匹配算法是通过图像的特征进行匹配, 不仅根据图像的灰度信息, 也结合图像中一些点的结构信息。典型的特征提取和特征匹配算法有 Susan 算子[8]、Harris 算子[9]和 SIFT 算子[10]等。SIFT 及其改进的SURF[11]、Affine-SIFT[12]、GLOH[13]、PCA-SIFT[14]、DASIY[15]系列算子通过建立尺度空间以及统计区域极值点的梯度方向直方图, 构建高维的特征描述符, 其匹配精度最高, 但计算量非常大。DASIY 算子[15]比较适合稠密匹配, 速度比 SIFT 快很多, 但只适用于宽基线的影像稠密匹配。由于无人机拍摄的影像对之间的基线非常小, DASIY 算子不适用。

密集匹配是三维重建的必要前提, 是在两幅图像之间为每个像素确定对应的像素, 建立稠密对应场[16]。但是, 对于真实的影像对来说, 由于拍摄位置不同, 使得影像对之间存在遮蔽现象, 即有些像素点在相应的影像对图像中并不存在对应点。对于此类遮蔽问题, 一般多采用设立约束条件的方法来解决。常见的约束条件有极线约束、相容性约束、唯一性约束、连续性约束、顺序性约束、视差梯度约束等[16]。在不同情况下, 不同传感器获得的数据特征及存在问题各不相同, 目前还没有发现一种适合任何数据的通用匹配方法, 因此需根据不同的数据, 选择与之相适应的约束策略。

在无人机密集匹配方面, 蔡龙洲等[17]通过改进FAST算法来提取特征点, 并利用RANSAC计算单应矩阵, 再利用极线约束和单应约束, 通过归一化互相关关系, 稳健匹配出所有点; 王竞雪等[18]利用像方特征点和物方面元两种匹配基元, 通过多视影像进行选择性匹配, 实现密集匹配。由于无人机视频图像密集匹配或准密集匹配需要处理的数据量非常大, 因此要完成相应的密集匹配, 必须提高匹配的效率, 减少匹配所消耗的时间。本文提出一种适用于无人机视频图像的特征描述和特征匹配方法, 该方法利用 Harris 算子检测角点, 之后生成角点的特征描述符并完成初匹配, 最后进行密集匹配, 生成密集匹配点对。

1 无人机视频影像密集匹配

1.1 无人机视频影像特点

无人机航拍视频影像与卫星影像数据的区别表现在 3 个方面: 1) 拍摄高度低, 多在几百米高度飞行, 单帧图像视场较小, 所包含的地物较少; 2) 视频图像帧间重叠度高, 图像数据量比较大; 3) 图像的分辨率普遍较高, 对地物内部纹理信息表达清晰, 能够提供丰富的地物信息。

1.2 无人机视频影像密集匹配技术流程

密集匹配流程如图1所示。在无人机视频影像密集匹配过程中, 首先输入一对无人机视频影像(左/右遥感影像); 利用 Harris角点检测算子, 检测每幅影像的角点, 并利用 S-DASIY算子, 生成每个角点的特征描述符, 通过相应的匹配规则, 完成左/右影像特征点的初匹配, 得到初匹配特征点对, 以初匹配特征点为种子点, 进行特征点生长, 最终得到密集匹配的特征点对。

在匹配过程中考虑到的技术问题如下。

1) Harris算子提取的角点。角点是图像的局部特征, 具有旋转和仿射不变性, 几乎不受光照条件的影响, 且在图像中占的比例很小。在没有严重丢失图像信息的情况下, 角点所处理的信息量很小, 提取角点消耗的时间也很少。本文在对图像进行Harris 角点检测时, 设定检测窗口为 3×3, 如果检测点为 3×3 邻域内角点响应函数的极值点, 若该响应函数值大于设定的阈值, 则该点为角点。

2) S-DASIY特征检测与特征描述。

3) 特征点的匹配规则以及特征点生长和约束条件。

2 S-DASIY特征检测与特征描述方法

DASIY 算子特征描述可用于宽基线影像的稠密匹配, 能大大提高匹配速度, 并保证匹配精度。但是, 对于无人机视频图像来说, 由于数据量非常大, 要想完成密集匹配, 需进一步减少特征提取和匹配所消耗的时间。受 DASIY 描述符的设计启发, 本文针对无人机视频影像这一密集图像数据源, 设计一种快速简单的特征描述符S-DASIY。

因为无人机视频图像帧之间的基线很小, 影像对中特征点变化比较小, 所以 S-DASIY 描述符没有在尺度空间上进行特征点的提取和描述, 而是直接通过图像的灰度信息和结构信息对特征进行描述。S-DASIY 特征描述方法如图 2 所示。计算点特征描述符的步骤如下。

1) 计算点的点梯度:

梯度的模为

, (2)

梯度的方向角为

2) 统计点5×5邻域内0°, 90°, 180°和 270°共4个方向上的4个点(图2中B1, B2, B3和B4)的梯度主方向(梯度主方向均分为8个方向), 每个点梯度主方向的统计范围为每个点的3×3邻域。

3) 统计点 9×9 邻域内 0°, 45°, 90°, 135°, 180°, 225°, 270°和315°共8个方向上的8个点(B5, B6, B7, B8, B9, B10, B11和B12)的梯度主方向(梯度主方向均分为8个方向)。

其中,=(1, 2, …, 12) 代表 12 个不同的点,为梯度方向,1, …,8为8个不同的梯度方向。

4) 统计上述12个点的梯度主方向, 得到点的梯度主方向(图2中箭头所示)。以点梯度主方向为轴, 对上述 12 个周围点的梯度主方向进行调整, 得到 12 个点的特征方向, 即 12 个点的梯度主方向与点梯度主方向的夹角(沿顺时针方向)。

特征点的梯度主方向T为

获得T后, 调整, 以消除图像旋转对特征描述的影响, 即以T为轴获得:

, (6)

图3为特征点梯度主方向统计的过程。

其中,G为点的点梯度,对应于每个点 3×3 区域内()梯度主方向上的像素个数。

在无人机图像中,

(8)

其中,(,)为点梯度的模,为点的梯度,为图像点的灰度值。

特征点描述过程中所选的 12 个周围点均匀分布在特征点各个方向上, 这样可以很好地统计特征点周围的特征。以统计的特征点梯度主方向为基准, 重新调整12个点的梯度主方向, 确保生成的特征描述符具有旋转不变性, 消除图像旋转、抖动带来的影响, 使得对特征点对的描述更具相似性和唯一性。

3 特征点匹配与生长

在密集匹配过程中, 首先利用主运动约束来估计无人机影像对之间的相对运动量, 完成影像对间特征点的初匹配; 然后通过初匹配得到的匹配点计算出影像对之间的单应矩阵和基本矩阵; 最后通过单应约束和极限约束实现特征点生成, 生长的种子点为初匹配所得到的匹配点。

3.1 特征初匹配

3.1.1 主运动约束

对于小型无人机拍摄的视频图像, 主运动约束通过视频图像帧相对运动来估计无人机的全局运动。主运动约束在无人机电子稳像、运动目标识别等领域应用广泛。无人机运动估计方法一般分为 3 类: 基于图像块、图像特征和像素灰度值。基于图像块的运动估计运算量大; 基于图像特征的运动估计在特征匹配中存在一些错误匹配, 影响匹配精度; 像素灰度值运动估计运用图像大量灰度信息, 且运算比较简单。本文采用灰度投影与块匹配相结合的方法来估计无人机全局运动。

灰度投影法根据图像灰度的总体分布变化来估计图像序列的帧间运动量[19]。灰度投影方法只适用于行列方向运动估计, 对于存在旋转的视频图像计算精度不高, 故通过选择若干个 16×16 个大小的图像块来估算视频图像帧之间的旋转角度。

图 4 中,,,,和为图像标记物(大小为16×16), 图像发生旋转后, 上述 5 个标记位置变为,,,和。

我们利用上述方法估计无人机视频图像帧之间的全局运动, 通过该运动来限制图像对应点的匹配区域。这样, 既可以减少匹配时间, 还可以提高匹配精度。

图4 图像旋转

Fig. 4 Image rotation

3.1.2 匹配规则

初匹配: 根据两个特征点的 25 维特征向量的欧氏距离, 判别两点是否为匹配点。25 维特征描述向量中方向特征向量和数量特征向量分别采用不同的距离阈值来限制。具体规则如下: 1) 计算待匹配特征点之间25维特征向量中前 13 维特征向量的欧氏距离; 2) 计算待匹配特征点间最后12 维特征向量的欧氏距离; 3) 若前两者计算的欧氏距离都小于规定阈值, 则确认此两点为匹配点。

初匹配过程中阈值选择: 规则 1 中阈值取 15, 规则 2 中阈值取 8。阈值的确定主要考虑 25 维特征描述向量中方向特征和数量特征, 相比较的两个特征点的25维特征描述向量欧氏距离越短(对应阈值越小), 表明特征越相近, 匹配的概率越大, 但阈值太小, 相应的匹配点对数量会降低, 因此阈值确定需要考虑匹配精度和匹配点对数量双重因素。本文采用的阈值是通过多组无人机视频影像数据匹配试验所得到的经验值, 规则1中阈值(15)比规则1 中阈值(8)大, 主要是受到点梯度特征向量的影响。

3.2 密集匹配

3.2.1 极几何约束和单应约束

1) 极几何约束。

极几何是同一场景两幅图像之间的几何关系, 它独立于场景结构, 只与相机内、外部参数有关[16]。

对于左图像极线, 在右图像上存在对应极线; 对于上一点,在上都存在一点与之对应(), 根据极几何约束关系, 基本矩阵满足:

。 (11)

可以得到基本矩阵的关系式:T=0。

2) 单应约束。

计算图像间变换单应矩阵的目的是实现图像之间对应点的坐标转换。相机在不同位置对空间中同一场景进行拍摄, 获取不同角度的图像。以两幅图像和(视频中对应为每一帧图像)为例,和两幅图像上相应位置上的点=(1,1, 1)T与=(2,2, 1)T之间存在如下对应关系:

其中,为非零常数,为单应矩阵。

在本文中, 通过初匹配获得影像对, 再通过RANSAC方法消除部分误匹配点, 并解算左/右像对对应的基本矩阵以及影像对之间的单应矩阵。通过左/右极线的对应关系(基本矩阵)以及左/右像点对应关系(单应矩阵)来限制影像对特征点的匹配范围, 减少匹配误差, 提高后续密集匹配的精度。

3.2.2 特征点生长

密集匹配点对需要从初匹配的点对中生长而来, 在点对生长过程中, 利用极几何约束和单应约束条件, 缩小影像对之间特征点匹配的搜索区域, 以减少特征点匹配所消耗的时间。以图 6 为例, 在左图像中点为初匹配的特征点, 在点 3×3 的邻域范围内寻找与点差值最大的两个点和, 通过基本矩阵和单应矩阵分别计算和在右图像的位置区域。右图像中 3 条平行线为点对应的极线,′是通过单应矩阵得到的点对应点。极线垂直方向上 2 个像素区域与′圆形区域(半径为 2 个像素)间的重叠区域为点在右图像上的匹配区域, 即在该区域内寻找与点相匹配的点。点也进行相应的处理, 其对应的匹配区域在右图像上未标出。

特征点匹配的过程中依然采用特征描述符 S-DASIY以及前文所述的匹配规则。将新匹配的点对加入到种子点中, 依次生长, 直到没有新的匹配点为止。

4 实验结果

4.1 实验数据

本文实验数据为小型无人机拍摄的航空视频影像。实验中采用 3 组影像数据(图 7), 分辨率分别为 1280×720, 1600×1200 和 1920×1088。实验中使用的计算机配置为: 处理器, Intel(R) Core(TM)2 Duo CPU E7300 @2.66 GHz; 内存(RAM), 4 G; 显卡, NVIDIA GeForce 9800 GT; 操作系统: windows7 64位; 程序运行平台, Microsoft Visual Studio 2010。

4.2 实验步骤

本实验对无人机视频图像进行处理, 实现密集匹配。具体实验步骤: 1) 首先输入无人机视频图像的相邻图像帧, 进行去噪处理; 2) 运用灰度投影与块匹配相结合的方法来估计主运动; 3) 利用 Harris角点检测算法检测角点, 并生成角点的特征描述符; 4) 通过主运动约束完成特征点的初匹配; 5) 利用RANSAC 算法取出异常值, 计算基本矩阵和单应矩阵; 6) 特征点生长, 实现密集匹配。实验流程如图8所示。

4.3 实验结果与分析

通过 3 组实验数据, 得到相应的密集匹配点对。在主运动约束的情况下, 计算左图像的每个特征点与右图像相应区域内(10×10)特征点特征描述符的欧氏距离, 将距离小于阈值(本文取阈值为 15)的特征点确认为匹配点, 最终得到初匹配点对。3组数据中: 1280×720 数据检测到的角点比较少, 是因为地物背景比较均匀, 建筑物比较少; 在1600×1200 数据和1920×1088数据中, 角点个数在4000 个左右, 甚至更多(本文限制角点数量最多为5000 个)。3 组数据的初步生长点对为 11000。具体的数据对比见表1。

表1 匹配点对个数

图9为数据1920×1088的密集匹配结果图。通过初步生长点对为种子点, 进行密集点匹配生长, 在单应约束和极几何约束的条件下, 3 组数据得到的密集匹配点对分别是1142023, 1421633 和1343420 (见表1)。

在生成特征描述符时间消耗方面, 本文选择与处理速度比较快的 siftGPU 相比较(表 2)。siftGPU是GPU版本的SIFT描述子提取和匹配的开源程序[20], 利用大量显卡图形处理单元并行处理, 其运行速度比 CPU 环境串行处理的 SIFT 提高很多, 在处理批量图像方面速度也比其他方法快, 是当前处理速度最快的特征提取和匹配算法之一。

对于不同分辨率视频图像分辨, 各选取 3 组影像对进行比较。从表2中可以看出, S-DASIY算子在生成特征点消耗的时间比 siftGPU 明显少很多。siftGPU算子在图像建立梯度空间时消耗大量时间, 而无人机拍摄的视频图像, 帧与帧之间的亮度变化和几何畸变都比较小, 因此 S-DASIY 算子没有建立梯度空间, 而是根据特征点周围的灰度信息来生成相应的特征描述符, 减少了特征生成所消耗的时间。我们发现, 对于分辨率 1280×720 的 3 组数据和1600×1200的 3 组数据, 本文算法效率提高6倍左右; 对于分辨率 1920×1088的 3 组数据只提高2倍左右。通过分析发现, siftGPU处理时间与图像所生成的梯度空间所占用显存空间大小相关, 由于受图像长宽影响, siftGPU 在处理图像时分配内存不同, 这就是对于 1920×1088 分辨率数据, siftGPU消耗时间少的主要原因。在相同分辨率的 3 组数据中, 处理时间也会有波动, 主要与图像所检测到的特征点数量相关, 即检测到特征点多, 处理时间长,检测特征点少, 处理时间短, siftGPU 与 S-DASIY一致。

表2 特征检测和特征描述消耗时间

5 结论

针对无人机视频影像大量数据的密集匹配, 本文提出快速的特征描述和特征匹配方法。该方法结合 Harris 角点生成特征点的特征描述符, 并通过匹配规则进行匹配。在几组不同分辨率的无人机影像对的密集匹配实验中, 该方法明显减少特征生成所消耗的时间, 对于无人机视频影像这种高重叠度、大数据量的图像匹配重建有非常好的效果。初匹配的特征点数据主要受限于 Harris 角点数量, 影像对在极几何约束和单应约束的条件下进行特征点生长, 得到几万个特征匹配点对, 为三维重建、DEM等提供了很好的密集点云数据。

参考文献

[1]Zitová B, Flusser J. Image registration methods: a survey. Image and Vision Computing, 2003, 21: 977–1000

[2]Bentoutou Y, Taleb N, Kpalma K, et al. An automatic image registration for applications in remote sensing. IEEE Transactions on Geoscience and Remote Sen-sing, 2005, 43(9):2127–2137

[3]Li J M, Yan D M, Wang G, et al. An improved sift algorithm for unmanned aerial vehicle imagery. IOP Conference Series: Earth and Environmental Science, 2014, 17(1): 682–691

[4]Gong M, Zhao S, Jiao L, et al. A novel coarse-to-fine scheme for automatic image registration based on SIFT and mutual information. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(7): 4328–4338

[5]李忠新. 图像镶嵌理论及若干算法研究[D]. 南京: 南京理工大学, 2004

[6]Gupta R, Hartley R I. Linear pushbroom cameras. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997, 19(9): 963–975

[7]李志刚, 纪玉波, 薛全. 边界重叠图象的一种快速拼接算法. 计算机工程, 2000, 26(5): 37–38

[8]M. Smith S, M. Brady J. SUSAN — a new approach to low level image processing. International Journal of Computer Vision, 1995, 23(1): 45–78

[9]Harris C, Stephens M. A combined corner and edge detector // Proc of Fourth Alvey Vision Conference. Manchester, 1988: 147–151

[10]Lowe D G. Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision, 2004, 60(2): 91–110

[11]Bay H, Tuytelaars T, Van Gool L. Surf: speeded up robust features // Computer Vision—ECCV 2006. Berlin: Springer, 2006: 404–417

[12]Morel J, Yu G. ASIFT: a new framework for fully affine invariant image comparison. SIAM Journal on Imaging Sciences, 2009, 2(2): 438–469

[13]Mikolajczyk K, Schmid C. A performance evaluation of local descriptors. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(10): 1615–1630

[14]Ke Y, Sukthankar R. PCA-SIFT: a more distinctive representation for local image descriptors // IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC, 2004: 506-513

[15]Tola E, Lepetit V, Fua P. A fast local descriptor for dense matching // IEEE Conference on Computer Vision and Pattern Recognition. Anchorage, AK, 2008: 1–8

[16]郑志刚. 高精度摄像机标定和鲁棒立体匹配算法研究[D]. 合肥: 中国科学技术大学, 2008

[17]蔡龙洲, 余涛, 谢东海, 等. 基于无人机图像的密集匹配方法研究. 测绘科学, 2013, 38(5): 126-128

[18]王竞雪, 朱庆, 王伟玺. 多匹配基元集成的多视影像密集匹配方法. 测绘学报, 2013, 42(5): 691–698

[19]钟键. 基于对极几何的图像匹配研究[D]. 长沙: 中南大学, 2010

[20]Wu C. SiftGPU: a GPU implementation of scale invariant feature transform (SIFT) [R]. Chapel Hill, NC: University of North Carolia at Chapel Hill, 2007

Feature Description Method in Dense Matching of UAV Video Images

WEI Yunpeng, ZHAO Hongying†, XIN Tiantian, ZHENG Hongyun

Institute of Remote Sensing and Geographical Information System, Peking University, Beijing 100871; † Corresponding author, E-mail: zhaohy@pku.edu.cn

In order to reduce the time consumption of UAV video image dense matching, and improve processing efficiency, this paper presents a fast feature description and feature matching method. The method uses Harris operator to detect corners, adopts feature descriptor S-DASIY (DASIY) to characterize detected corners and generate the 25-dimensional feature descriptor for the corners. The feature points of the images are matched in accordance with the appropriate matching criteria, to get the match points between images. Experimental results show that the proposed fast feature description and feature matching method can significantly reduce the time of generating and matching feature points.

UAV; dense matching; feature descriptor; video images

10.13209/j.0479-8023.2016.063

TP751

国家自然科学基金(41371492)资助

2015-05-31;

2015-09-02;

网络出版日期: 2016-10-18

猜你喜欢
特征描述角点密集
船舶尾流图像的数字化处理和特征描述技术
耕地保护政策密集出台
今日农业(2021年9期)2021-11-26 07:41:24
密集恐惧症
英语文摘(2021年2期)2021-07-22 07:56:52
基于FAST角点检测算法上对Y型与X型角点的检测
目标鲁棒识别的抗旋转HDO 局部特征描述
自动化学报(2017年4期)2017-06-15 20:28:54
用于三维点云表示的扩展点特征直方图算法*
基于边缘的角点分类和描述算法
电子科技(2016年12期)2016-12-26 02:25:49
基于圆环模板的改进Harris角点检测算法
基于差异的图像特征描述及其在绝缘子识别中的应用
电测与仪表(2015年3期)2015-04-09 11:37:56
欧盟等一大波家电新标准密集来袭