基于计算机视觉的三维视图拼接系统

2014-10-21 19:57常文慧李靖方滨
计算机光盘软件与应用 2014年24期
关键词:计算机视觉

常文慧 李靖 方滨

摘 要:在医学影像技术的近红外层析成像方法中,获取人体结构轮廓几何参数的精确性直接决定了人体内病变组织探测的精度。基于此,文章利用计算机视觉技术,采用线结构光投影法获取不同视图的三维点云数据,并在此基础上提出一种三维点云的拼接方法,为近红外扩散光层析成像技术的进一步深入研究奠定基础。实验验证,该方法可以准确的对目标物体进行替代,提高了系统拼合的精度,避免了传统标识方法难以识别标识物及在被测物体表面粘贴标识物引起的误差。

关键词:计算机视觉;线结构光;点激光标识点;三维拼接

中图分类号:TP391

医学影像技术在社会医疗中占有重要位置,它为医生正确诊断病情提供了可靠的依据,其中扩散光成像技术中的基于近红外的扩散光层析成像(NIR-DOT)是一种无损伤生物体检测方法。近些年来该技术越来越多的应用于脑功能成像、乳腺癌检测[1]等科研领域。在NIR-DOT的技术方案中,构建所研究生物体外部轮廓的几何模型是需要解决的关键问题,该环节对研究生物体内部包含异质体的探测精度有着较为直接的影响[2]。

目前,随着科学技术的飞速发展,结构光三维测量技术日趋成熟,但由于其需要高精度的机械驱动装置,从而使得成本大为提高,对于普及和应用带来一定的障碍。本文针对上述问题开展了利用线结构光进行三维测量方法的研究,利用不规则凸体模拟人体生物组织进行三维重建。在本文的方法中,被测物体置于固定的工作平台上,垂直标定板、激光器和摄像机均放置于旋转台上,在利用步进电机带动线激光器完成某一视角的扫描后,将旋转台转动一定角度继续进行另一视角的扫描[3],实验装置如图1所示。在实验中,首先利用线激光器向被测物体投射结构光,利用摄像机采集经被测物体高度调制后发生畸变的光条,对该光条图像进行预处理、阈值分割、条纹细化后,利用摄像机标定与结构光平面标定技术及各坐标系之间的变换关系得到不规则凸体表面的三维点云数据[4],由于该方法每次只能获得单一视角的点云数据,且不同位置得到的点云视图所处的坐标系均是相对于由所在扫描视点定义的一个坐标系而言,故在不同视角检测到的即使是物体上的同一点,其坐标值也会因为坐标系的不同而不同。因此,必须将各视角采集到的点云视图进行必要的坐标转换使其放置于同一坐标系中,该技术即称为三维视图拼接[6]。

1 点激光标识点拼接的基本思想

三维重建的过程主要包括图像采集、点云视图计算、三维视图拼接,视图整合等环节。该过程中,三维视图拼接作为其中的关键环节,主要通过寻找两视图对应点之间的关系完成视图间的转换,而此环节对应点选取的准确与否直接影响着3D测量系统的整体精度 [5]。基于此,本文提出将点激光作为标识物的方案,根据在空间中物体存在六个自由度(X,Y,Z,α,β,γ)的原則,实验选择至少六束点激光按特定顺序依次投射至被测物体,在采集到调制后的激光图像及图像处理后,利用摄像头、垂直标定板、线结构光平面间的几何坐标关系计算获得六个激光标识点在各视角的三维坐标,从而精确的获取两幅相邻视图的对应点信息。以某单一的激光点为例,在相邻两视角下得到的调制图像如图2所示。

在相邻视图标识点图像的获取中,每束点激光应投射于相邻两视图的重叠区域,此外需保证所有投射激光点不位于同一直线上。此环节可根据标识点的空间几何不变性,对具有较大误差的标识点进行删除。假设在两相邻视角下得到标识点集O和P。

分别对O中每个点计算该点与任意其他两点构成的法向量,将获得的两组平面法向量进行依次比较。因为在不同视角的标识点间其相互位置并未发生改变,故任意三个标识点所构成平面的法向量并不会由于视角的改变而有所变化。然而在实际的三维点云获取过程中,测量系统获得的点云坐标信息无法避免存在误差。基于此,本文提出如下准则:

(1)设定阈值δ(δ的值依三维测量系统本身的精度而定),如果两组对应向量间夹角不大于δ,则认为两个向量具有相同的方向。

(2)对相邻视角下的同一标识点,其与该视角下任意其他两标识点间平面法向量有若干个至少是相等的,若相等向量的数目超过设定值N(N视标识点在重叠区域的数量情况而定),那么可以认为该相邻视角下的标识点是对应标识点对。

2 坐标系转换参数

三维视图拼接的核心是将处于多个不同坐标系中的三维点云转换到同一坐标系中,即对不同坐标系间的旋转矩阵R和平移向量T进行获取。由于在相邻两视角下获得的点云视图本身具备刚体的特性,因此两视图重叠区的对应标识点对即可分别代表其所在点云视图的坐标系。故实现两视图间的转换仅需确定两视图标识点对间的转换关系即可。

假设两个视角下的对应标识点对P和O:

式中的Pi和Oi为3×1的向量,n为相邻视图重叠区域对应标识点对的个数,在此应确定 和 使得下列目标函数具有最小值:

在旋转矩阵和平移向量的计算中,由于考虑到四元数法在转换速度方面效率较高,本文采用单位四元数法对R和T进行求取,首先设旋转变换向量为单位四元数qR=[q0,q1,q2,q3]T,其中q0≥0并且q20+q21+q22+q23=1,可得3×3旋转矩阵R(qR),设平移向量为qT=[q4q5q6] T,即可获得完整的坐标变换向量q=[qR丨qT]。公式(3)可转化为:

算法思路如下:

1)计算点集P和O的重心μp,μo.

2)构造P和O的协方差矩阵.

3)利用2中结果构造4×4的对称矩阵:

式中I3是3×3的单位矩阵, 是矩阵 的迹,△=[α23α31α12] T,△T为△的转置, ;

(1)计算 的特征向量和特征值,最优

的旋转向量即为最大特征值所对应的特征向量:qR=[q0,q1,q2,q3]T,利用旋转矩阵与单位四元数之间的变换关系得到R(qR):

(2)在得到旋转矩阵R(qR)后,即计算最优平移

向量 : 。获得R和qT之后,对于点集P中的任意一点Pi,都可以得到Pi转换到点集o坐标系下的Pi'。

3 实验结果与分析

在实验前,首先对该三维测量系统进行标定测试,以确定整个系统的精度,测试实验选取长51mm,宽27mm,高94mm的长方体盒作为被测模型,最终得到的实际测量数据为:

长:51.6mm 宽:27.3mm 高:95.1mm

从实际的测量数据可以看出,该3D扫描系统可以比较精确的还原被测物体的3D模型,本次测试系统的最大误差为1.17%。

在另一实验中,将小卫雕像作为目标物体。实验中步进电机带动线激光器进行步进角为1.8度的单视角扫描,单次扫描完成后,将旋转台逆时针转动30度,进行下一个视角的扫描,扫描时物距为30cm,光学镜头有效焦距为3.6mm。为避免外界光线对实验造成的干扰,整个实验在暗室中进行。其中采集到相邻位置的两幅视图如图3所示。

第一幅视图由6942个三维点构成,第二幅视图由9882个点构成。本实验共采用了8个激光点作为标识点,经过图像处理、有效点提取及坐标转换后。得到两视图拼合后的点云图像如图4所示。

同理,将全部点云视图中的相邻视图进行两两拼合后放置于同一坐标系中处理后,最终得到完整的3D模型点云视图如图5所示,从图中可以看出,拼接后的点云模型完整、清晰的反映出了物体的三维轮廓信息,其尺寸也可以清楚的获得。

4 结束语

本文对结构光三维扫描系统的工作过程进行了分析,设计出完整的三维测量系统并提出一种三维视图拼接方法。该方法利用激光标识点对点视图进行配准,通过提取和匹配标示点将全部视图变换于同一坐标系中。相比传统配准方法,该方法不需在目标物体上粘贴标识点或固定球,故不存在物体三维数据丢失问题。此外,由于该方法标识点个数少,也降低了数据处理、特征匹配的复杂度。从实验结果可以看出,该方法操作简单且能达到较高的精度,在不需要大规模硬件投入的条件下,解决了结构光三维扫描无法获取被测物体全方位形状信息问题。

参考文献:

[1]戴卫军,唐燕妮.基于机器视觉的蜂窝陶瓷检测系统研究[M].计算机测量与控制,2011(12).

[2]Ma,Shujing,Fang Bin,“Optical image reconstruction using frequency-domain simulations: Optimization of detector positions[C],”,Proceedings of 2012 International Conference on Modeling, Identification and Control,ICMIC 2012:68-73.

[3]Tsai,R.Y,“An efficient and accurate camera calibration technique for 3d machine vision[C],”IEEE Conf. Computer Vision and Pattern Recognition. Miami Beach,FL,1986:364-374.

[4]Simon Winkelbach,Sven Molkenstruck,and Friedrich M.Wahl,“Low-Cost Laser Range Scanner and Fast Surface Registration Approach[C],”Lecture Notes in Computer Science, v4174LNCS,2006:718-728.

[5]Gao Y,Wang M,Ji R,Wu X,Dai Q,“3D object retrieval with hausdorff distance learning,”IEEE Transactions on industrial electronics 2013(61):2088-2098.

作者簡介:常文慧(1985.10-),女,河北衡水人,硕士,助教,研究方向:机器视觉、计算机测量仿真。

作者单位:燕京理工学院 信息科学与技术学院,河北廊坊 065201;北京工业大学 电子信息与控制工程学院,北京 100124

猜你喜欢
计算机视觉
基于深度卷积神经网络的物体识别算法
双目摄像头在识别物体大小方面的应用
危险气体罐车液位计算机视觉监控识别报警系统设计