史珂路,田军委,雷志强,张欢欢,孙 雷
1(西安工业大学 电子信息工程学院,西安 710021)
2(西安工业大学 机电工程学院,西安 710021)
当高层建筑发生火灾时,若遇内部停电停水则消防设备难以使用,在城市道路拥堵且云梯长度有限的情况下,消防设备不易接近起火点,严重影响高层建筑火灾扑救,对生命财产造成不可估量的破坏[1].高空灭火无人机因其地形适应性好、具备垂直起降能力和悬停能力,能很好的承担高层建筑灭火任务.
高空无人机在灭火时首先需要精确测量灭火点和无人机的间距.目前,常见的检测方法有: 超声波测距[2]、激光脉冲测距[3]、红外测距[4]、光学测距[5]和立体视觉测距[6]等.超声、激光、红外测距法属于主动测距法,因其发射和接收设备价格昂贵,反射、噪音、交叉等环境问题难以解决,因而主动法测距不具有普遍应用性.
双目立体视觉测距系统具有信息丰富,探测距离广,外界干扰较小,反应快,响应时间短,系统构成简单,成本低等优点[7].双目视觉系统的测距精度,主要难点在于图像匹配的精度,本文目的旨在解决这一难点.左右图像匹配目前最常用的是动态模板匹配,目前已有不少研究成果.李军将动态模板匹配应用到导弹跟踪锁定目标的过程中[8]; 陈永雷将动态模板匹配应用到确定动态图像中的目标识别与跟踪方面[9].
Long Van、Nguyen-Dinh,Daniel等人[10]将动态模板匹配应用到小型可穿戴设备的在线手势识别系统中,提高了系统的抗干扰性.以上三种算法计算量大且实时性难以满足高空灭火的需求,本文结合实际应用环境,提出了一种权重融合的动态模板匹配算法.通过给三种动态模板匹配算法分配相应的权重,来达到去除误匹配点的目的,来提高测距精度.
本文所采用的双目立体视觉系统,将左右两个摄像机平行放置,点O1和X1Y1Z1组成的直角坐标系为左摄像机坐标系,点O2和X2Y2Z2组成的直角坐标系为右摄像机坐标系,x1y1z1为左图像坐标系,x2y2z2为右图像坐标系.测距原理图如图1所示.
从图1可得,设在摄像机坐标系下,P点的坐标为(X, Y, Z),左图像坐标系下坐标为 (x1,y),右图像坐标系下的坐标为(x2,y).P点在X-Z平面投影如图2所示.
根据图2,下列关系式成立:
图1 双目测距原理图
图2 X-Z平面投影图
双目视觉测距系统可实现远距离目标搜索、定位、测距和跟踪等功能,并实时将目标相对坐标位置和距离参数传送给主控系统.系统结构如图3所示.
图3 双目测距系统总体方案框图
该系统由云台子系统、视觉测距子系统和电源子系统三部分构成,其中云台子系统实现远距离目标搜索和跟踪等功能,视觉测距子系统用于远距离测量(距离、尺寸、坐标)等参数、并将这些参数通过通讯总线传送到无人机的中央信息处理系统.
双目视觉测距系统的实验平台主要由: 两个200万像素的摄像机、一个三脚架、一个微型主控板、一个显示屏、一个测距仪、供电电源等组成.本文后续的测距实验是在两摄像头平行放置,并且基线距离为300 mm的情况下进行的.其中精密测距仪,可以精确测量目标的距离,测程范围为2~2000 m,测量误差为±1 m,本实验最终会将实验平台所测的数据与测距仪测得的数据进行对比和分析,得出结果.
2.金融支持下第一产业增长效率实证分析。测算结果显示2000-2017年间,陕西省金融支持第一产业增长效率测度结果可以分为2000-2009年和2010-2017年两个阶段。2000-2008年之间,陕西省金融支持第一产业增长效率经过一段波动调整时期,表现为2002年、2003年和2006年,技术效率指数均小于1,均无效。金融支持第一产业增长效率低这一现象在2003年前后表现最明显。2004年、2005年、2007年和2009年,金融支持第一产业增长的过程中,存在技术效率为1,而综合效率无效的情况,说明第一产业的规模效率无效,需要通过产业结构的优化配置等途径提高规模效益和生产效率。
为了减少后续算法的计算量,首先双目摄像机将采集到的彩色图像使用加权平均值法转化为灰度图像;然后对左摄像头采集图像进行感兴趣区域提取,获得模板图像; 然后对模板图像和右目指定区域进行中值滤波,平滑掉图像的噪声,保留图像细节,然后对图像进行直方图均衡化,提高目标与背景的反差,达到增强图像的目的; 最后使用Soble算子对图像的边缘进行处理,提高边缘的清晰度.预处理算法流程图见图4.
图4 图像预处理算法流程图
感兴趣区域(简称ROI)即一幅图像中最能引起观察者的关注的部分,最能表达图像的重点内容的区域.只对图像的感兴趣区域进行相应的操作,这样可提高系统的运行效率,还可降低非感兴趣区域对结果产生干扰[11].
本文采用基于图像分割技术来提取ROI,但是传统的图像分割算法复杂度高、效率较低,不能满足本课题实时性的需求,因此,笔者提出一种新的提取感兴趣区域的思路,即我们设定左目中心虚框内获取到的图像为模板图像T,将模板图像T从整幅图像中提取出来,然后右目在区域S内进行逐点扫描,进行相关匹配:
本系统的感兴趣区域是左目的模板图像T,如图5(a)所示,和右目的指定区域S,如图5(b)所示.
图5 ROI提取示意图
图像匹配是图像处理领域中极为重要的技术,它是在不同传感器对同一目标在不同视角下得到的两幅图像中找出相似的特征点,根据匹配算法计算两幅图像的关联程度[12].目前,应用比较广泛的匹配方法是基于图像灰度的模板匹配方法,模板匹配算法原理通俗易懂,算法实现相对容易,匹配精度高.目标不确定的情况下,如果根据固定不变的预知模板图像进行模板匹配,则很容易导致本测距系统应用范围狭窄.为此,我们采用动态模板匹配算法.动态模板匹配算法不是预先制定目标模板,而是在无人机探测的过程中,根据当前的图像动态,自动生成目标图像作为模板进行匹配.
本文所使用的OPENCV环境提供了六种动态模板匹配方法,以此为基础,本文提出一种基于权重融合的动态模板匹配算法.三种动态模板匹配的相似性度量函数如下:
1) 归一化平方差匹配法(TM_SQDIFF_NORMED)
3) 归一化相关系数匹配法(TM-CCOEFF_NORMED)
以上三种归一化的匹配方法中,归一化相关系数匹配法的误判率是最低的,但是在实际应用中对于运动目标匹配的实时性和准确性还不能满足我们的要求.因此我们采用融合以上三种匹配方法,就是给以上三种归一化的匹配方法分配不同的权重,误判率相对较低的分配的权重最高,误判率相对较高的分配的权重最低.通过融合可以进一步提高算法的性能[13].其相似性度量函数为:
其中,公式(6)中R1(x,y)表示归一化平方差匹配法,R2(x,y)表示归一化相关匹配法,R2(x,y)表示归一化相关系数匹配法.R(x,y)越大表示匹配效果越好.
完整的双目测距算法流程如图6所示.
图6 双目测距算法软件流程框图
实验设置和流程如下: 实验是由A、B、C、D人组成,测量范围0~100 m,实验时间2017年3月26日,下午4点,晴天,光照良好.A为目标,以固定间距运动,每次间隔5 m; B负责用本文设计的测距系统测量出目标人物与摄像头的距离; C负责记录视差和距离的实验数据,D负责录像.
实验过程如图7(a)所示; 显示屏中的内容截图如图7(b)所示,其中,上图为左目摄像头的图像,下图为右目摄像头的图像,右上角显示视差信息.
图7 实验过程与显示截屏图
匹配实验数据如表1.
表1 匹配实验数据
通过对表1中的实验数据得知: 5 m到10 m,视差变化了422个像素,距离变化了5 m; 10 m到15 m,视差变化了113个像素,距离变化了5 m; 15 m到20 m,视差变化了49个像素,距离变化了5 m; …,95 m到100 m,视差变化了4个像素,距离变化了5 m,从而得知视差与距离是非线性的关系.
根据表1匹配实验数据画出距离与视差的曲线关系,如图8所示.
图8 距离与视差的曲线关系图
通过以上分析可知: 视差与距离是非线性的关系,因此我们采用多段非线性补偿法求视差与距离的关系.根据测量误差小于一米的要求将视差曲线分成n条小线段或者切线,将这些小线段连起来形成折线,从而实现非线性补偿的效果,为了保证补偿曲线精度,曲线划分段数需保证一定数目.
根据表1的匹配实验数据,并经多次实验最终确定n=10.采用非线性补偿法对视差曲线进行分段,对每一段进行求解,得到距离d1与视差的非线性关系,如式(7)所示:
将已经建好的距离与视差曲线几何关系模型加入到算法程序中去,再进行相关实验,实验过程如匹配实验所描述,得到的数据结果如表2所示.
将表2中的实际距离和绝对误差绘制成曲线图,如图9所示(单位: m).
表2 距离与视差关系模型d的实测结果
图9 模型的绝对误差图
从图9可以看出,模型d在50 m内误差在1 m以内,在50~100 m误差保持在2 m以内,精度比较好,可以满足系统要求.从表2中可以计算出匹配精度: 首先计算每5 m视差的变化量,然后求100 m内视差变化量的平均值,通过计算可得匹配精度为6.947 pix/m.
为了解决传统的双目测距算法存在的缺点: 实时性差,算法复杂,匹配精度差等.本文提出了一种基于融合动态模板匹配的双目测距算法,该算法具体实现相对简单、容易理解实时性和匹配精度高等优点,经过实验验证满足高空无人机灭火在径向100 m以内的精确测距需求.在下一步的工作中,笔者将进一步提高匹配算法的精度,使匹配结果更加准确.