李振宇,李 林,朱晓峰,刘光东,张 超,罗文婷
(1. 福建农林大学 交通与土木工程学院,福州 350108; 2. 福建省高速技术咨询有限公司,福州 350002;3.南京工业大学 交通运输工程学院,南京 211816)
高速公路两侧护栏(以下简称“护栏”)作为高速公路基础设施的重要组成部分之一[1],具有划定车辆安全行驶区域、诱导行车视线、防止车辆冲出路面、吸收车辆发生碰撞时能量、保护车辆和司乘、减轻事故伤害等作用,其结构完整性是发挥引导和保护作用的重要基础[2-3]。为保障护栏结构的完整性,高速养护部门需要对护栏展开巡检作业,防患于未然。现阶段对护栏的巡检作业主要是由人工完成,人工作业效率低、周期长、成本高、具有较大的安全隐患,逐渐无法适应高速发展的养护需求,因此,提出了结合双目视觉、护栏识别模型、改进的边缘提取以及线性拟合分析的护栏形变检测及里程定位方法,以提升巡检作业中的安全性、准确性和高效性。
近年来,针对护栏的自动检测国内外学者开展了一些研究,主要包括基于激光雷达的3D点云建模、融合雷达数据和机器视觉检测以及基于图像处理和机器视觉的目标检测等方法。激光雷达往往具有检测精度高、检测速率慢的特点。Jiang等[4]在车载激光雷达移动过程中获得3D点云数据组成的扫描激光线,通过分割激光线提取候选扫描护栏特征,根据候选扫描特征估算网格特征点,使用网格跟踪算法细化网格特征点获得最终的检测结果。郭斌[5]通过划定三维感兴趣区域,在感兴趣区域内处理激光雷达数据,提取护栏特征,降低了非目标冗余数据对运算速度的影响,但存在感兴趣区域固定的问题,不能很好地适应所有场景。在融合雷达和机器视觉技术的检测过程中,将来自雷达传感器和相机的数据相融合,从而检测出周围和前方的目标物。Broggi、Alessandretti等[6-7]提出了一种将雷达和图像视觉数据相融合的护栏检测方法,护栏检测过程中首先使用Sobel算子对输入图像处理滤除垂直方向上的特征,然后运用线搜索方法估计护栏所在区域,最后将雷达数据和图像搜索输出相匹配,从而实现护栏检测。Matsumoto等[8]使用移动测绘系统(MMS)同步采集道路环境周围的点云数据和图像数据,分别对点云数据和图像分割、裁剪,使用卷积神经网络对裁剪后的图像进行分类检测,获得护栏目标后再由点云数据重建三维模型。Wada等[9]则借助护栏上的3D反射器实现对护栏信息的收集和检测。基于图像处理和机器视觉是当前目标检测任务中最常用的方法,也被用于护栏检测领域,在当前的发展阶段逐渐趋于成熟,该方法具有便捷性、低成本、高度自动化的特点。王旭华[10]根据护栏线性和凹陷特征采用可控制滤波器对护栏进行检测,对图像做逆透视变换,在此基础上构建护栏模型,再通过后续的可控制滤波器初始化检测模板、自适应模板匹配和模型拟合护栏特征等步骤实现检测目的。Zhu等[11-12]采用传统的图像处理方法对高速护栏进行检测,通过方向梯度直方图和局部二值模式的特征融合获取护栏特征集,再利用主成分分析及聚类算法最终实现护栏的检测。Scharwachter等[13]使用立体相机检测高速护栏,提出了一种特征编码方法,将护栏的几何信息和外观特征相匹配,基于霍夫(Hough)直线变换获得潜在的护栏特征,设置护栏检测的线性和高度期望值对潜在特征进行筛选,再使用随机森林聚类算法最终得到护栏特征。Stein[14]开发了一种驾驶员辅助系统用于检测沿道路的护栏结构,该系统采用单个相机安装在车辆上,向前行驶过程中捕获连续图像,通过处理图像中的护栏相对车辆的运动,响应车辆的前向或横向运动,从而达到提醒驾驶员行驶状态目的,完成辅助驾驶功能。以上方法在护栏检测任务中提供了不同的思路和方法,却存在一个普遍的问题,即缺少对护栏的形态状况作进一步分析和评估。王尧等[15]在高速铁路场景下提出了一种基于机器视觉技术的高速铁路线路护栏完整性自动检测系统,该系统通过安装在高速铁路检测车上的2台摄像机获取铁道两侧的护栏图像,通过图像处理和自动识别,进而判断护栏的完整性。王胜春等[16]提出了一种基于全景拼接的技术实现铁路护栏的缺损检测方法,该方法通过提取图像的灰度均值和方差构建二维直方图实现铁路护栏的自动识别和缺损检测。
激光雷达数据量大、使用成本较高;融合雷达和机器视觉技术具有一定的灵活性,但多传感器下的数据融合使系统复杂、计算量大;图像处理和机器视觉的方法具有便捷性、低成本、高度自动化的优点,随着深度学习的发展,为护栏的检测提供了更多选择。因此,文中在已有方法的基础上,引入深度学习技术,进一步展开护栏的识别和形变检测研究,并结合高速里程桩号,实现对检测到的形变护栏进行里程定位。
数据由道路巡检设备在高速公路上采集得到,如图1所示,组成部分包括双目相机、定位模块(GPS)、惯性测量单元(IMU)、边缘计算单元。双目相机架设在车顶位置,能够实时获取当前采集点对应的前景图像、深度图像和速度、距离、经纬度坐标等传感器信息。
开展采集工作时,巡检车辆最高限速Vm取值为120 km·h-1,GPS工作频率fz为10 Hz,即每秒钟接收10条经纬度坐标信号,采集设备按触发距离ds保存数据。计算当前经纬度坐标和上一帧图像采集时经纬度坐标的间隔,当该间隔大于触发距离时,触发采集图像,同时计算采集速度、采集间隔(当前采集点到上一图像采集点的距离)、采集距离(当前采集点到初始采集点的距离);当小于触发距离时,继续接收下一条信号。触发距离的设定应满足帧率和触发距离的乘积小于最大限速值,即式(1)所述条件,可得ds≤3.3 m,若触发距离过小,当行驶速度较慢时,相邻图像包含较多的重复信息,造成数据冗余,因此触发距离取值为3 m。
fz×ds≤Vm
(1)
图1 数据采集设备
表1所示的部分采集参数信息表,记录了图像采集时的经纬度坐标、采集速度、采集间隔和采集距离。图像编号0~2为开始采集时的参数信息,编号0对应采集的第一帧图像,此时的采集间隔和采集距离均为0;图像编号530~532为匀速行驶时的参数信息。
表1 图像采集信息
使用前景图像构建数据集,数据集包含图像2 400张,根据护栏的结构特点分为4类,单层单波护栏(G)、单层双波护栏(GD)、双层单波护栏(GS)和护栏连接点(GJ)。在构建数据集时使用多边形标注的方法对各类样本进行标注,各类标签数量如表2所示。
表2 各类标签数量 个
双目视觉是一种利用视差原理实现对视场内的目标点进行匹配,并实现距离测定的机器视觉方法[17]。如图2所示,目标点P(x,z)位于双目相机左右镜头对应的同一视场下,经过极线校正的两个镜头像平面位于同一水平面上,左右镜头满足极线约束,即式(2)所述条件,同一点的左图Y值坐标等于右图Y值坐标。当左右镜头分别拍摄对应的左右图像时,目标点位于两张图像的不同位置。为测定点P的深度距离值,即点P(x,z)到相机基线的距离z,需要确定目标P(x,z)在左图像中的映射点和在右图像中的映射点为同一目标点。假定PL为左图中拍摄到的目标点,对应Y值坐标为yl,在右图中相同的Y值坐标yr下,使用极线搜索的方式搜索目标点PR,并计算每个点对应的匹配代价,匹配代价最小的点为左右图中对应的同一个目标点。
yl=yr
(2)
式中:yl为左图目标点的Y值坐标,yr为右图对应目标点的Y值坐标。
图2 景深距离计算
基于双目匹配结果,确定左右图中的目标点后,利用三角相似计算目标点至双目相机距离z为
(3)
式中:b为左右镜头间距,f为焦距,xl、xr分别为目标左右成像点和Z轴的偏离。
双目视觉是当前立体视觉测定最常用的方法,相对只有在移动和标定条件才能计算深度的单目视觉具有更高的准确性。由于双目视觉采用极线搜索的匹配算法,计算量不到三目视觉算法的1/2,能够满足每秒钟10帧以上的采集频率。
设备向前移动过程中采集前景图像,计算各点的距离并记录在深度图中。相同目标物在连续图像中具有不同的深度信息,为避免同一段变形护栏在连续图像中的重复检测,需要结合深度信息划定每帧图像的检测区域,如图3所示。
图3 检测区域划定示例
经测量,双目相机架设位置离地高度约为2 m,相机镜头和地面平行。实线箭头指示采集行驶方向,采集点由L1移动至L2位置,两段变形护栏位于图示位置。h为相机至护栏的垂直高度,取值为相机离地高度和护栏高度之差,护栏高度约为0.8 m,故h值为1.2 m。w为双目相机在地面的垂直投影点到护栏的横向距离,可分为到左侧护栏横向距离wl和到右侧护栏横向距离wr,w随采集设备所在车道位置的变换而发生变化。高速干道由超车道、其余车道及紧急停车带构成,标准单车道宽度为3.75 m,紧急停车带为3.5 m。当采集行驶路段单侧车道数量为3条或3条以上时,由于路面较宽,横向距离值过大,难以同时对两侧护栏进行检测,因此采集过程中车辆行驶在第二车道或紧急停车带左侧的紧邻车道,采集的数据分别用于检测左侧护栏形变及右侧护栏形变,此时分别以wl、wr作为护栏检测的横向距离。参考波形梁护栏布设规范护栏立柱应保持到路肩边缘距离为0.25 m,wl约为5.875 m(3.75+3.75/2+0.25),wr约为5.625 m(3.5+3.75/2+0.25),考虑到车辆行驶过程中的侧向移动,为简化计算过程,wl和wr均取值为6 m,即w约为6 m。d1为L2采集点对应的采集间隔,等于L1、L2的间距,可直接从采集参数中读出,d2为L2采集点的预估采集间隔,由于两个采集点对应的采集速度变化很小,d2数值约等于d1,故直接取为d1。P1、P2分别为2帧图像检测区域的边界点。θ为L2P2在护栏高度平面的投影线与护栏直线的夹角、θ1为L2到形变护栏2区域中心连线在护栏高度平面的投影线与护栏直线的夹角。θ值由式(4)计算得到,θ1范围为(θ,π/2)。检测区域的划定应满足L1位置对应的图像用于检测变形护栏1,L2位置对应的图像用于检测变形护栏2,检测距离即对应L1P1、L2P2的直线距离,该范围内的护栏作为检测目标,超出范围的护栏在下一帧图像中划定检测区域后再进行检测。以L2位置采集点为例,L2P2算式为式(5)所示。
(4)
(5)
(6)
(7)
(8)
高速纵坡场景下,最大纵坡为3%,双目相机俯仰角不大于0.03 rad,相机所在平面、护栏高度平面、地面仍然相对平行,相机和护栏板的相对位置参数不变,以上方法在高速纵坡条件下同样适用。
图4 弯道示意
高速里程桩等间隔均匀分布,具有里程定位功能[18]。为方便对变形护栏进行养护维修,应获得其所在的里程位置。先使用训练好的YOLOV5模型对图像中的里程桩自动识别,获得预测框,再借助PaddleOCR在预测框内提取里程信息,如图5所示。最终,推算各采集点及变形护栏的里程位置坐标。
图5 里程桩识别和信息提取
图像采集点和变形护栏里程位置坐标推算流程如图6所示。检测到里程桩图像,通过信息提取、景深计算获得里程桩号信息和里程桩到采集点的距离,景深计算如式(9)所示。采集点的里程位置坐标为里程桩号信息减去景深距离值,使用该坐标对当前图像进行里程编号,并作为后续里程推算的参考点。未检测到里程桩的图像按式(10)计算采集点的里程位置坐标,得到的位置坐标同样作为图像的里程编号。检测到变形护栏时,通过图像的里程编号及检测区域深度信息计算变形护栏的里程位置坐标,算式为
(9)
式中:x1、y1,x2、y2分别为检测框的左上及右下坐标;Sij对应坐标点(i,j)的深度值;n为检测框内像素总数;S为目标到采集点的距离。
(10)
式中:L0为里程推算参考点,Lm为从上个参考点开始的第m帧图像对应的采集点位置坐标,di为第i帧图像的采集间隔。
LG=Lp+SG
(11)
式中:Lp为图像采集点的里程位置坐标,SG为按式(2)计算的距离值,LG为变形护栏的里程位置坐标。
图6 里程推算流程
由护栏的形状特点,选用基于实例分割的检测方法[19-23]不仅能检出护栏在图像中的轮廓,实现像素级的分割,而且能减少检测框内的其他背景目标。Mask_RCNN模型凭借经典的算法、高精度、易训练、易扩展的优势被广泛应用,在实例分割模型中一直保持着较高的识别精度[24]。文中选用Mask_RCNN网络模型作为护栏特征提取器,通过对数据库样本训练,获得0.973的AP50类平均精度(IOU阈值为0.5时的类平均精度)和0.81的召回率,损失值及mAP(AP在所有值下平均精度)变化如图7所示。
图7 训练评价指标曲线
护栏形变是造成其防护功能衰减的主要因素,当前有关护栏的形变分类、形变范围等度量参数并没有统一明确的技术标准。实车足尺碰撞实验中以护栏最大横向动态变形值及最大横向动态位移外延值作为护栏碰撞后的横向形变范围评价参数[25],但未对参数范围进行限制。刘彦等[26]提出的弯曲变形护拦板再利用评级指标表明266 mm为单块护栏可再利用的弯曲形变阈值,即长度为4 m的护拦形变挠度值在266 mm范围内时,仍然具有修复使用价值,当超出该值时则不再使用。该形变量阈值为形变存在条件下可修复利用的最大值,对检测护栏是否发生形变参考意义不大。对采集到的变形护栏数据统计分类,护栏形变类别大致可分为平行于地面的横向形变、垂直于地面的纵向形变、横向和纵向的组合形变,其中第一种形变及第三种形变为主要形变类别。
3.3.1 特征边缘提取
经过特征提取,获得图像中的护栏掩膜特征。为计算护栏形变状况,使用改进的边缘提取矩阵γ对目标边缘进行提取,γ如式(12)所示,矩阵各子元素对应式(13)所示的矩阵变换子函数。
(12)
(13)
表征了护栏轮廓特征的掩膜Ma作为输入,由式(14)的映射得到对应的二进制掩膜矩阵,二进制掩膜矩阵再由式(15)的变换函数变换到掩膜变换矩阵M,如式(16)所示。
(14)
式(14)中,映射f将掩膜映射至二进制掩膜矩阵。
(15)
(16)
不同的尺寸输入,有时需要进行补1操作,边缘提取过程中Y轴移动步长Sy为1,移动总步数Ny,X轴移动步长Sy为3,移动总步数Nx,算式为
(17)
式中:hm,wm对应为输入变换矩阵高度值、宽度值;Py为输入变换矩阵Y轴维度补1行数,取值为2;Px为输入变换矩阵X轴维度补1列数,为wm对3的取余值。
边缘提取矩阵对边缘的提取算式为
(18)
式中:Mw×h为补1后的输入变换矩阵,γyx为沿X轴滑动x步、沿Y轴滑动y步的边缘提取矩阵。
输入变换矩阵的边缘滑动计算如图8所示,左侧浅灰区域对应目标物,边缘提取矩阵滑动到图示窗口位置时,计算得到右侧的3×3子矩阵所示结果,上下边缘提取过程如式(19)所示。提取效果如图9所示。
(19)
式中:γ1j,γ2j,γ3j分别为输出子矩阵第1行第j列、第2行第j列、第3行第j列的子元素。
图8 边缘提取滑动计算
图9 护栏边缘提取效果
3.3.2 线性拟合分析
正常形态下的护栏具有直线特征,发生的异常形变通常为因碰撞造成的局部弯曲,文中提出使用线性拟合分析的方法判断护栏是否发生形变。利用一阶函数线性特性,对护栏轮廓的上下边缘做一阶拟合,获得拟合边缘线,计算拟合优度,拟合优度值越接近1,拟合效果越好,护栏边缘越接近直线特征,形变程度则越小,反之亦然。考虑到弯道处的护栏也具有弯曲特征,一阶函数可能无法恰当地拟合。由于高阶函数具有拟合非线性特征能力,所以对弯道处护栏使用一阶函数及三阶函数进行试探拟合,对比两条拟合线的相关性,相关性的强弱即表明拟合的接近或偏离程度,并对形变护栏采取相同操作,比较弯道护栏和形变护栏的拟合差异性。采用均方差来评估预测值和实际值误差,如式(20)所示,即预测值和实际值差的欧几里得范数平方与样本容量的比值。将J(W)作为代价函数,通过最小化J策略求得最佳权重系数。
(20)
式中:W为拟合权重系数,Y为实际值向量,P(x)为预测值。
(21)
(22)
(23)
式中:m为样本容量;n为阶数,一阶拟合、三阶拟合分别取1、3。
通过对图10弯道护栏及变形护栏的上下边缘试探拟合,分别得到一阶拟合边缘线及三阶拟合边缘线,如图10中直线和曲线所示。
通过使用欧式距离和样本容量的比值分析两条拟合曲线的相关性,如式(24)所示,越接近0表示相关性越高,反之亦然,其拟合优度值如式(25)所示,结果如表3所示。
(24)
式中:R为两条曲线的相关性;m为样本容量;y1i,y3i分别为一阶拟合线、三阶拟合线第i个预测值。
(25)
图10 护栏边缘拟合
表3 拟合优度值及相关性
由表3可得到初步结论:弯道处护栏的一阶拟合边缘线和三阶拟合边缘线相关性较高,接近于直线特征,可通过一阶函数对其近似拟合,形变护栏则不然。为进一步验证一阶函数对弯道护栏及形变护栏的拟合区分度,对180个护栏样本实例逐一拟合,其中弯道护栏样本75个,形变护栏样本105个,包括横向变形50个、纵向变形20个、横向及纵向组合变形35个。分别计算一阶和三阶拟合边缘线的拟合优度,以及两条拟合线的相关性,同时验证设备及算法对三类护栏形变的检测适用性。
通过对采集到的180个护栏测试样本统计发现,一阶拟合和三阶拟合边缘线的相关性和初步结论一致;三阶拟合边缘线对弯道护栏的拟合优度值均在0.99以上,对形变护栏的拟合优度值均在0.9以上,数量分布如表4所示,可见三阶函数的弯曲特征拟合能力能够表征护栏的边缘轮廓;一阶拟合边缘线对弯道护栏的拟合优度值均在0.98以上,其与三阶拟合优度值差值在(0,0.01)范围内,对形变护栏的拟合优度值在0~0.9范围内,0.8~0.9范围内的样本分布仅为4例,最大值为0.83,0.7~0.8范围内的样本分布为7例(见表4)。由拟合结果可知一阶拟合边缘线能够近似拟合弯道护栏边缘线,但对变形护栏的拟合能力不足,使用拟合优度值能够基本区分弯道护栏及形变护栏的形变特征。通过对所有形变护栏的拟合效果进行分析发现,现有设备采用车顶架设的方式能够突出显示护栏的纵向变形、纵向及横向组合变形以及大部分横向变形,对少数沿镜头视线方向的形变由于双目视觉的成像条件限制,区分度较小。
以上样本拟合测试实验未对护栏形变可识别的最小形变量或形变量阈值进行测定,原因包括采集点和护栏的空间位置差及护栏形变过程的随机性。采集点到形变护栏中心区域的方向向量和护栏形变方向向量通常不满足垂直条件,且两向量的夹角关系难以获知,无法测出其最大形变量。因此,无法对护拦形变位移的识别精度进行具体值的度量。文中提出的基于拟合优度值的护栏形变检测方法从机器视觉角度出发,无需测量护栏的实际形变量大小,当拟合边缘线优度值小于设定拟合优度阈值时即可判定为变形。拟合优度值的确定则通过样本检测经过统计分析来确定。
选择福州绕城高速福州西至福州南为试验路段,如图11所示,该路段内包含11处里程桩,桩号从K152下行至K142,全长约12 km,有11处变形护栏。
图11 试验路段轨迹
该路段为双车道,右侧设紧急停车带,巡检车辆行驶在第二车道,可同时对左右两侧护栏进行检测。在已知形变护栏分布情况、里程桩分布及里程信息的条件下,对实验路段采集的连续图像序列进行测试,对比验证算法的检测效果,检测对象包括里程桩识别及桩号信息提取、护栏识别及其形变状况的判断、推算变形护栏的里程位置坐标。由于护栏具有连续性特征,护栏识别准确率的统计以每帧图像划定区域范围内的识别结果为准,不同图像检测区域内的护栏段当作独立的目标进行计数。为保证检测算法的有效性及稳定性,在该实验路段采集3组数据,控制采集起点和终点、行驶车道、行驶速度、设备架设位置,采集时间段内车流量等采集变量参数基本一致,各组数据相互独立,分别进行检测统计。3组数据采集到的图像数量、包含有护栏的有效图像数量、同时对左右两侧检测区域内的护栏段统计所得到的有效护栏样本数量以及有效变形护栏样本数量如表5所示。采集过程中由于存在车辆遮挡,第2组有效形变护栏样本数为10个。
表5 实验路段信息
对3组数据检测结果进行统计,里程桩标志牌均被正确检出,检测框和里程桩所在实际区域的IOU值(面积交并比)大于0.9,提取的里程桩号信息和对应实际里程信息一致,能够满足后续里程定位的需求。有效护栏样本中各类护栏的识别情况如表6所示,数据GS、GD、G、GJ的综合识别准确率分别为98.9%、98.8%、98.2%、90.1%,通过对各类护栏的平均识别率求加权均值,得到综合识别率为92.8%。由于训练集中护栏连接点样本数量较少,模型对该类的识别效果不如前三类,但以GS、GD、G为主的护栏样本识别率均达到了98%以上,三者样本数量占总样本数量的98.9%。结合3.2节的样本测试结果,设定护栏形变拟合优度经验阈值为0.85,当线性拟合边缘线拟合优度值小于0.85时,即判定为变形护栏。经确认,3组数据中有效变形护栏样本均分类正确,部分示例如图12所示;对推算得到的变形护栏的各组里程位置坐标取均值,如表7所示,对比推算的里程位置和实际测量位置,除样本1和样本2的采集点位于收费站和主干道的连接支道上外,其余样本均位于实际位置范围内,推算里程位置误差最大为8 m。
表6 各类护栏识别
图12 变形护栏检测示例
表7 变形护栏检测及里程定位结果
当前,有关护栏形变的自动检测方法研究仍处于起步阶段,通过文献检索发现针对护栏的检测内容研究多为护栏本身的检测识别,而未对护栏形态状况进行分析评价。与文中所提场景相同,文献[10]采用传统机器学习算法、基于视频图像的图像采集检测方法,采集过程将摄像机架设于车顶,采集频率为30帧/s。通过在高速场景下实际测试,实现了一般场景下85%~89%的护栏识别准确率,处理速度达到约20帧/s。对比文中基于神经网络的护栏检测方法,在采用2 400张数据集的条件下,实现了92.8%识别准确率,其中主要护栏类别识别率均达到了98%以上,在当前硬件水平条件下,检测速度约为6~8帧/s。可见文献[10]提出的检测方法具有较快的处理速度,但识别准确率有待提升,无法对形变护栏进行检测,且采集每秒钟图像数量为30帧,会造成连续图像中包含较多的重复信息,造成数据冗余,需要较大的数据存储空间和快速传输速度。而文中所提方法具有较高准确率,处理速度相对较慢,但采集频率不大于每秒钟10帧。
文中所提的里程定位方法结合了双目视觉测距、GPS定位、文本识别等多种融合信息,实现了动态监测过程中目标物的里程定位,相对于当前道路养护系统使用的基于GPS的里程定位方法[27]具有更高的定位精度。通过对福建省高速公路养护系统使用的基于该方法开发的里程定位软件进行测试,发现定位误差在50~100 m范围内,且GPS定位单元存在一定的信号静漂,易受遮挡影响,已无法适应高速巡检养护的定位需求。另外一种基于多传感器信息融合的里程定位技术[28]同样采用多种信息融合的方法,实现了公里桩的高精度里程定位,误差范围不超过2.5 m,但该方法主要针对静态下的公里桩及百米桩的位置确定,无法对道路上的目标物进行定位。可见多信息融合的定位方法相对于仅使用GPS定位具有更高的精度,文中提出的方法具有更广泛的使用场景。
数据采集源于实际高速场景,训练得到的特征提取器具有良好的适用性。通过护栏特征识别、边缘提取及拟合分析、高速里程定位等算法流程能够有效对形变护栏进行检测,并获取其里程位置坐标,具有一定的应用参考价值。由试验结果可知,护栏模型的检测精度和运算速度仍有一定的提升空间,形变护栏的里程定位还存在误差范围较大的问题,后续将针对当前存在的主要问题从两个方面展开进一步的研究:
1)根据护栏的连续性特征规范标注方法,增加数据库样本数量,平衡护栏类别标签数量,改进模型结构,优化检测算法,从而提升护栏检测精度和推理速度;
2)结合高速公路的百米桩分段校正里程位置坐标,细化里程推算的里程单元,减小定位误差;限于当前的硬件性能水平,景深图像在生成时,其尺寸为前景图像尺寸的1/2,因此会造成一定的景深信息丢失,后续将通过使用高效率的双目匹配算法和全尺寸的景深图像,进一步提升定位精度。