易礼智
(湖南工程职业技术学院, 湖南 长沙 410151)
在智能化发展的引领下,智能汽车领域正在呈现一种突飞猛进的态势。在智能小车视觉检测中,需要进行相关智能装置内部特征提取和归纳总结以及整理,将特征信息进行分级上传,获取目标物体。本文在卷积神经网络基础上进行深度学习拓展,将卷积神经网络中的卷积层的每个单位元素进行像素单位相乘,实现目标信息的特征提取;整体串联其中的多段卷积神经网络,收集信息数据,并且配置大型池化层将收集结果进行展示,以实现对相关设备装置的视觉检测,能够适应智能小车视觉检测的环境差异。相较于智能小车视觉检测代表性检测方法-帧间差分法步骤更简便,传递图像与数据信息性能更佳,视觉检测连接更加顺畅。
智能小车作为汽车行业在信息化时代的产物,必然有其存在的意义。智能小车的运行构想是将预编完成的程序系统装置智能小车中,并且对其下达一个在一定区域范围内进行活动的指令,在上述区域内部,智能小车能够通过自动化启动系统完成小车的启动,在此期间不需要人为进行干涉与管理,在科学探索与无人驾驶汽车中具有重要的研究意义。
除此之外,部分相关研究学家将智能小车作为人员出行的工具,极大程度上帮助了部分有驾驶障碍的人群进行出行活动。并且智能小车能够显示当时时间、运行速率、行驶路程等,及时进行相关周围环境数据的检测,及时记录在案。同时,该智能小车在运行过程中能自我观察光源,并根据光源所折射出的方向进行暂时性躲避,还能够根据周围光照情况及时躲避障碍,其中内部安装的远程信息传输系统能够将智能小车所处环境以及观测信息进行精确传输,在部分设置较为先进的系统中,能够实现全景图像传播。
要进行智能小车视觉检测,首先要对相应的智能装置进行检测,以此来佐证进行智能小车检测的正确性。根据传统智能装置进行检测,大致方式都是首先对装置进行检测区域的划分,根据划分情况进行候选区域的生成,再将此候选区域内部的条件以及系统结构进行详细分析,最终确定该区域内部的运行算法,例如在智能装置内部划分智能指令窗口的弹出。此外,还要进行相关智能装置的内部特征提取,内部特征是能否进行该智能装置视觉检测的基础,能够对后续检测结构产生决定性影响,例如该智能装置的HOG系统以及SIFT处理设备等。另外,还要时刻注意对相关数据信息进行归纳总结,并将内部系统进行整理,再通过相应特征信息将该智能装置的特征进行分级上传,以此来实现对目标物体的透彻分析,在智能装置中常见的分类设备包括SVM处理器以及Ada Boost系统。
帧间差分法是作为一种智能小车视觉检测的代表性检测方法,其主要运行机制包括对智能小车所检测到的至少2个帧率图像进行观察,并根据所观测到的帧率差值进行计算,将所得到的差值带入首个帧率图像中,得出差值图像,该图像实质是将2个帧率图像的灰度参数进行相减。然后再将提取图像的背景以及隔离图像所展示的前景结合起来,在此过程中,所出现的前景图像是帧率阈值高于平均像素帧率的检测对象。其基本流程如图1所示。
图1 帧间差分法
采用上述方式进行智能小车的视觉检测,在检测过程中所要进行的计算相对比较简单,并且运算数值与数量较小。此外,在外部环境较为昏暗的情况下依然能够进行信息数据的精确采集,出现智能小车发生摇摆情况下的拍照情况也能具备良好的抓拍像素。另外,在周围环境与拍摄目标呈现静止状态时,具有去除背景板的优势,且此时得出的数据信息较为精确,受外界影响较小。但是上述视觉检测方式存在一定的漏洞与天然缺陷,例如只能作用于相对平稳的摄像头,在运动的摄像头装置下无法正常作业,此外,对于静态物体不能快速精确定位。
从上述分析可知,帧间差分法不适用于进行智能小车的视觉检测,因此必须依次为突破口进行深度学习,通过深度学习的方式才能进行智能小车的视觉检测。卷积神经网络作为一种极具代表性的深度学习方式,能够适应智能小车视觉检测的环境差异,在此基础上进行深度学习的拓展,将现有比较合适的视觉检测方式作用于智能小车,在后续检测阶段,对智能小车的视觉检测区域增加额外的空间。
卷积神经网络作为一种极具代表性的深度学习方法,能够通过一种较为直观网络形式实现深度歇息前馈,并且此种类型较为特殊,在实战操作中的步骤相较于帧间差分法更为简便,在图像与数据信息的传递过程中也具备极佳的性能。再者,将该种深度学习方式载入智能检测流程中,能够使得视觉检测的连接过程更加顺畅。该神经网络主要由卷积层、绩效函数层、信息处理层以及全检连接层等构成。卷积神经网络的结构示意图如图2所示。
在进行智能小车的视觉检测时,最为重要是通过与卷积层的结合程度实现的,且卷积层在卷积神经网络中占有绝对位置,因此在深度学习中,必须根据卷积层才能进行智能小车的视觉特征数据信息提取。
在卷积层所构成的内部结构中,可以将其当作一个卷积核来应对,并且该卷积核内部呈现奇数分布,核中的每个单位元素进行像素单位的相乘,然后将所得出的数据信息进行汇总,以此类推,在完成所有卷积核内部的数据处理后,就能得出该卷积神经网络对目标信息的特征提取,将原有卷积核数据图像检测为5×5卷积核,卷积核大小为3×3卷积核,内部卷积步骤长度为1,因此可以得出满足卷积神经网络的特征公式,该公式如下:
根据上述卷积神经网络结构图得知,在该网络构建中能够组成任意形式的多种神经网络结构模型,即在进行智能小车所处的任何复杂环境,采用上述深度学习方式能够将视觉检测的检测方式进行横向拓展,满足智能小车的日常工作需求。在进行智能小车的视觉探索过程中,首先可以根据20世纪初期的YannLeCun教授所提出的LeNet-5模型进行智能小车的视觉检测。该种方法的检测构层一共有7层,并且这种方式是能够进行卷积神经网络实现目标的智能识别。
除此之外,2012年Alexnet研究学家通过对卷积神经网络进行深度挖掘,最终得出lmageNet ILSVRC图像,进一步将深度学习拓展到智能装置的视觉检测中,其中最具影响力的检测方式为VGGNet,该检测方式内部包含许多不同级别的神经网络结构,根据对深度学习的掌控力度进行11~18层等不同的划分方式,并且将其中的多段卷积神经网络(3×3)进行整体串联,达到收集信息数据的目的,并且配置大型池化层将收集结果进行展示,以实现对相关设备装置的视觉检测。
在进行设备装置的视觉检测过程中,通常可以将用于检测的框架模型分为2种:一种是检测结果较为准确但是检测速率较慢的两阶段视觉检测框架;另外一种则是检测结果出入较大但是检测速率较快的一阶视觉检测框架。其中两阶段检测框架首先采用内部区域分选法进行潜在信息数据的收集、分类,然后运用筛选算法将所收集的图像进行框架分隔,放入深度学习方式中进行目标视觉图像的输出。而在一阶检测框架中,不需要在检测过程中进行区域的分隔,直接将整体图像作为一块区域进行快速计算,构建出一个S×S的卷积神经网络结构,从而根据结构中的信息进行视觉检测。
本文通过对深度学习中的视觉检测方法进行阐述,结合智能小车在运行过程中所遇到的问题进行分析,根据卷积神经网络结构在其内部安装信息化检测系统。智能小车的视觉检测为无人驾驶汽车与避障技术提供了思路和保障。