宋小娜 芮挺 王新晴
摘 要:語义分割是实现道路语义环境解释的重要方法,深度学习语义分割由于卷积、池化及反卷积的作用使分割边界模糊、不连续以及小目标漏分错分,影响了分割效果,降低了分割精度。针对上述问题,提出了一种结合语义边界信息的新的语义分割方法,首先在语义分割深度模型中构建了一个语义边界检测子网,利用网络中的特征共享层将语义边界检测子网络学习到的语义边界信息传递给语义分割网络;然后结合语义边界检测任务和语义分割任务定义了新的模型代价函数,同时完成语义边界检测和语义分割两个任务,提升语义分割网络对物体边界的描述能力,提高语义分割质量。最后在Cityscapes数据集上进行一系列实验证明,结合语义边界信息的语义分割方法在准确率上比已有的语义分割网络SegNet提升了2.9%,比ENet提升了1.3%。所提方法可以改善语义分割中出现的分割不连续、物体边界不清晰、小目标错分漏分、分割精度不高等问题。
关键词:语义分割;全卷积神经网络;道路环境感知;边缘检测;无人驾驶车辆
中图分类号:TP391.4
文献标志码:A
Semantic segmentation method of road environment combined semantic boundary information
SONG Xiaona1,2, RUI Ting1*, WANG Xinqing1
1.College of Field Engineering, Army Engineering University of Peoples Liberation Army, Nanjing Jiangsu 210018, China;
2.College of Mechanical Engineering, North China University of Water Resources and Electric Power, Zhengzhou Henan 450045, China
Abstract:
Semantic segmentation is an important method to interpret the road semantic environment. The convolution, pooling and deconvolution in semantic segmentation of deep learning result in blur and discontinuous segmentation boundary, missing and wrong segmentation of small objects. These influence the outcome of segmentation and reduce the accuracy of segmentation. To deal with the problems above, a new semantic segmentation method combined semantic boundary information was proposed. Firstly, a subnet of semantic boundary detection was built in the deep model of semantic segmentation, and the feature sharing layers in the network were used to transfer the semantic boundary information learned in the semantic boundary detection subnet to the semantic segmentation network. Then, a new cost function of the model was defined according to the tasks of semantic boundary detection and semantic segmentation. The model was able to accomplish two tasks simultaneously and improve the descriptive ability of object boundary and the quality of semantic segmentation. Finally, the method was verified on the Cityscapes dataset. The experimental results demonstrate that the accuracy of the method proposed is improved by 2.9 % compared to SegNet and is improved by 1.3% compared to ENet. It can overcome the problems in semantic segmentation such as discontinous segmentation, blur boundary of object, missing and wrong segmentation of small objects and low accuracy of segmentation.
Key words:
semantic segmentation; Fully Convolutional Network (FCN); road environment perception; boundary detection; unmanned vehicle
0 引言
道路环境感知问题一直以来是智能车辆的关键技术,其中基于计算机视觉的环境感知方法已成为主要研究热点。它通过车辆前方的摄像头获取道路环境信息,利用相关算法对道路场景进行语义分割,获取车辆周边环境情况,为智能车辆的安全行驶提供保障。
目前,现有的道路环境语义分割方法[1-10]大多基于深度学习网络框架,全卷积神经网络的引入,更是有效提升了语义分割任务的精度和速度。但是卷积层中大的感受野和池化层的存在使得道路环境中大量物体边界细节缺失,造成语义分割结果边界模糊、分割精度不高。针对此类问题,许多研究人员采取对语义分割结果进行后处理,如采用条件随机场(Conditional Random Field, CRF)等方法来改善粗糙的语义分割结果。然而这种方法大多数是基于颜色等低维特征进行修正,不能学习场景中不同物体之间的语义关系,因此很难获得很好的语义分割结果。
本文提出一种结合语义边界信息的道路环境语义分割方法,通过在语义分割网络中引入语义边界检测子网络来学习语义边界信息,在同一深度网络框架下,完成语义边界检测和语义分割两个任务,并定义了新的模型代价函数,有效提升语义分割边界精度。本文的主要工作如下:
1)在语义分割网络中构建了语义边界检测子网络,通过融合语义分割模型中不同卷积层的特征,学习从低层到物体层次的多尺度边缘信息,为语义分割提供丰富准确的物体边界信息。
2)在同一深度神经网络框架下,完成物体语义边界检测和语义分割两个任务,通过定义新的模型代价函数,使网络更好地学习语义边界信息,改善语义分割过程中出现的边界不连续或模糊现象。同时,学习的语义边界信息还有效地改善了语义分割中小目标的漏分或错分现象,提升了语义分割的精度。
3)在道路语义分割公有数据集Cityscapes[11]上验证了方法的有效性。
1 相关工作
语义分割是为图像中每个像素分配一个预先定义的表示其语义目标类别的标签。深度学习在各种视觉任务上取得了巨大的成功,尤其是卷积神经网络(Convolutional Neural Network, CNN)被广泛用于图像分类或物体检测。在此基础上,一些学者将原用于分类的网络转化为适合分割的形式,提出一种更为直接的以像素直接分类为基础的语义分割方法。其基本思想是:以大量带有像素级标注的图像为样本,训练神经网络等分类器,对图像中每个像素分类,输入是原图像,输出是源图像对应的语义分割图,形成一种端到端的方法。
2015年,Long等[12]提出了全卷积神经网络(Fully Convolutional Network, FCN)方法,设计了一种针对任意大小的输入图像,训练端到端的全卷积网络的框架,实现逐像素分类,奠定了使用深度网络解决图像语义分割问题的基础框架。为了避免网络提取特征时丢失空间位置信息,FCN通过双线性插值上采样和组合中间层输出的特征图,将粗糙分割结果转换为密集分割结果,并且成功将原本用于分类的网络转换为生成图像分割的网络,实现了像素级预测。但是FCN得到的结果还不够精细,目标物体的细节结构可能会丢失或边界模糊。在此基础上,Badrinarayanan等[13]提出了SegNet用于图像分割的一种深度卷积编码器解码器架构,比FCN效率更高并且占用更少的内存,但划分精度不高。Chen等[14]在FCN 框架的末端增加全连接条件随机场,提出了 DeepLab-v1模型,首先使用双线性插值法对 FCN的输出结果上采样得到粗糙分割结果,以该结果图中每个像素为一个节点构造 CRF 模型并求解,对分割结果求精。该CRF模型以颜色此类低维特征作为像素之间关联函数,存在一定弊端,容易形成物体分割空间上的不连续。之后,Chen等[15]又提出了DeepLab-v2,主要使用了带孔卷积,并且提出了在空间维度上实现金字塔型的空洞池化(Atrous Spatial Pyramid Pooling, ASPP)。卷积核之间引入了“孔洞”,可以增大空间分辨率同时不改变感受受野和参数数量的效果,ASPP使用多种孔洞率的卷积核对相同特征图同时处理,由于不同的孔洞率对应着不同的感受野大小,可以提取不同尺度的目标特征,网络最后通过CRF精细化边缘信息,更好地分割物体边界;但带孔卷积需要大量高分辨率特征图,因此其计算成本高昂,且占用大量内存,同时容易丢失重要的细节信息。
纵观上述语义分割方法,大都是通过对深度构架中卷积和池化层修改、低层特征和高级语义特征融合等方法来改善语义分割过程中存在的物体边界粗糙或模糊问题。事实上,语义边界信息是语义分割任务中有效区分一个物体与另一个物体的非常重要的信息。在网络训练中有效学习物体语义边界信息或利用物体语义边界信息指导语义分割同样可以提升语义分割的精度。Marmanis等[16]将边缘检测融入语义分割,图像首先进入边缘检测模块,然后再进入后续语义分割模块,通过这种方法学习图像中边缘信息,可以提升图像的语义分割中边界精度。Huang等[17]构建一个物体边界检测FCN来获取物体精确的定位信息和物体形状细节信息,通过物体边界检测FCN与原有的语义分割FCN的信息融合,获取語义分割中的边界细节。Bertasius等[18]设计了边界神经场(Boundary Neural Field, BNF)这个能量模型,通过引入一个全局能量函数,将粗糙的语义分割结果与语义边界信息结合来改善语义分割结果。
本文所设计的结合语义边界信息的语义分割网络,在语义分割网络中通过整合网络结构中各阶段卷积层提取的信息,构建了语义边界检测子网络。通过定义了新的模型代价函数,在同一框架下完成了语义边界检测和语义分割两个任务,并利用语义边界检测任务中所学习到的语义边界信息,来有效提升语义分割效果。在文献[16]中,边缘检测网络与语义分割网络是并行存在的,网络结构存在冗余。本文所设计的网络不同于文献[16],语义边界检测子网络与语义分割网络存在特征共享层,通过共享层将语义边界检测子网络学习到的语义边界信息传递给语义分割网络,其结构更为简洁,执行效率更高。在文献[17]中,输入图像先后进入边缘检测模块与语义分割模块,若边缘检测模块学习的边缘信息不完整,直接影响了语义分割模块的分割效果。而文献[18]中能量函数的构建方法复杂,网络训练周期长。
2 本文主要方法
针对语义分割中存在的边界模糊或不连續、小目标漏分误分、分割精度不高等问题,本文提出了一种结合物体语义边界信息的语义分割方法。在原语义分割网络框架中构建了语义边界检测子网络来学习物体边界信息,并通过共享特征层将语义边界检测子网络学习到的语义边界信息传递给语义分割网络,有效提升了语义分割网络的分割精度。本方法在同一深度神经网络框架下同时完成语义边界检测和语义分割两个任务,通过定义新的模型代价函数,来完成网络训练,整个训练过程是端对端的,具体方法如图1所示。
2.1 结合语义边界信息的语义分割模型
本文所设计的结合语义边界信息的语义分割模型如图2所示。
图2中实线框部分构成了语义分割网络,而虚线框部分构成了语义边界检测子网络,由此可知,整个网络模型存在共有部分,将其称为网络特征共享层。通过特征共享层将语义边界子网络学习的信息传送给语义分割网络,提升网络的语义边界学习能力。整个网络架构是基于VGG19改进的,VGG19网络包含有16个卷积层和3个全连接层,
该网络在图像分类、目标检测等领域取得巨大成功。它的卷积层分为5个阶段,每个阶段后面紧跟一个池化层。随着感受野的增加,每个卷积层所学习到的有用信息逐渐变得粗糙,这种多层次的结构可以学习更加丰富的特征信息。
如图2所示虚线框内为语义边界检测子网络,它与现有的基于深度学习的边缘检测方法[19-20]类似,由编码和解码两部分构成。其中编码部分充分利用语义分割网络中编码部分信息,通过对每个阶段的卷积层的结果融合来获取不同尺度的物体边界信息。解码部分则通过反卷积将不同尺度的物体边界放大后融合,得到最终的语义边界检测预测结果。在语义边界检测子网络中,VGG19每个阶段的卷积层取出后紧跟1×1的卷积层,然后将该阶段的所有输出相加以获得融合特征后再次进入一个1×1的卷积层,然后通过一个反卷积层来对输出特征图上采样,以获得与输入图像大小相同的输出。每个阶段的上采样层后紧跟一个交叉熵损失层。所有的上采样层输出结果级联并通过1×1的卷积融合,最后再进入交叉熵损失层来获得最终的语义边界检测结果。在该网络结构下,由于卷积层的感受野大小不同,因此可以学习到从低层到物体层次的多尺度信息。这种网络结构,有助于捕获物体边界的细微细节,为精准的语义分割提供有用信息。
如图2实线框所示的语义分割网络框架,其结构仍然是基于编码解码形式的语义分割框架。由于本文的网络结构是对无人驾驶车辆的道路环境进行语义分割,为了提高实时性,减少了FCN、SegNet等传统的语义分割网络中特征图的个数,同时采用不对称的结构。编码部分与语义边界检测子网络共享,各阶段的特征图的个数分别为16,32,64,128,256。由于解码部分只是为了上采样编码的结果输出语义分割结果,与SegNet网络(对称结构,编码和解码层数相等)不同,只设计了5个反卷积层,其特征图的个数分别为64,64,32,16,20。在上采样过程中,没有使用最大反池化方式,而是采用了步幅为2的反卷积层(也称为转置卷积),这样不需要与编码层共享最大池化时的位置索引信息,从而降低内存和计算成本,这种做法并没有降低准确度。
2.2 结合语义边界检测的语义分割模型训练方法
为了训练引入语义边界检测子网络的语义分割模型,本文首先将该模型的两个任务定义如下:
给定图像X,指定输入图像X中每个像素点X(i, j)的语义目标类别的标签,将该结果记为语义分割结果Yseg,同时检测出输入图像X中的每个物体的语义边界,将该结果记为语义边界Yedge。
通过图2可以看到,本文所构建的网络是通过网络中特征共享层将语义边界检测子网络学习到的物体边界信息传递给语义分割网络,因此语义边界检测任务的目的是为了促使语义分割网络模型学习语义边界信息。
为了完成多任务的需求,本文定义了新的目标代价函数,通过调配语义边界检测子网络与语义分割网络的目标代价函数的比重,以其获得更好的语义分割效果,其目标代价函数为
min(Lseg+λLedge)(1)
而Lseg和Ledge分别为语义分割网络和语义边界检测子网络的目标代价函数,λ为控制语义分割和语义边界检测网络的目标函数的比例系数。语义分割网络的目标代价函数采用常用的交叉熵损失函数,其表达式如下:
Lseg=-1n∑Yseg lg Y^seg(2)
其中:Y^seg为语义分割网络的输出,Yseg为语义分割标签,n为图像的总像素点数量。
而语义边界检测子网络和语义分割原理是相同的,是一个对像素点进行是否为边界的二分类问题,因此目标代价函数同样采用交叉熵,其表达式如下:
Ledge=-1n∑Yedge lg Y^edge(3)
其中:Y^edge为语义边界检测子网络的输出,为Yedge语义边界检测标签,n为图像的总像素点数量。
3 实验及分析
3.1 实验方法
在道路环境语义分割数据库Cityscapes上对本文提出的方法进行一系列实验。Cityscapes是最近在无人驾驶环境的语义分割领域中广泛使用的一个数据库。它包含了50个城市不同场景、不同背景、不同季节的街景,提供5000张精细标注的图像、20000张粗略标注的图像、35类标注物体。在实验过程中,只使用了5000张精细标注图像,将其划分为训练集
2975张、验证集500张和测试集1525张,选择了常用的19类物体进行分类。为了实验方便,将原有图像的分辨率由2048×1024改为512×256。
整个实验是基于tensorflow框架的,在模型的训练过程中,使用Adam优化算法来获得最快的收敛速度。初始学习率设置为10-3,然后每迭代1000次,降低为原有的1/10。将样本块的大小设置为5,momentum设置为0.9,权重衰减系数设置为5×10-4,最大迭代次数设置为105。
在网络训练时,运用迁移学习的方法,将在图像分类数据集上训练的性能良好的VGG19模型学习到的特征迁移到结合边界信息的语义分割模型中去,获得了较快的收敛速度和较好的分割效果。整个网络结构中,特征共享层的初始参数使用已训练的VGG19对应各层参数,其他参数则为随机初始化的参数。
由于模型要在同一个深度神经网络中同时进行语义边界检测和语义分割两个任务,通过实验,本方法首先验证了同时进行两种任务的可行性,通过两个任务的收敛过程,如图3所示,两个任务都能很好地收敛,说明语义边界检测可以共用语义分割模型的编码层,并不会对语义分割造成干扰,两个任务可以同时训练。接下来,在现有的数据集上,调整两个任务的目标函数的比例系数λ,通过全局目标函数的收敛速度和最终的语义分割效果,确定最佳比例系数λ=50。在后续的实验结果部分,将看到语义边界检测子网络的加入可以有效改善物体边界不清晰问题、提升语义分割精度。
3.2 语义边界检测子网络的结果及分析
在实验中,并不需要额外对物体的边界进行标注,而是利用已有的语义分割标签,对其进行语义边界检测后,生成语义边界标注。本文所设计的语义边界检测子网络融合了模型中不同卷积层的特征,學习到从低层到物体层次的多尺度边缘信息,为语义分割提供丰富准确的物体边界信息。图4为语义边界检测子网络的输出结果,生成的物体边界清晰准确。由于本文所设计的语义边界检测子网络融合了不同尺度的卷积核,因此可以获得更丰富的特征,有效提升了语义边界准确率。
3.3 语义分割结果及分析
在训练数据集上,利用全局目标函数对模型进行训练,并在验证集和测试集上进行测试。语义分割评价方法采用通常使用的交并比方法:
IOU=TPTP+FP+FN(4)
其中:TP、FP和FN分别代表真正、假正和假负的像素点的个数。在Cityscapes数据集对无人驾驶道路环境更为重要的19类目标分别计算出各类的交并比数值。
为了验证加入语义边界检测子网络对语义分割精度的提升,本研究分别构建了两个网络Seg_edge和Seg_noedge,分别对应加入语义边界检测子网络和不加语义边界检测子网络的语义分割模型。两个模型的参数设置完全相同,训练方法完全一样。通过图5的语义分割结果可见,Seg_edge网络检出的道路、汽车、人行道等类别的边界更为精准,分割精度更高。例1中,由于光照不均匀,Seg_noedge网络检出的道路区域边界不清晰,而Seg_edge能准确找到道路的边界,有效区分道路和人行道区域。例2中Seg_noedge所分割的人行道区域不连续、汽车区域不连续、存在部分区域错分现象,而Seg_edge分割的人行道区域连续,边界清晰准确,在该图中的两辆汽车也能被精准地分割。例3中Seg_edge则成功区分了汽车和卡车,将原本错误分割在一起的汽车和卡车区分开来,有效改善分类中可能出现的错分现象。例4中Seg_edge检测小目标的能力有所提升,比如对图中的行人分割得比较准确。这些例子充分说明了语义边界检测子网络的引入,有效改善了物体边界不清晰、分割不连续、小目标漏分错分、分割精度不高等问题,有效地提升了语义分割的精度。
同时,将本文的方法Seg_edge与现有的语义分割方法SegNet[13]、ENet[9](最近新提出的应用于道路环境语义分割方法)进行比对,表1为各种方法在Cityscapes数据集上19类的准确率。
其中平均准确率为表中19类目标准确率的平均值,而Cityscapes数据集同时将19类目标分为7大类,分别为平地、自然、物体、天空、建筑物、人和车辆,平均类准确率是基于此分类准则给出的。
由表1可知,本文提出的方法在所有类都获得高的准确率,在道路、天空、车辆等常见类别中,准确率都超过了90%,相比其他方法,在行人、人行道、自行车、卡车、公交车等类别准确率都得到了提高。本文提出的方法在平均准确率上相比已有的语义分割网络SegNet提升了2.9%,相比ENet提升了1.3%。图6给出了以上各种方法的语义分割结果,证明了本文提出的方法在Cityscapes数据集上所有类上都取得很好的分割结果。SegNet和ENet方法在道路、人行道、车辆等类别可能出现分割不均匀、不连续、边界不准确等现象,本文的方法有力改善此类问题,道路和人行道的边界清晰准确。而针对小目标(行人、交通标志、路灯和信号灯)可能存在的漏检或不准确问题,本文的方法也有所改善。这充分说明了语义边界检测子网络能促使网络结构学习物体边界信息,本文提出的方法在复杂道路场景下能获取准确的物体边界,提升语义分割精度。但是,针对分类中样本较少的类别如火车、树木等,分割精度有待提高,主要原因是缺乏有效的训练样本。
4 结语
本文针对深度学习语义分割中由于卷积、池化及反卷积的作用所带来的分割边界模糊或不连续、小目标漏分错分等现象提出了结合物体边界信息的语义分割方法,并在道路环境数据集Cityscapes上验证了方法的有效性。在同一深度神经网络框架下,完成了语义边界检测和语义分割两个任务,利用网络特征共享层,将语义边界检测子网络学习到的物体边界信息传递到语义分割网络,有效改善了语义分割中出现的边界模糊、分割不连续、小目标漏分错分、分割精度不高等问题,提高了语义分割的准确率。
参考文献
[1]ALVAREZ J M, GEVERS T, LeCUN Y, et al. Road scene segmentation from a single image [C]// ECCV ‘12: Proceedings of the 12th European Conference on Computer Vision, LNCS 7578. Berlin: Springer, 2012: 376-389.
[2]BRUST C, SICKERT S,SIMON M, et al. Convolutional patch networks with spatial prior for road detection and urban scene understanding [C]// VISAPP 2015:10th International Conference on Computer Vision Theory and Applications. Berlin : SciTePress.2015:510-517.
BRUST C, SICKERT S,SIMON M, et al. Convolutional patch networks with spatial prior for road detection and urban scene understanding [EB/OL]. [2019-01-21]. https://arxiv.org/pdf/1502.06344.pdf.
[3]HARIHARAN B, ARBELEZ P, GIRSHICK R, et al. Simultaneous detection and segmentation [C]// Proceedings of the 13th European Conference on Computer Vision, LNCS 8695. Berlin: Springer, 2014: 297-312.
[4]高凱珺,孙韶媛,姚广顺.基于深度学习的无人车夜视图像语义分割[J].应用光学,2017,38(3):421-428.(GAO K J, SUN S Y, YAO G S. Semantic segmentation of night vision images for unmanned vehicles based on deep learning [J]. Journal of Applied Optics, 2017, 38(3): 421-428.)
[5]吴宗胜,傅卫平,韩改宁.基于深度卷积神经网络的道路场景理解[J].计算机工程与应用,2017,53(22):8-15.(WU Z S, FU W P, HAN G N. Road scene understanding based on deep convolutional neural network [J]. Computer Engineering and Applications, 2017, 53(22):8-15.)
[6]张军阳,王慧丽,郭阳,等.深度学习相关研究综述[J].计算机应用研究,2018,35(7):1921-1928.(ZHANG J Y, WANG H L, GUO Y, et al. Review of deep learning [J]. Application Research of Computers, 2018,35(7): 1921-1928.)
[7]YE L, LIU Z, WANG Y. Learning semantic segmentation with diverse supervision [C]// Proceedings of the 2018 IEEE Winter Conference on Applications of Computer Vision. Washington, DC: IEEE Computer Society, 2018: 1461-1469.
[8]CHEN Y, ROHRBACH M, YAN Z, et al. Graph-based global reasoning networks [EB/OL]. [2018-12-10]. https://arxiv.org/pdf/1811.12814v1.pdf.
[9]PASZKE ADAM, CHAURASIA A, KIM S, et al. ENet: a deep neural network architecture for real-time semantic segmentation [EB/OL]. [2018-12-10]. https://arxiv.org/pdf/1606.02147.pdf.
[10]ROMERA E, LVAREZ J M, BERGASA L M, et al. ERFNet: efficient residual factorized convnet for real-time semantic segmentation [J]. IEEE Transactions on Intelligent Transportation Systems, 2018, 19(1): 263-272.
[11]CORDTS M, OMRAN M, RAMOS S, et al. The cityscapes dataset for semantic urban scene understanding [C]// Proceedings of the 29th IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 3213-3223.
[12]LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2015: 3431-3440 .
[13]BADRINARAYANAN V, KENDALL A, CIPOLLA R. SegNet: a deep convolutional encoder-decoder architecture for image segmentation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481-2495.
[14]CHEN L, PAPANDREOU G, KOKKINOS I, et al. Semantic image segmentation with deep convolutional nets and fully connected CRFs [EB/OL]. [2018-05-10]. https://arxiv.org/pdf/1412.7062.pdf.
[15]CHEN L, PAPANDREOU G, KOKKINOS I, et al. DeepLab: semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4): 834-848.
[16]MARMANIS D, SCHINDLER K, WEGNER J D, et al. Classification with an edge: improving semantic image segmentation with boundary detection [J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018, 135: 158-172.
[17]HUANG Q, XIA C, ZHENG W, et al. Object boundary guided semantic segmentation [C]// Proceedings of the 13th Asian Conference on Computer Vision, LNCS 10111. Berlin: Springer, 2016: 197-212.
[18]BERTASIUS GEDAS, SHI J, TORRESANI L. Semantic segmentation with boundary neural fields [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 3602-3610.
[19]LIU Y, CHENG M, HU X, et al. Richer convolutional features for edge detection [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017: 5872-5881.
[20]YANG J, PRICE B, COHEN S, et al. Object contour detection with a fully convolutional encoder-decoder network [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 193-202.
This work is partially supported by the National Key Research and Development Program of China (2016YFC0802904), the National Natural Science Foundation of China (61472444, 61671470), the Natural Science Foundation of Jiangsu Province (BK20161470).
SONG Xiaona, born in 1982, Ph. D. candidate, lecturer. Her research interests include image processing, pattern recognition, deep learning.
RUI Ting, born in 1972, Ph. D., professor. His research interests include artificial intelligence, pattern recognition.
WANG Xinqing, born in 1963, Ph. D., professor. His research interests include signal processing, intelligence algorithms, unmanned intelligent vehicles.