谢刚,王荃毅,谢新林,王健安
(1.太原科技大学电子信息工程学院,山西 太原 030024;2.先进控制与装备智能化山西省重点实验室,山西 太原 030024)
随着新一代人工智能技术的快速发展、可视化数据的激增以及GPU(graphics processing unit)硬件设备的不断更新,以深度学习[1]为导向的图像语义分割逐渐成为热点研究内容之一。为了提高驾驶体验,缓解交通压力,自动驾驶技术得到了广泛的研究[2]。相比于单一的视觉任务,图像语义分割能够同时实现对目标的分割和识别,进而为场景理解提供细粒度和高层次的语义信息,在面向城市交通场景理解中起着至关重要的作用,已广泛应用于自动驾驶[3]、3D 点云[4]、智能交通系统[5]等领域。
近年来,卷积神经网络(CNN,convolutional neural network)广泛应用于交通场景语义分割[2-3,5],利用卷积核的权重和局部感受野能够更好地将局部特征与整个特征图相关联。然而,卷积核的感受野存在局限性,导致难以捕获长距离特征依赖关系。而这些依赖关系通常在处理高分辨率的语义分割任务中至关重要,尤其是在交通场景中提取具有长距离特征的纤细条状目标(如交通标志、路灯、树木、行人等)的特征时,上下文信息的丢失更加明显。为此,Chen 等[6]提出ASPP(atrous spatial pyramid pooling)模块,通过空洞卷积扩大感受野的方法来解决上下文信息丢失问题,同时进一步证明了丰富的上下文信息可以增强网络的类别区分度,从而更好地提高网络模型的语义分割能力。Dong 等[7]通过减少下采样来获得高分辨率的特征图,并在使用ASPP 模块前串行加入通道注意力机制(CAM,channel attention mechanism)来更多地提取上下文信息。目前,最先进的DeepLab-V3+网络模型[8]改进了ASPP 模块,采用串行多级扩张率的空洞卷积来获取更大的感受野,同时避免池化所引起的图像分辨率低的问题。然而,这些方法未考虑多尺度信息对像素分类的影响以及空洞卷积容易出现梯度消失的问题,没有充分发挥不同阶段网络的特征提取优势,导致具有长距离特征的纤细条状目标的分割结果往往不连续。
针对上述问题,Lv 等[2]提出并行互补模块来增强具有适当补码信息的局部特征;Huynh 等[9]设计了细化模块,使用后一个分割图来细化前一个分割图的目标,以解决纤细条状目标分割不连续的问题;Weng 等[10]提出阶段感知特征对齐模块来对齐和聚合相邻的两层特征映射,以增强空间细节信息。与上述方法相比,所提算法的独特性在于将Transformer 与CNN 相融合,在Transformer 的全局特征表示下通过CNN 来增强局部特征的提取,并采用多分支不同尺度下的条形卷积(行卷积和列卷积)来聚合多尺度纤细条状特征信息,以增强网络对不同尺度的纤细条状目标的关注。
视觉Transformer(ViT,vision transformer)首次使用纯Transformer 结构作为特征提取器来处理图像识别任务[11],在许多视觉任务上取得了与CNN同类模型相当甚至更好的性能,并已成功应用于交通场景语义分割。Transformer 主要对输入特征的上下文信息求加权平均,根据相关像素对之间的相似性函数动态计算自注意力权重。这种灵活的操作可以使注意力模块自适应地关注整个特征图的不同区域。然而,在捕获更多全局特征的同时,其也更容易丢失局部细节特征。为此,Liu 等[12]提出滑动窗口注意力,通过滑动的窗口设计将图像分块再重组,使每个窗口能够关注特征图不同区域的局部信息。为了更加精确地捕获特征图的局部特征,Wang等[13]将金字塔结构引入Transformer,对不同尺度的特征图进行特征提取来加强对局部信息的关注。然而,上述方法未考虑高分辨率特征图中存在的低级语义信息。低级语义信息对于局部目标边界细节信息具有较强的提取能力,丢失这些信息容易导致目标边缘分割不平滑。
针对上述问题,Peng 等[14]在Transformer 主干网络中并行连续耦合CNN 来解决局部细节信息丢失的问题;Hu 等[15]提出空间细节提取模块,捕获浅层网络多层次局部特征,弥补下采样阶段丢失的几何信息;Xiao 等[16]设计了边界细化模块,利用Canny 检测器提取的粗略的低级边界特征来细化目标边界。相比上述方法,本文所提算法的独特性在于充分利用高分辨率特征图中的低级语义信息(如纹理等),并利用预训练模型和迁移学习策略来进一步提高模型的语义分割性能。
图像语义分割模型对自动驾驶、智能交通等系统中的有效部署至关重要,而编码器-解码器结构是一种有效的实现方法,该结构由编码器和解码器两部分组成。编码器通常对原图像进行卷积、池化和正则化等操作,构建下采样的主干网络,用于提取图像的高级语义信息;解码器则通过对编码结果进行线性插值、转置卷积或反池化等操作进行上采样,通过解码器能够得到与原图像相同尺寸和语义信息的输出结果。U-Net[17]和SegNet[18]采用编码器-解码器结构来实现快速推理。近年来,大部分语义分割方法采用非对称的编码器-解器码结构,以减少模型参数量和计算量。其中,Bai 等[19]采用紧凑的非对称编码器-解码器结构,并加入注意力机制来实现高质量的轻量级语义分割。Dong 等[7]通过采用轻量级主干网络MobileNet-V2 和减少下采样的方法来降低模型参数量。虽然这些方法能够实时生成分割结果,但其分割精度往往不令人满意。现有的高精度语义分割方法[12-14]都有较高的分割精度,但庞大的模型参数量和计算量不利于在实际交通场景中的部署。因此,如何在分割精度和模型大小之间取得权衡是现有交通场景语义分割任务中重要的考量因素之一[20]。
基于上述讨论和动机,本文提出一种融合多尺度深度卷积的轻量级Transformer 交通场景语义分割算法,算法框架如图1 所示,该算法采用编码器-解码器结构,将Transformer(全局特征处理)和CNN(通用、易训练、局部特征处理)的各自优势相结合,以实现分割精度与模型大小之间的权衡。1) 编码器采用双分支设计,输入图像先经过语义分支中的TB(transformer block)获得具有全局特征表示的特征映射,TB 结构如图1 所示。然后,利用多尺度条形特征提取模块(MSEM,multi-scale strip feature extraction module)以较低的模型参数量来聚合多尺度纤细条状特征信息,以增强网络局部特征表示。而空间分支通过空间细节辅助模块(SDAM,spatial detail auxiliary module)能够保留更多的空间细节信息,以弥补深层空间细节的丢失。2) 解码器分别将语义分支和空间分支生成的高级与低级特征映射相融合,进一步建模全局上下文,并以较低的计算成本进行像素级推理。所提算法能够准确地分割易融入周围背景的纤细条状目标、优化目标边缘,且获得分割精度与模型大小之间的权衡。本文主要贡献如下。
图1 融合多尺度深度卷积的轻量级Transformer 交通场景语义分割算法框架
1) 利用深度条形卷积替换标准卷积构建多尺度条形特征提取模块,通过多分支不同尺度下的条形卷积对特征图的提取与融合来增强网络对纤细条状目标的关注。
2) 为了对高分辨率特征图下的空间细节信息加以利用,设计了空间细节辅助模块来保留丰富的空间细节信息,进一步优化目标边缘达到更准确平滑的语义分割结果。
3) 提出基于Transformer-CNN 的非对称编解码网络(TC-AEDNet,asymmetric encoding-decoding network based on the Transformer-CNN),编码器结合Transformer 与CNN 将局部细节信息与上下文信息相关联,同时降低模型参数量。解码器采用轻量级的多级特征融合设计,分别将多级语义信息和空间细节信息相融合,以提高网络模型分割性能。
针对现有交通场景语义分割算法难以准确平滑地分割易融入周围背景的纤细条状目标、高精度模型参数量大等问题,本文提出融合多尺度深度卷积的轻量级Transformer 交通场景语义分割算法,所提算法主要由三部分构成:MSEM、SDAM、TC-AEDNet。
复杂的交通场景中存在各种各样的目标(如车辆、行人、建筑等),不同类型的目标占据的空间大小、形状和颜色也各不相同。纤细条状目标往往具有长距离和小尺寸的特点,更容易融入周围的背景中难以被准确地识别和分割出来,这是导致交通场景语义分割精度较低的主要原因之一。为了在交通场景中获得高精度分割结果的同时,保证模型轻量化,本文基于深度卷积构建MSEM,利用多分支下的不同尺度大小的深度条形卷积(MDC,multi-scale depthwise convolution)来提取深层次特征和纤细条状目标特征,以获得更好的语义分割结果。MSEM的机理在于多尺度卷积能够通过不同卷积核大小的卷积层来处理图像,较小的卷积核可以捕获局部细节信息,而较大的卷积核可以捕获更大范围的上下文信息。此外,多分支设计的MDC 可以在不引入额外参数的情况下扩大感受野,该方法可以使网络在多尺度下提取更加丰富的语义信息。如表1 所示,MDC 是由3 组不同卷积核大小的深度条形卷积(行卷积和列卷积)构成的,卷积核大小分别设置为7、9 和11,有助于在多尺度下捕获更多的纤细条状目标特征。其中,深度条形卷积设置了5 个参数,分别为输入特征图Input(特征图通道数×特征图高度×特征图宽度)、Scalei(MDC 的3 个分支)、卷积核的大小k、步长s和零填充的大小p。
表1 MDC 的详细网络配置
ConvNeXt 与MSEM 结构如图2 所示。MSEM采用与 ConvNeXt[21]相似的结构,不同的是将ConvNeXt Block 中的7×7 大核卷积部分进行改进,如图2 中虚线框所示。ConvNeXt 在网络设计过程中忽略了多尺度卷积对特征提取的作用,而多尺度特征融合对于语义分割任务至关重要。因此,本文独特性地采用一对深度条形卷积(行卷积和列卷积)代替标准卷积来设计MSEM。其独特之处如下:1) 使用5×5 深度卷积细化局部特征;2) 基于多尺度深度卷积构建MDC,较小的卷积核用于捕捉局部细节特征,而较大的卷积核用于捕捉全局特征,这样可以在不同尺度上提取不同级别的特征映射,并且深度条形卷积是轻量级的;3) 多分支特征融合,将每个分支分别获得的不同特征进行融合,从而得到更丰富的多尺度表示,使模型能够同时关注局部和全局特征。
图2 ConvNeXt 与MSEM 结构
此外,特征映射的每个通道的重要性往往是不同的,不相关信息会极大地影响重要语义信息的提取,导致语义分割的性能下降。因此,MSEM 在特征图输入前进一步添加通道空间注意力模块(CBAM,convolutional block attention module)[22],其目的是利用CBAM 生成的权重来指导网络学习,从而使网络能够选择性地关注重要的目标信息(如信号灯、行人、车辆等)。如图1 中CBAM 的网络结构所示,CBAM 首先采用通道注意力(CAM)获得注意力向量,并根据注意力向量对特征图的不同通道进行加权。然后,将CAM 的输出作为空间注意力(SAM,spatial attention mechanism)的输入对特征图的空间区域进行加权。最后,通过自适应学习得到的权重来指导网络关注益于语义分割的重要信息。
如图2(b)所示,MSEM 采用条形卷积来设计,获取更大感受野的同时,能够更多地捕获纤细条状目标的特征。MSEM Block 主要由三部分组成:首先,MSEM 处理的特征图是原图像的,故采用5×5 大核深度卷积用于聚合局部信息,并在使用大核卷积前添加CBAM 以选择通道维度和空间维度中易于分割的重要信息。其次,纤细条状目标的长度是参差不齐的,因此采用一组深度条形卷积(行卷积和列卷积)来近似表示具有大核的标准卷积(例如,将卷积核大小为7×7 的标准卷积替换成一对卷积核大小为7×1 和1×7 的条形卷积)用于捕获多尺度上下文信息,这样可以有效地提取图像中的纵向和横向目标信息,更有助于提取交通场景中的交通标志、路灯、树木等纤细条状目标特征。最后,使用1×1 卷积中建模不同通道之间的关系,通过对1×1卷积的输出与CBAM的输出进行加权来减小语义鸿沟,以进一步改善分割结果。计算式如下
其中,xin和xout分别为特征图的输入和输出;Attn 表示注意力机制CBAM;⊕和⊗分别表示逐元素矩阵相加和逐元素矩阵相乘;xAttn和xMDC分别表示特征图经过注意力机制和多分支结构设计MDC 的输出;DWConvk×k表示深度卷积,k×k为卷积核大小;Scalei(i=0,1,2,3)表示图2 中MDC 的第i个分支,Scale0为MDC 的残差结构;Norm 表示对输入的特征进行批归一化处理;MLP 表示图2 中的多层感知机分类器(由2 个全连接层和GeLU 激活函数构成)。
高性能的语义分割网络模型不仅需要充足的语义信息来支撑,还需要足够精细的空间细节特征来丰富空间信息。对于CNN 而言,网络不断加深的同时感受野增大,提取的语义信息也增加。现有的大部分语义分割方法通常对特征图多尺度下采样来丰富语义信息,却也丢失了一部分的空间信息,导致分割目标边缘不平滑。然而,空间信息中的低级语义特征在交通场景语义分割任务中对于生成平滑的目标边缘结果至关重要。其中,低级语义特征有助于表征局部结构模式和全局统计特性(如边界、平滑度、规则性),而高级语义特征可能无法很好地解决这些问题。因此,为了防止下采样操作导致的部分低级语义特征丢失,本文设计SDAM 用于保存丰富的空间信息并生成高分辨率的特征图,通过优化空间路径来辅助网络获得更准确平滑的语义分割结果。为了易于训练和避免过多的计算,本文基于经典的ResNet-18 网络模型[23]的前两层结构(layer0和layer1)来搭建SDAM,并与编码器语义分支中Stage[1]的输出相融合作为SDAM 的最终输出,SDAM 结构如图3 所示。
图3 SDAM 结构
SDAM 的机理在于浅卷积层结构(3×3 卷积层+批归一化+ReLU 激活函数)能够更好地捕获图像中的空间信息,从而在处理高分辨特征图时可以编码比较丰富的空间信息。为了更好地提取空间细节信息,本文循环使用2 次layer1。由于ResNet 网络中的残差结构会先将分支中的输入结果保存在内存里,直到完成相加操作后才能释放,导致增加内存占用且效率低。因此,SDAM 中去掉残差结构来简化输出。为了方便与Stage1 的输出相融合,SDAM的最终输出特征映射为原输入图像大小的,包含64 个通道。虽然SDAM 获得的特征图分辨率相对较大,但使用浅卷积层会使计算成本较小。此外,SDAM 在训练过程中采用了迁移学习的方法,将在ImageNet 数据集上训练过的ResNet-18 网络所学习到的特征迁移到SDAM 中,这有助于网络模型的快速收敛和更好地提高网络模型性能。计算式如下
其中,I∈RC×H×W表示初始输入图像(C为特征图的通道数,H为特征图的高度,W为特征图的宽度);MaxPool 表示最大池化;Bn 表示批归一化;Conv 表示标准卷积;xSDAM表示特征图经过SDAM 的最终输出;repeat {}表示多次执行相同的计算逻辑,通过将上一次的输出作为下一次的输入来实现重复执行。
目前,基于ViT 的语义分割方法往往具有较高的分割精度,这主要得益于self-attention 能够更多地捕获上下文信息。然而,该方法也更加容易丢失局部细节信息且计算成本更高,尤其在交通场景中难以准确平滑地分割易融入周围背景的纤细条状目标。因此,针对交通场景中特有的纤细条状目标提取不充分的问题,本文结合Transformer(全局特征处理)和CNN(通用、易训练、局部特征处理)的各自优势提出基于Transformer-CNN 的非对称编解码网络,其结构如图4 所示。
图4 TC-AEDNet 结构
TC-AEDNet 是基于SegFormer 网络模型[24]进行改进的。SegFormer 拥有参数量较少、简单高效、鲁棒性强等特点,但在处理图像时会将特征图下采样至原输入图像大小的,导致最后一个阶段(Stage4)的参数量远大于前3 个阶段(Stage1~Stage3)。这是因为基于纯Transformer 的网络模型受到self-attention 和下采样的影响,导致Stage4 参数量较大且局部细节信息显著丢失,从而难以准确分割交通场景中易融入周围背景的纤细条状目标。因此,为了更好地应用于交通场景语义分割任务,本文对该网络进行了改进,具体如下。
1) TC-AEDNet 的编码器采用双分支结构,语义分支保留SegFormer 网络编码主干的前3 个阶段(Stage1~Stage3),以较少的参数量来捕获更多的全局信息依赖关系,并生成较大感受野的特征图。而空间分支通过SDAM 从原输入图像中提取高分辨率特征以及保留Transformer 丢失的位置信息,通过丰富空间信息来优化目标边缘分割。
2) 对于特定的纤细条状目标针对性地构建MSEM,在编码主干的Stage4 用于关注不同尺度下的局部细节信息。其中,无论是基于CNN 还是基于Transformer 的网络模型,都需要对原图像不断进行下采样操作,以降低显存占用和增加不同尺寸目标特征的可区分性。然而,下采样操作往往会降低特征图像素的数量,从而导致丢失大量的上下文信息。如图4 所示,为了避免过多的下采样导致纤细条状目标分割不连续问题,TC-AEDNet 进行了3 次下采样,最终输出的特征图仅为输入图像的。而MSEM 中的MDC 可以通过不同尺度的深度条形卷积在高分辨率特征图上提取深层次特征和纤细条状目标特征。因此,TC-AEDNet的编码器结合Transformer 与CNN 可以避免全局特征的丢失,同时能够保持模型的高效性能。
3) TC-AEDNet 的解码器采用轻量级的多尺度特征融合方法分别将语义分支提取的深层特征和空间分支提取的浅层特征进行多尺度融合,进一步提高网络模型的性能。
本文基于SegFormer-B2 的编码网络主干配置用于语义分割。其中,Stage1~Stage3 的Transformer具有相同的网络结构,仅注意力机制的参数不同。本文在 Stage1~Stage3 中采用的 efficient self-attention 参数配置如下。次数N=[1,2,5],衰减因子R=[8,4,2],通道数C=[64,128,320]。由于Stage4 中注意力机制通过patch embedding 操作将图像投影到一个向量中,更容易破坏图像原有的位置信息且计算量大,对于准确地分割交通场景中的纤细条状目标非常不利。相比于基于深度卷积的方法,卷积核在重叠的特征图上滑动,自身携带的归纳偏置提供了保留位置信息的可能性。此外,深度卷积还具有轻量级的特点。因此,本文在SegFormer-B2 中的Stage4 采用MSEM,以增强对纤细条状目标特征的提取能力,且参数量更小。
TC-AEDNet 的编码器结构如图4 中的编码器所示,本文先将原图像I分别输入编码器的Transformer Block和SDAM中,经过Stage1~Stage3分别生成不同尺寸大小的特征图,并分别表示为F1~F3;然后,将F1和经过SDAM 生成的特征图xSDAM相融合生成FSDAM;同时,将Stage3输出的F3输入MSEM 中学习纤细条状目标特征,再次生成特征图FMSEM;最后,将编码器生成的多尺度特征图分别输入解码器进行融合。TC-AEDNet编码器结构可表示为
TC-AEDNet 的解码器结构如图4 中的解码器所示,解码器采用轻量级的上采样方法,先将FMSEM和3F进行Concat 特征融合生成特征图F4;然后,通过Linear 来改变通道数,再采用双线性插值分别将F4和F2上采样至与F1尺寸相同,并分别生成特征图F5和F6;最后,再次Concat 特征融合FSDAM、F5和F6,并通过全连接层完成分类和输出原尺寸的分割结果xencoder。TC-AEDNet 解码器结构可表示为
本文使用深度学习框架PyTorch 来实现,实验配置如下:操作系统为64 bit-Ubuntu20.04;数据处理环境为Python 3.8;CUDA 版本为10.1;深度学习框架为Pytorch 1.7.1。本文仅使用单个16 GB NVIDIA Tesla T4 的显卡(GPU)来训练和评估所提算法,且所有网络模型都经过200 epoch 的训练。
网络训练时的超参数如下:网络训练采用的是AdamW 优化器来调整模型参数和更新梯度,优化器动量β1和β2分别设置为0.9 和0.999,权重衰减为10-4;初始学习率(lr,learning ratio)设置为0.000 05,学习率调整策略采用默认系数为1.0 的poly 方式,最大迭代次数设置为160 000,随着训练迭代次数的增加,lr 会先下降,然后上升到一个较小的值,以使模型在训练后期能够做出更好的预测。同时,本文使用交叉熵损失函数和Dice 损失函数,这2 种损失函数直接被加权求和作为总的损失函数。其中,Dice 损失函数用于促进模型对小物体的检测,而交叉熵损失函数用于加强模型对大物体的检测。在网络训练时,采用了迁移学习的方法,将在ImageNet 数据集上训练过的SegFormer-B2 网络学习到的特征迁移到所提网络TC-AEDNet 中,获得了较快的收敛速度。
2.2.1 数据集
CamVid 数据集[25]是具有目标类别语义标签的城市道路场景视频集合。该数据集共由701 幅逐像素标注的图像组成,分别包括训练集、测试集和验证集,共32 个语义类别真实标签。本文选取其中常用的11 个语义类别,并采用分辨率为960 像素×720 像素的图像进行网络训练。
Cityscapes 数据集[26]主要来自城市街道环境下的驾驶场景,包含20 000 幅粗略注释图像和5 000 幅精细标注的像素级图像。本文选取精细标注的图像进行语义分割评估,并采用分辨率为1 024 像素×1 024 像素的图像来进行网络训练,这是因为Transformer 处理的图像需要裁剪为正方形图像才能够进行图像切块处理。交通场景数据集对比如表2 所示。
表2 交通场景数据集对比
2.2.2 评价指标
为了更好地评估模型的性能,本文采用像素准确率(PA,pixel accuracy)、平均像素准确率(mPA,mean pixel accuracy)、平均交并比(mIoU,mean intersection over union)对模型分割精度进行评估,以及采用参数量(Params,parameter number of a model)对模型大小进行评估。
1) 像素准确率是正确分类的像素点与像素点总和的比值。计算式如下
2) 平均交并比是各类别预测分割区域和真实分割区域间交集与并集比值的平均值,是图像语义分割领域的标准性能衡量指标。计算式如下
其中,k+1 为图像类别总数,Pii为真实标签为i被预测为i类的像素数量,Pij为真实标签为i并被错误预测为j类的像素数量,Pji为真实标签为j被错误预测为i类的像素数量。
为了验证MSEM、SDAM 和TC-AEDNet 的有效性,模块之间是否存在相互影响,本文在城市场景数据集Cityscapes 上进行了消融实验。
2.3.1 MSEM 对网络性能的影响
本文TC-AEDNet 与原网络SegFormer-B2 模型进行对比,并验证了SegFormer 中所提到的单个Stage4 参数量和分割性能。本文还将SegFormer 中的Stage4 分别替换为ASPP 和MSEM,并对其分割性能的影响进行了比较,分别表示为Stage1~Stage3+ASPP 和Stag1~Stage3+MSEM。不同编码器结构的性能对比如表3 所示。
表3 不同编码器结构的性能对比
如表3 中SegFormer-B2 所示,在解码器相同的情况下,Stage4 以远大于Stage1~Stage3 的参数量来获取丰富的上下文信息。然而,由于Stage4 被下采样至原图像的,这对于交通场景的纤细条状目标的分割十分不友好,导致分割精度显著下降。因此,本文将SegFormer 中的Stage4 分别替换成ASPP 和MSEM 并在保持Stage3 输入的尺寸大小(即原图像的)进行处理,并生成新的网络框架TC-AEDNet 来解决Transformer 丢失的局部细节信息。在TC-AEDNet 中采用ASPP,受到空洞卷积的影响提取的上下文信息不充分,在分割交通场景中的纤细条状目标时容易出现不连续的情况。与ASPP 相比较,采用本文的MSEM,通过多尺度深度条形卷积(行卷积和列卷积)来提取特征,能够增强对纤细条状目标的关注,并获得的上下文信息更加丰富,且以较小的参数量超过了SegFormer-B2的分割精度。实验验证了MSEM 能够有效扩大感受野,同时增强对纤细条状目标的特征提取能力。
为了验证不同注意力机制对MSEM 分割性能的影响,本文设立了4 组对比实验,MSEM 中不同注意力机制的性能对比如表4 所示。相比于实验1,加入注意力机制模块的实验(实验2~实验4)各项指标均得到提升,验证了在MSEM 中加入注意力层能够增强特征提取能力。实验2 和实验3 分别验证了CAM 和SAM 对语义分割性能的影响。其中,CAM 将一个通道内的信息直接进行全局处理,通常会忽略非常重要的空间位置信息,而SAM 更容易忽略通道间的信息交互。两者相比较,加入CAM 的性能比 SAM 更好,主要是因为对Transformer 处理后的特征图通过通道选择重要的信息能够更好地增强特征表示,从而有效提高语义分割性能。实验4 采用CBAM 先在通道维度进行关注,再在空间维度进行关注,从而实现对特征图的自适应调整。实验4 的各项性能指标达到了最好的结果,验证了MSEM 融合注意力机制模块更有助于提高语义分割的性能。
表4 MSEM 中不同注意力机制的性能对比
2.3.2 SDAM 对网络性能的影响
本文将TC-AEDNet+SDAM 表示为SDAM 与TC-AEDNet 并行输出,并通过常用的逐元素相加策略将其特征图相融合。这种方法实现了在同一特征维度下增加信息量的目的,这使在全局特征表示下的局部空间信息得到了增强。相比于Concat 策略,逐元素相加不仅显存占用和计算量更低,而且能够提高模型的性能。融合与不融合SDAM 的性能对比如表5 所示。其中,↑表示加入SDAM 后各评价指标绝对提升值。在SegFormer-B2 和TC-AEDNet 的基础上加入SDAM,各项性能指标也均得到提升,且模型参数量仅增加了 0.09×106。其中,SegFormer-B2 和TC-AEDNet 的编码器采用基于Transformer 的多尺度深度网络,在下采样操作中不可避免地丢失了大量空间细节信息,而且Transformer 架构中的图像切块处理操作又丢失了部分位置信息。相比之下,SDAM 能够利用卷积在浅层网络中特有的感受野优势和归纳偏置来辅助网络保留大量的空间细节信息和位置信息。实验表明,SDAM 能够提供丰富的空间细节信息,这使交通场景中细微且重要的边界细节信息得到了增强,验证了融合SDAM 能够有效地提高分割精度。
表5 融合与不融合SDAM 的性能对比
2.3.3 TC-AEDNet 的解码器对网络性能的影响
表6 多级语义信息融合用于解码器的性能对比
为了进一步验证所提算法的泛化性和有效性,将所提算法TC-AEDNet 在Cityscapes、CamVid 数据集上与FCN[27]、SegNet[18]、RtHp[7]、DeepLab-V3+[8]、Swin-B[12]、SegFormer-B2[24]、MagNet[9]、JPANet[15]等现有语义分割网络模型的性能分别进行对比。
2.4.1 Cityscapes 数据集上的实验结果
不同算法在Cityscapes 数据集上的性能对比如表7 所示,TC-AEDNet 在精度评价指标PA、mPA 及mIoU 下均取得了较好的结果。与经典算法1、2 对比,FCN 和SegNet 过度的下采样损失了大量空间信息,导致分割精度较低;与算法3~算法5 对比,RtHp、MagNet、JPANet 虽然具有较小的模型参数量,但也牺牲了较大的分割精度;与现有高精度算法 6~算法 8 对比,TC-AEDNet 采用Transformer 与CNN 的融合结构在提高精度的同时,降低了参数量,能够充分提取图像的语义信息和空间信息,并取得更高的分割精度。
表7 不同算法在Cityscapes 数据集上的性能对比
为了直观地验证所提网络的有效性,对TC-AEDNet 与高精度网络模型 DeepLab-V3+、SegFormer-B2 在Cityscapes 数据集上的分割结果进行比较,如图5 所示,图5 中方框标记为不同算法针对纤细条状目标的分割结果。如图5(c)所示,尽管DeepLab-V3+能够识别路灯杆、树干、行人等小目标,但纤细条状目标的分割结果往往是不连续的。如图5(d)所示,SegFormer-B2 整体的分割结果较准确,能够准确分割显著的目标,但纤细条状目标较多时无法实现精确分割,且目标边缘分割不平滑。如图5(e)所示,TC-AEDNet 能够连续分割纤细条状目标且边缘分割较平滑。从图5 中第2 行信号灯与行人交界处可以看出,DeepLab-V3+、SegFormer-B2 没有将行人与交通灯准确分割出来,TC-AEDNet 能够准确分割易融入周围背景的纤细条状目标。从图5 中第2~3行纤细条状图标可以看出,DeepLab-V3+、SegFormer-B2 无法准确分割横向的条状目标,而TC-AEDNet 准确地分割了十字路口的信号灯以及带有横向条状特征的交通标志物,且目标边缘分割结果较平滑。根据以上分析,验证了TC-AEDNet 能够有效分割纤细条状目标、目标边缘以及其他细节信息。
图5 不同算法在Cityscapes 数据集上的分割结果
2.4.2 CamVid 数据集上的实验结果
不同算法在CamVid 数据集上的性能对比如表8所示,对比算法2、算法5、算法6 可知,所提算法TC-AEDNet 具有较少的参数量,且能够实现更好的分割精度。SegNet 算法中采用记录最大池化索引的方法,DeepLab-V3+通过设计ASPP 模块的方法,SegFormer 通过设计高效的self-attention 的方法,来增强网络对上下文信息的提取。尽管上述网络模型对精度的提升是有效的,但没有考虑到交通场景分割任务中存在的易融入周围背景的纤细条状目标特征。TC-AEDNet 通过MSEM 中的多尺度条形卷积丰富了的纤细条状目标特征信息,基于深度卷积方法来减少参数量,设计SDAM 以解决边缘信息丢失的问题,对比结果进一步证明了TC-AEDNet 的有效性。
表8 不同算法在CamVid 数据集上的性能对比
为了直观地验证本文所提算法的有效性,将所提算法TC-AEDNet 与对比算法DeepLab-V3+、SegFormer-B2 在CamVid 数据集上的结果进行定性分析。图6 中第1 行所示,DeepLab-V3+未能准确分割行人与路灯,SegFormer-B2 未能连续分割路灯且目标边缘分割不平滑,只有TC-AEDNet 将行人与路灯连续平滑地分割了出来。如图6 中第2~4 行所示,存在易融入周围背景的纤细目标较多时,DeepLab-V3+和SegFormer-B2 中出现了错误分割的问题,而TC-AEDNet 能比较准确地分割纤细条状目标。根据以上分析,验证了所提算法TC-AEDNet 能够有效地优化纤细条状目标的分割结果,更好地提升图像语义分割性能。
图6 不同算法在CamVid 数据集上的分割结果
本文提出一种融合多尺度深度卷积的轻量级Transformer 交通场景语义分割算法TC-AEDNet。所提算法改善了交通场景中易融入环境背景的纤细条状目标分割不连续以及目标边缘分割不平滑的问题,能够权衡交通场景语义分割算法的精度和模型大小。在Cityscapes 和CamVid 数据集上的实验结果表明,所提算法的语义分支能够充分发挥对纤细条状目标特征提取优势,结合Transformer 模型对全局关注和远程依赖建模的优势和CNN 模型对局部上下文提取和计算效率的优势来共同建模全局和局部关系,并降低了模型参数量,而空间分支能够提高轻量级模型的边缘分割准确率。最后,将语义分支和空间分支的多级特征相融合,进一步提高了模型分割精度。所提算法在分割纤细条状目标、平滑分割目标边缘以及降低模型参数量等方面具有优势。