梁秀满,安金铭,曹晓华,曾凯,王福斌,刘贺飞
(华北理工大学 电气工程学院,河北 唐山 063210)
优质的铁矿石不仅能节约能源、降低生产成本,而且能减少对环境的污染,烧结作为炼铁过程中的一个重要环节,工艺过程十分复杂,包括焦炭燃料破碎、矿物配料、加水制粒、烧结及筛分等多个环节[1]。烧结终点是评价烧结成品品质的重要依据,是与烧结矿的产量、成本和能源消耗相关的重要工艺参数。烧结终点的判断依据,主要分为两类:1)分析烧结工艺影响烧结终点的相关参数,包括烧结机台车速度、点火温度、煤气压力、煤气流量、负压、终点温度等,由于工艺的复杂性、计算的偏差,因此通用性不强;2)基于机器视觉的烧结火焰图像状态分类,通过图像处理分析料层与烧结终点的位置关系,该方法具有节省看火工人力资源、自动化程度高等优点。烧结断面火焰图像的燃烧状态能有效判断烧结终点的位置,从而提高优质铁矿的产出率[2]。因此,准确识别烧结火焰的不同燃烧状态对优化钢铁产业及提高能源利用率都具有重要意义。
卷积神经网络在图像分类领域占据着重要的地位,以强大的图像特征提取能力被广泛应用于各种图像分类任务,取得了十分显著的效果。近几年,深度学习已逐步应用在钢铁产业,包括:应用图像分类技术的烧结看火、应用目标检测技术的板坯表面质量检测、应用图像分割技术的带式运输机皮带跑偏检测以及铁水包扒渣识别等[3]。2012年,AlexNet 网络[4]的出现标志着卷积神经网络逐步走向深度学习。ResNet 网络[5]解决了卷积网络随着卷积层的加深出现的梯度消失、梯度爆炸等网络退化问题,但由于参数过多导致模型训练速度不理想。MobileNet 网络[6]中的深度可分离网络能够在不影响识别准确率的情况下提升模型运行速度。卷积神经网络善于提取局部信息,然而,烧结火焰图像的大面积火焰区域依赖于全局特征信息,采用卷积神经网络进行图像分类,使得火焰识别任务的效率低,准确率难以提升。近年来,Transformer 在自然语言处理取得了重大的研究进展,其在图像分类也得到了广泛的应用。ViT网络[7]将Transformer 应用在图像分类任务上,但无法建模一张图片的局部信息。
通过上述分析,本研究结合CNN 网络善于提取局部特征和Transformer 更加聚焦于全局特征信息的特点,构建了一种基于CNN-Transformer 双流网络分类模型,以解决烧结火焰利用单流网络结构提取特征信息不全面的问题,从而提高烧结火焰图像分类识别精度。
卷积神经网络利用卷积核对图像的像素进行卷积运算,然后得到特征映射矩阵,提取相应位置的局部特征,虽然可以通过扩大感受野捕捉全局特征,但这可能需要更密集但具有破坏性的池化操作,例如RseNet-18[5]由于中间池化层缺乏细粒度的全局上下文建模,难以获取烧结火焰全局图像信息,从而影响分类识别精度。Transformer 将图像分成固定大小的patch,然后通过线性变换得到patch embedding,最后使用注意力机制,编码图像特征矩阵的任意两个位置反映了复杂的空间变换和长距离特征依赖性,构成了全局表示,但受限于计算复杂度,Transformer 需要减小输入分辨率、增大下采样步长,这造成切分patch 阶段损失图像细节信息,忽略了局部特征细节,降低了背景和前景之间的可辨别性。因此,本文为了提高火焰识别的准确率,在传统卷积神经网络引入Transformer结构,构建Transformer 全局特征流,与CNN 流局部特征流进行特征融合建模双流网络。
根据烧结断面火焰图像的特点,RGB(redgreen-blue)彩色火焰图像具有更加细粒度的局部特征信息,利用CNN 流提取彩色图像中更多颜色通道的细粒度局部信息,能够增强与全局信息的交互性。烧结火焰状态分类同时依赖于火焰的全局表观特征,利用Transorformer 流提取灰度火焰图像中的全局特征信息,在满足全局表观特征信息的需求下,加快了模型运行速度。然后,利用级联交互特征融合模块,将CNN 流提取的局部特征与Transformer 流提取的全局特征进行融合,得到具有全局性且细粒度的烧结火焰特征信息。整体网络模型如图1 所示,该网络模型包括:基于ResNet-18 的CNN 模块、基于ViT 的Transformer 模块、特征融合和softmax 损失函数。
图1 CNN-Transformer 双流网络模型Fig.1 CNN-Transformer two-stream network model
充分利用卷积神经网络局部感知的特点,可以有效地提取烧结断面火焰空间局部信息,因此双流网络基于卷积神经网络设计了CNN 流。综合考虑烧结断面火焰图像的小数据集和网络模型训练效率的问题,选取ResNet-18 作为CNN 流的骨干网络结构,并改变网络残差结构为深度可分离卷积结构。
深度可分离卷积包含两种卷积结构:深度卷积(DW)和逐点卷积(PW),如图2 所示。首先,深度卷积对输入特征图的每个通道利用3×3 卷积层独立进行卷积运算,得到相同数量的特征;然后,将输出的特征图经过1×1 卷积核进行通道数的加权组合。采用深度可分离卷积能够使网络在不影响准确率的前提下明显降低网络计算量,获得更高效的轻量化网络[8]。
图2 深度可分离卷积结构Fig.2 Structure diagram of depth separable convolution
虽然CNN 流利用深度可分离卷积的ResNet-18 网络提取了局部特征信息,但未能根据烧结火焰图像大面积火焰区域很好地提取全局特征信息。因此,为了更好地保留烧结断面火焰图像的空间信息,引入Transformer 流对烧结火焰图像特征提取进行补充。
Transformer 结构对图像进行全局self-attention,得到较好的全局信息特征,适用于有大面积火焰区域的烧结图像,由于烧结火焰图像以位置信息、火焰区面积等特征进行火焰状态的分类,因此将RGB 彩色图像转化为灰度图输入Transformer 流中,减少参数量提升模型训练速度,同时不损失全局特征信息。Transformer 是以MSA(mutil-head attention)多头注意力为基础的模块,注意力根据输入特征的重要程度进行权重匹配。
该结构为多个单头注意力并行,但由于自注意力计算方式的特点,架构推理速度被严重限制。EdgeNeXt[9]的分割深度转置注意编码器(SDTA)中自注意力计算模块使以往查询矩阵Q(HW×C)、键矩阵QT(C×HW)之间的空间维度计算转变为通道维度上的注意力计算,仅对查询矩阵进行转置,得到C×C矩阵,可以更加有效地编码全局上下文。计算公式如式(1)所示,对图像特征矩阵进行线性变换。
式中:Q为查询矩阵;K为键矩阵;V为值矩阵;SAc为通道self-attention 计算;Wo为特征融合矩阵。
CNN-Transformer 双流网络将卷积结构与Transformer 结构的优点有效结合,提高烧结火焰图像的分类识别精度。ZADEH A 提出的TFN(tensor fusion network)[10]特征融合方式将提取的特征进行维度扩增,然后对不同特征求笛卡尔积,不仅计算了两个特征空间的相关性,而且保留了各自的特定特征信息。但该方法增加了特征维度,导致模型参数量增大,模型容易过拟合。低秩多模态融合(LMF,low-rank multimodal fusion)[11]利用低秩权重张量和输入张量的并行分解来计算基于张量的融合,解决了TFN 维度增加的问题,降低了时间复杂度。但CNN 流和Transformer 流的特征维度不同,上述特征融合方式无法将全局特征与局部特征精准地相互嵌入,使得识别精度不高。
为了更好地融合CNN 流提取的局部特征与Transformer 流提取的全局特征,加入特征耦合单元(FCU)[12]和级联的融合策略。FCU 为一种交互性的方式将两路网络获取的特征融合,逐步融合特征图和patch embedding。这种交互特征融合方式的优点是特征信息交互共享,但两路网络信息交互过程中也会不可避免地损失较多信息。为了解决这个问题,本文提出了一种新的基于级联特征耦合单元(cascading feature coupling units,C-FCU)的特征融合模块,可以获取更全局且具体的特征表达。
所提出的特征融合模块如图3 所示。由于CNN 和Transformer 的特征维度不一致,因此利用1×1 卷积和上下采样来实现维度和通道的对齐。当馈送到Transformer 分支时,特征图首先需要通过1×1 卷积来对齐patch embedding 的通道数,然后使用下采样模块完成空间维度对齐。FCU 下采样仅采用平均池化来压缩信息,受到文献[13]启发,本文将最大池化与平均池化结合,最大池化能够编码目标的显著性信息,可以更加精准地将CNN流的分辨性较强的特征信息交互到Transformer流。当从Transformer branch 反馈到CNN 分支时,patch embedding 需要双线性插值上采样以对齐空间尺度,然后通过1×1 卷积将通道维度与CNN 特征图的维度对齐,最后将两路网络输出的特征进行级联操作,即得到了级联交互特征融合图。整体运算过程如下:
图3 级联特征耦合单元Fig.3 Cascading feature coupling units
式中:hC表示CNN 流局部特征图;hT表示Transformer 流全局特征图;hC-T表示CNN 流交互到Transformer流的特征图;hT-C表示Transformer 流交互到CNN 流的特征图;hFF表示融合后的特征图;kn×n表示n×n卷积核;σ1表示GELU 激活函数;σ2表示ReLU 激活函数;AvgPool 表示平均池化运算;MaxPool表示最大池化运算,Interpolate 表示双线性插值;[*]表示级联(cascading)操作。
最后,将融合后的特征输入到softmax 损失函数层中,预测3 种火焰燃烧状态的概率,进而实现烧结火焰图像正常燃烧、过烧以及欠烧状态的分类。
本研究试验自建火焰数据集,采集的图像来源于唐钢320 m2烧结机的烧结机尾断面火焰图像,数据集中的类别可分为正常烧结、欠烧和过烧3 种状态,如图4 所示,正常燃烧火焰能量的剖面分布成正态分布,火焰面积大,烧结过程中矿粉利用率高,炼铁成品率高;而欠烧图像和过烧图像能量剖面分布成非正太分布,火焰面积均减少,浪费燃料并且不符合生产要求。
图4 烧结断面3 种火焰状态图像Fig.4 Three flame state images of sintered section
火焰图像数据预处理是为了提高网络的泛化性能,抑制网络模型过拟合,并提高网络模型训练速度,本研究实验采用3 种方法:
1)对获得的烧结结尾断面火焰图像进行数据扩增,包括随机旋转、水平和垂直翻转、调整图像的亮度饱和度、对比度等方式;
2)采集到的图像受烧结环境中烟气、粉尘的影响,导致火焰图像模糊、噪声退化,选取部分原始数据集中的烧结火焰图像进行图像复原并划入数据集中;
3)烧结断面火焰图像有大面积的背景区域,火焰图像背景区域具有大量的冗余信息,其特征对断面火焰图像的识别分类影响不大,为了减少网络背景区域的特征学习所消耗的时间,对部分数据集中的图像进行火焰目标区域分割与背景区域的分割。
图像预处理后的数据集数量为原来的10倍,共13 116 张图像,包括正常火焰图像6 447张,过烧图像4 305张,欠烧图像2 364 张。
本次实验环境硬件训练平台为:32 G Intel(R)Xeon(R)E7 CPU,12 G 显存NVIDIA-RTX3060Ti GPU;软件平台为:操作系统Ubuntu20.04,深度学习框架PyTorch1.8.0 实现网络模型训练,编程语言Anaconda3,并行计算架构CUDA11 和GPU 加速库CUDNN8.2.1 等。
为了比较不同训练参数在训练过程中对CNNTransformer 双流网络模型的影响,本实验分别选用了随机梯度下降(SGD)优化器和自适应矩估计(Adam)优化器,设置学习率为0.01、0.001 和0.000 1,批大小选取8、16、32 进行对比试验。学习率控制了基于损失梯度调整神经网络权值的速度。如果学习率较小,梯度下降就会很慢;如果学习率较大,则梯度下降步长超过最优值。经过多次试验调参后,最后选择随机梯度下降法(SGD),当学习率为0.001、动量参数为0.937、批大小为32、权重衰减率为0.000 5时,测试集准确率可达96.20%,实验效果对比如表1 所示。
表1 CNN-Transformer 网络模型在不同参数下学习效果对比Table 1 Comparison of learning effects of CNN-Transformer network models under different parameters
针对如何将局部特征和全局表示精确地相互嵌入的问题,本研究实验在烧结断面火焰图像数据集上对比了不同的特征融合方法对网络的影响,包括TFN、LMF、FCU 和本文提出的级联特征耦合单元(C-FCU)的特征融合方式,如表2 所示。实验结果表明,FCU 特征融合对比TFN、LMF 特征融合方法火焰识别准确率有较为明显的提升,这是由于FCU 可实现CNN 流和Transformer 流的精准特征交互。然而,由于特征在交互过程中导致部分信息丢失,因此C-FCU 特征融合方法对CNN-Transformer 双流网络分类火焰状态准确率效果较好,网络模型准确率可达96.20%,相较于FCU 方法提升了1.06 个百分点。
表2 不同特征融合方法结果对比Table 2 Comparison of results of different feature fusion methods
此外为进一步验证所提双流网络中CNN 流和Transformer 流的有效性,在烧结断面火焰图像数据集上进行了详细的消融实验。表3 为所提方法的消融实验结果,其中CNN 流为ResNet18 框架基础上将残差结构替换为深度可分离卷积结构,Transformer 流的骨干网络为ViT,自注意力计算由空间转换到通道维度上。实验结果表明,本文所提的CNN-Transformer 算法的分类精度要高于CNN流和Transformer流,在火焰图像数据集上的准确率分别提高3.69%和2.2%,这表明CNN-Transformer 算法能够有效地提取并融合烧结断面火焰像中的局部信息和全局信息,使得特征表达更加具有鉴别力,进一步提高火焰分类的精度。
表3 CNN-Transformer 算法的消融实验Table 3 Ablation experiment of CNN-Transformer algorithm
为了验证本文算法的有效性和先进性,在烧结火焰图像数据集上,将本文算法与现有的主流图像分类方法进行比较,如表4 所示。需要说明的是,所有算法均采用相同的实验条件。从对比实验结果可以看出,本文提出的双流网络模型的性能均优于经典的卷积神经网络ResNet18 和InceptionV3;相较于轻量化卷积神经网络模型MobileNet-V2,本文模型分类精度提高8.85 个百分点;对比Transformer结构的ViT 网络模型,只有其近23%的模型复杂度,本文模型分类精度提高5.71 个百分点。这表明双流网络模型火焰分类效果优于单流网络模型。同时对比主流的特征融合网络,包括Conformer[12]和CMT[16],同样融合了基于CNN 和Transformer 两个分支提取的特征,Conformer 网络模型采用FCU特征交互方式进行融合,CMT 网络模型将CNN 层插入Transformer 结构以提取特征。实验结果表明,相较于Conformer 和CMT 模型,本文模型参数量减少几乎近一半,分类准确率分别提升了1.85和1.2 个百分点,模型训练时间减少12.6 min 和15.04 min,网络运行速度为25.78 f/s,能够满足快速识别烧结火焰状态的要求。这表明深度可分离卷积和通道维度的注意力使得网络模型更加轻量化,同时采用C-FCU 特征融合方法取得了与目前主流方法更优的分类准确率。
表4 CNN-Transformer 双流网络模型与其他模型学习效果对比Table 4 Comparison of learning effects between CNNTransformer dual-stream network model and other models
传统的CNN 算法使用局部感受野来进行特征捕获,无法直接对烧结断面火焰图像全局环境进行建模。因此,本文提出面向烧结机尾断面火焰图像的CNN-Transformer 双流网络。该算法包含两个组成部分:CNN 流和Transformer 流。CNN 流将深度可分离卷积的ResNet-18 模型提取的特征作为火焰场景的局部表达;Transformer 流基于自注意力获取上下文信息来提取火焰图像的全局表达。CNN-Transformer 网络模型有效融合了这两种特征,相较于一些现有的方法对火焰图像进行分类,分类精度取得了令人满意的结果。本研究用图像识别在线判断烧结终点,对减轻工人劳动强度、提高系统自动化程度、实现钢铁工业智能制造等具有重大工业应用价值,强化深度学习在钢铁工业的实际应用。