刘万军,赵思琪,曲海成,王宇萍
(辽宁工程技术大学 软件学院,辽宁 葫芦岛 125105)
如何让机器分辨出不同狗的种类?[1]这是一 个很常见的问题。由于狗的物理结构特征相似,因此要找到每只狗的局部细微特征才能正确区分不同狗的种类。在计算机视觉研究中的细粒度图像分类就是解决识别不同子类间的类别问题,如分辨鸟的种类[2]和飞机的型号[3]。
细粒度图像分类的难点归纳为以下几点:1)类间差异小,属于不同类别的对象除了一些细微的差别外,可能非常相似;2)类内差异大,属于同一类别的对象通常呈现不同的姿态;3)具有多尺度特征。由于拍摄距离、角度以及目标不同的姿态,输入图像中的目标比例会变化很大。
当前针对细粒度图像分类方法包括强监督训练和弱监督训练。强监督细粒度图像分类算法是指在训练模型时,不仅使用了类别标签,而且还使用了额外的标注信息。早期一些研究工作就是利用额外的人工部件标注点和边界框直接定位对象的关键语义部分(如鸟类的头部、尾部和躯干等关键局部特征)。Zhang 等[4]提出的基于部件算法,通过选择性搜索[5]产生关键部位(整体、头部和身体区域)的候选框,利用R-CNN(regions with CNN)[6]完成对这些部位的检测,利用约束条件对提取的关键部位信息进行修正,进行卷积特征提取,将不同区域的特征进行连接,最后通过支持向量机(support vector machine,SVM)分类器进行分类训练。Branson 等[7]提出了姿态归一化算法,对图片先局部定位和特征提取,根据局部定位结果剪裁图片,分别提取多层次的卷积特征,送入SVM 分类器进行分类。但额外的手工标注信息费用昂贵,且容易出现局部语义信息的判断错误,导致分类性能下降,限制了细粒度算法应用的可扩展性[8]。因此在仅利用类别标签的前提下,用弱监督的方式训练模型成为近期研究热点[9]。
弱监督细粒度图像分类方法是学习输入图像和输出标签之间的映射。一部分学者利用单阶段方法直接学习对象的细粒度特征,Lin 等[10]提出了双线性模型,使用两个独立的卷积神经网络计算成对的特征交互来捕获图像的局部差异,但是双线性特征表示通常存在高维问题,增加了计算量,需要大量的训练样本进行拟合。还有一些学者关注如何定位物体的前景或语义部分,提取可区分性区域的特征。Zheng 等[11]提出了递归注意力卷积神经网络算法(recurrent attention convolutional neural network,RA-CNN),通过多分支的循环网络逐步定位关键性局部区域,同时将该区域进行剪裁放大,然后再在该放大的区域寻找判别性特征,即在重点中寻找重点。但是RA-CNN 只学习到单一的判别性特征,忽略了其他语义特征。Zheng 等[12]提出了多注意力神经网络算法,通过通道分组损失函数产生用于聚类的多个局部区域。但局部语义区域的数量有限,存在细微且判别性特征丢失的问题。
弱监督细粒度图像分类方法已经取得很大进展,但是仍存在以下问题有待解决:
1)输入图片中的物体尺度变化。当物体只占据输入图片的一小块区域时,在特征学习过程中,目标特征很容易被背景抹去,降低分类准确率。
2)细粒度图像具有类内差异大、类间差异小的特点,因此只能借助于微小的局部差异才能区分出不同的子类别。
为此,本文提出了一种结合前景特征增强和区域掩码自注意力的细粒度图像分类方法。本文的主要工作:
1)提出前景特征增强模块,消除背景噪音干扰和前景目标多尺度变化对前景特征提取的影响,实现前景目标增强,有效突出前景;
2)提出区域掩码自注意力模块,利用掩码机制的特性,遮挡激活映射图的高响应特征,从而使网络关注局部细微特征,充分学习到不同子类间的局部差异性特征,挖掘出更多有用信息;
3)多分支损失函数的协同作用共同约束网络的特征学习。
图像中目标检测和目标定位是计算机视觉中重要而又具有挑战性的任务。目标定位大致归纳为3 类:强监督方法、弱监督方法和无监督方法。本文不介绍强监督定位方法。
弱监督物体定位用类别标签实现目标定位,早期是用类激活映射(class activation mapping,CAM)[13]实现目标定位,CAM 通过全局平均池化生成针对每一张图片的激活映射图,这个激活映射图能反应出物体的大致位置。但是用交叉熵损失函数训练模型时,通常会使模型关注高响应的局部区域而非整个目标,同时没有充分利用浅层特征信息。Wei 等[14]对浅层和深层特征图进行元素相乘生成CAM,可以滤出背景噪音并同时生成更清晰的边界。Sohn 等[15]提出了一种新颖的残差细粒度注意方法,此方法通过利用分布在通道和特征图中的位置信息,结合残差操作,自动激活对象的较少激活区域,生成目标边界框。Pan等[16]则充分利用卷积特性中包含的结构信息,利用高阶自相关提取模型中保留的固有结构信息,聚合多个模型的高阶自相关点实现精确定位。Zhang 等[17]提出了通过训练两个对抗互补分类器来发现整个目标的互补学习方法,该分类器可以定位不同目标的部分,发现属于同一目标的互补区域。
无监督目标定位更具有挑战性,因为它只需要一张图片实现前景目标定位,不需要任何辅助信息。一些研究表明,卷积激活图能够同时表示空间信息和语义信息,并具有显著的定位能力。Wei 等[18]提出了一种选择性卷积描述子聚合方法(selective convolutional descriptor aggregation,SCDA),融合多层卷积特征实现目标定位。然后,采用阈值策略定位细粒度图像中的目标。但是定位效果不理想,一些重要信息丢失。因此前景特征增强模块是在SCDA 算法上引入上下文注意力增强像素的空间相关性,提高前景目标的定位能力。
注意力机制是有选择的关注重点数据,而不是平等对待全部数据。注意力机制是通过神经网络自动地学习特征的权重分布,并以“动态加权”的方式施加在特征之上进一步强调感兴趣的区域,并同时抑制不相关背景区域。
掩码注意力机制不同于普通的注意力机制,它是对被选择的重点数据进行遮掩,使网络关注其他数据信息。通常来讲,首先通过通道池化生成注意力图,然后对注意力图进行归一化操作,接近1 的像素点是判别性特征,反之是细微特征。掩码注意力的应用范围很广,在目标定位、行人重识别、图像分类、3D 点云上都有所应用。
Qiao 等[19]使用掩码注意力生成注意权重,分配给文本实例。它允许一个图像中的不同文本实例被分配到不同的特征映射通道上,这些特征映射进一步被分组为一批实例特征。Wang 等[20]通过预训练好的语义分割模型产生辅助监督信号,即掩码注意力,实现了判别表示学习。这个掩码注意力让分类器过滤掉图像中不重要的部分。Sun 等[21]利用掩码注意力弱化高响应区域的特征值,使模型可以挖掘出图像中更有价值的区域。Li 等[22]通过变形卷积和掩码注意力,将稀疏的特征映射到目标区域,同时用掩码注意力突出复杂背景下的目标像素值。Xie 等[23]通过一个可见区域边界框信息生成一个空间掩码,同时调节由RoI(region of interest)层生成的多通道特征。这些掩码有效地强化可见区域特征,隐藏模糊区域特征。Choe 等[24]通过对高响应特征进行掩码遮挡,强化低响应特征,有助于网络关注输出目标的轮廓信息。
残差网络解决了网络层数增加引起的梯度弥散或梯度爆炸问题。残差网络由一系列残差块组成,残差块有两种,分别是恒等映射块和卷积块。其中恒等映射块不改变维度,卷积块改变特征维度。本文模型使用的是ResNet50。其中,conv2、conv3、conv4、conv5 分别有3、4、6、3 个残差块,每个残差块有2 个1×1 卷积和1 个3×3 卷积,conv2到conv5 有48 个卷积层,再加上conv1 层的7×7卷积层和3×3 最大池化层,共有50 个卷积层。
为了解决网络在提取特征时,会掺杂背景信息以及无法提取多样化的局部区域特征等问题,本文提出了结合前景特征增强和区域掩码自注意力网络模型(foreground feature reinforcement and region mask attention,FFRMA)。FFRMA 整体框架如图1 所示。
图1 FFRMA 整体框架Fig.1 Overall framework of method FFRMA
由图1 可以看出,FFRMA 框架主要由3 部分组成:1)前景特征增强模块(foreground feature reinforcement,FFR),定位输入图片的前景目标,然后从原图中剪裁前景目标实现特征增强;2)区域掩码自注意力模块(region mask attention,RMA),用来提取更多的多样化局部细微且重要的特征;3)多分支损失函数约束网络学习特征的能力。
FFRMA 是多分支网络结构,使用同一个Res-Net50 作为特征提取网络,共享ResNet50 网络的全部参数信息(图1 中画了两个ResNet50 网络,但其实用的是同一个ResNet50)。首先将原图送入预训练的ResNet50 提取全局特征,输出卷积结果(图1 分支a);然后将卷积结果和原图送入前景特征增强模块定位前景目标,将前景目标放大到原图尺寸,生成前景特征增强图,有效避免背景信息的干扰,接下来把前景特征增强图送入ResNet50进行特征提取,输出卷积结果(图1 分支b);最后将卷积结果通过区域掩码自注意力模块学习到更多的微小但重要的细粒度特征(图1 分支c)。整个过程以多分支损失函数约束特征学习。
在细粒度图像分类任务中,使用边界框裁剪目标对象可以减少背景噪音,使目标对象特征加强从而提高分类准确率,但是人工标注的边界框信息代价过于昂贵。前景特征增强模块解决的就是在仅有输入图片的前提下,利用卷积特征的分布响应定位输入图片的前景目标,消除背景噪声的干扰并同时对前景特征进行增强。FFR 模型结构如图2 所示。
图2 前景特征增强模型结构Fig.2 Architecture of FFR
FFR 模块在SCDA 算法上引入了上下文注意力(context attention,CA)。因为卷积运算会导致局部感受野,前景目标的一些局部细微特征存在一些差异,这种差异会造成类内不一致性,即属于前景目标的局部细微特征被归为背景区域,直接影响前景目标的定位性能。因此CA 主要是在特征间建立全局空间的上下文关联,使用注意力机制捕获特征图任意两个位置之间的空间依赖关系,减少类内不一致性。CA 结构如图3 所示。
图3 上下文注意力Fig.3 Context attention
假设F∈RC×H×W表示输入图像的最后一个卷积特征图,其中C表示通道数,空间大小为H×W。然后分别通过3 个1×1 卷积层得到3 个特征图,对3 个特征图进行reshape 操作得到{B,C,D}∈RC×N,其中N=H×W,将BT与C进行乘积运算,利用Softmax 函数对结果进行归一化得到空间相关性矩阵S∈RN×N,表示为
式中:Sji表示i位置对j位置的影响,两个位置的特征越相似,它们之间的相关性就越强,即属于同一个目标。
D与空间相关性矩阵S进行乘积运算得到中间矩阵,将中间矩阵的空间形状恢复到H×W,再与特征图F∈RC×H×W相加得到上下文注意力矩阵E∈RC×H×W。矩阵E表示了长距离上下文的特征信息,增强了像素点间的空间相关性。E按通道方向进行求和,得到激活图A,具体为
式中fi表示第i个通道的激活图。在不同通道维度上,局部特征具有不同激活响应值。每一个通道对应的激活图学习到的细粒度局部区域特征都有所不同,对应的最高响应的区域也不同。因此,通过对激活图A沿通道方向进行聚合,将目标出现的位置进行响应累加确定目标的整体轮廓。为了准确地定位物体,设置一个阈值(A的均值),定义为
不同的卷积特征映射对目标具有不同的激活响应,因此FFR 将融合不同卷积层的特征值实现精确定位。假设layer4_2、layer4_3 分别是Res-Net50 网络中的conv5 层的特征图,通过式(4)获得相应的M(4,2)、M(4,3)。然后对M(4,2)、M(4,3)进行 点乘获得准确的M。
细粒度物体通常处于M中最大的联通分量中,因此使用包含最大联通区域的最小边界框作为定位对象的结果,再将结果调整为输入图像X的大小。
不同于通用图像分类,细粒度图像分类不仅需要关注全局语义特征还要关注区别于其他子类的局部细微特征,因此设计了区域掩码自注意力模块(region mask attention,RMA)。该模块的整体结构如图4 所示。
图4 区域掩码自注意力模型结构Fig.4 Structural diagram of RMA
RMA 通过自注意力图产生两个作用不同的特征矩阵,即掩码矩阵Mmask和判别性矩阵Mdis,Mdis学习高响应区域的特征,Mmask通过设置阈值抑制高响应区域,使网络关注局部细微特征,然后以均匀分布概率p随机选择特征矩阵,Mmask和Mdis的相互合作,可以让网络学习到不同的特征。
RMA 模块的设计理念是为了提取所有对细粒度分类有用的特征信息,而不是只提取一些识别能力强的高响应信息。此外,RMA 并没有引入额外的参数开销。
具体来讲,RMA 首先通过通道平均池化,将输入特征图F∈RC×H×W映射到自注意力图Matt,自注意力图中每个像素的大小可以有效近似出目标中判别性特征的空间分布。随后,从自注意力图中产生两个分支,图4 中分支a 通过阈值 γ抑制自注意力图中的高响应区域,得到掩码特征矩阵Mmask,使网络聚焦在除高响应区域之外的局部细微特征。图4 中分支b 用Sigmoid 函数对自注意力图进行归一化得到判别特征矩阵Mdis,Mdis中接近1 的像素点代表判别性特征,通过对分支b 的训练可以让网络关注高响应区域,学习判别性特征。分支a 和分支b 的协同合作,使得输入图像的所有有用特征都可以被模型学习。在每次迭代过程中,以均匀概率p随机选择分支a 或分支b,大于0.5 的概率选择分支a,小于0.5 的概率选择分支b。最后将随机选择的特征矩阵与输入特征图F进行点乘得到输出特征图。图4 中随机选择的是掩码矩阵Mmask。
RMA 中有一个超参数是阈值 γ。自注意力图中超过阈值 γ的区域视为高响应区域。Mmask中像素值为0 代表高响应区域,像素值为1 代表其他区域信息,Mmask表示为
为了使FFRMA 模型能够充分有效地学习通过FFR 和RMA 获得的图像特征,设计了多分支损失函数。在训练阶段,FFRMA 是一个由3 个分支组成的网络结构,不同分支学习到的特征不一样,图1 中分支a 关注输入图片的整体特征;分支b 借助分支a 中原始图像的特征映射获取前景目标的边界框信息,裁剪边界框并放大到输入图片的大小,实现特征增强。前景特征增强既包括目标的结构特征,又包括细粒度特征;分支c 抑制前景特征图的判别性特征,使网络充分学习到不同的局部细微多样性特征。3 个分支使用交叉熵函数作为分类损失,分别表示为
式中:c表示输入图片的类别标签;Pr、Po、Pd分别代表3 个分支中最后一个Softmax 层输出的类别概率。总损失函数表示为
总损失函数是3 个分支损失函数之和,用以优化模型在反向传播时的性能。3 个分支损失函数的协同合作可以加快网络模型的收敛速度和提高模型的特征学习能力。分支a 输出原始图片的粗粒度分类概率;分支b 获得前景目标的边界框,从原始图片裁剪相应的区域并放大到原图尺寸,将其送入网络获得细粒度预测概率。最终分类结果是对粗粒度分类结果和细粒度分类概率取平均值。
3.1.1 细粒度图像数据集与预处理
为了证明本文方法的有效性,FFRMA 在3 个细粒度图像数据集CUB-200-2011、FGVC-Aircraft 和Stanford Cars[25]上进行评估。3 个数据集的详细信息见表1。由于细粒度数据集中每一类样本数量过少,可能在模型训练的时候出现欠拟合现象。因此,在训练FFRMA 模型之前对数据集进行数据增强。具体数据增强方式如图5 所示,图(a)为原始图片、图(b)为缩放、图(c)为水平翻转、图(d)为垂直翻转、(e)图为增强图片颜色和对比度。其中,图片的水平翻转和垂直翻转都是以概率0.5 进行数据扩充。
表1 数据集信息Table 1 Datasets information
图5 3 个数据集中训练样本的数据增强Fig.5 Data augmentation of training samples in three datasets
3.1.2 实验环境及参数设置
FFRMA 模型使用预训练的ResNet50 作为基础网络。所有的输入图片通过双线性插值调整到448 ×448 大小,在训练阶段对图片进行水平和垂直翻转,测试阶段对图片仅做归一化操作。在训练时通过图1 中3 分支完成提取图像不同的局部特征和定位输入图片的前景物体,测试阶段仅由图1 中分支a 和分支b 完成细粒度图像分类。在训练阶段使用3 个分支提高模型的鲁棒性,3 个分支的作用各不相同,彼此缺一不可,共同完成图像局部细微且判别性特征的学习。而在测试阶段,分支c 主要用于获得局部细微特征,但是经过训练阶段,网络能够很好地学习局部细微特征,因此去除了分支c。分支a 输出原始图片的粗粒度分类概率,分支b 获得前景目标的边界框,从原始图片裁剪相应的区域并放大到原图尺寸,将其输入网络获得细粒度预测概率。最终分类结果是对粗粒度分类预测概率和细粒度分类预测概率取平均值。
参数设置:FFRMA 模型采用随机梯度下降法(stochastic gradient descent,SGD)优化模型,动量为0.9,权重衰减为0.000 1,epoch 为200,batch 为6,初始学习率为0.001,每经过60 次epoch 学习率乘上0.1[26]。
实验设备:实验环境为Ubuntu 18.04.5,Ge-Force RTX 2 080 Ti,运行内存为128 GB,使用1 个显卡进行训练。模型训练平台为基于开源深度学习框架PyTorch,版本为PyTorch 1.2.0,Python 版本为Python 3.7。
3.1.3 评价指标
在细粒度图像分类领域中,研究者采用准确率作为评价指标[27]。因此本文方法采用分类准确率作为评估标准,分类准确率为
式中:R为测试集的图片数量,Ra是测试实验中正确分类的样本数量。
3.2.1 消融实验
为了证明本文模型的有效性,以CUB-200-2011 数据集为例,验证FFR 和RMA 的有效性。CAM、SCDA 和FFR 的基础网络都为在ImageNet 数据集上预训练的ResNet50,且参数设置保持一致,数据集中的每一张图片采用中心裁减,将大小调整为448 ×448。
为了验证FFR 的定位性能,以目标边界框定位的准确性(percentage of correctly localized object,PCO)作为评价指标。PCO 是指预测物体边界框与真值框的交并比值。
FFR 模块预测的是检测框与真值框之间的交并比值,将前景目标定位的准确率转化为检测框与真值框的交并比大小,更加准确地验证前景特征放大模块的定位效果。接下来,从定量的角度分析前景特征放大算法的正确性,在基准网络ResNet50 中,以数据集CUB-200-2011 为例,分别与CAM、SCDA 和FFR 进行消融对比实验,以PCO>0.5 作为FFR 模块的定量分析指标,实验结果见表2。
表2 目标定位准确率Table 2 Accuracy of object localization
为了验证RMA 模块中掩码矩阵Mmask和判别性矩阵Mdis对于网络学习特征能力的影响,在FFR 的基础上,对每一个特征矩阵进行实验。实验结果见表3。
表3 RMA 模块不同组件的消融实验对比Table 3 Ablation experiment of different components of the RMA model
以结合FFR 模块的ResNet50 作为基准网络,分别测试掩码矩阵和判别性矩阵的有效性。通过分析表3 中数据可以得知,结合了判别性矩阵Mdis的FFR 模块的准确率比单独使用FFR 模块提高了0.25%,但是结合了掩码矩阵Mmask的FFR 模块的准确率只有57.35%,因为掩码矩阵掩盖掉大多数的高响应判别性特征(如鸟头、鸟喙等判别性特征),此时网络学习到的特征是不具有类针对性,虽然学习到了一些细微特征(如鸟喙的颜色),但是这些细微特征还是要辅以高响应特征才能发挥作用,因此单独使用掩码矩阵会导致模型判别能力不足。FFR 和RMA 的结合,精度提高了0.82%,说明RMA 模块中两个矩阵对分类精度都做出了贡献。
3.2.2 RMA 参数敏感性分析
为了确定阈值 γ对RMA 的作用,分别在CUB-200-2011、FGVC-Aircraft 和Stanford Cars 数据集上进行实验,实验结果如图6 所示。
图6 参数分析Fig.6 Parameter analysis
CUB-200-2011 数据集在阈值 γ=0.9 时取得最大精度,88.0%;FGVC-Aircraft 数据集在阈值 γ=0.8 时取得最大精度,93.6%;Stanford Cars 数据集在阈值 γ=0.8 时取得最大精度,95.3%。观察图6中3 条曲线的波动情况,可以得出,阈值 γ对CUB-200-2011 数据集的影响较大,曲线波动较为明显;阈值 γ对数据集FGVC-Aircraft 和Stanford Cars 的影响较小,曲线波动不明显。
CUB-200-2011 对 γ的敏感性比较大,原因是CUB-200-2011 中鸟的种类繁多,每种鸟类都有丰富且多样性的局部特征,通过控制 γ的取值可以有效学习区别于其他子类的局部细微且判别性特征。另外,当γ=1 时3 个数据集的精度都有些下降,因为 γ=1 表示仅抑制特征图中的峰值,峰值是通用图像的分类依据(区分大类)。对于细粒度分类而言,只关注峰值是不够的,也需要关注其他特征区域,这些区域包括更多的子类间差异特征。
3.2.3 对比实验
为了更进一步分析本文方法的分类性能,将本文方法与其他方法进行比较,实验结果见表4。其中,FFRMA (Coarse)是原始图像经过图1 中分支a 得到的分类精度,FFRMA (Finer)是原始图像经过图1 中分支b 得到的分类精度,FFRMA(Ours)是对分支a 和分支b 分类精度的均值。
表4 不同弱监督细粒度图像分类方法实验对比Table 4 Experimental comparison of different weakly supervised fine-grained image classification methods %
表4 的实验数据说明了在与弱监督细粒度分类的主流方法进行对比时,FFRMA 模型在3 个数据集上均取得不错的分类成绩。FFRMA 在Cars数据集的精度最高为95.3%,与性能最好的LAFE模型相比,提高了0.5%;其次,在Aircraft 数据集取得精度为93.6%,与LAFE 在Aircraft 数据集的准确率相同,但是FFRMA 模型在另两个数据集上的精度均超过了LAFE;FFRMA 在CUB 数据集的精度为88.0%。ELoPE、MBPOL 和本文方法都是基于定位-分类的细粒度图像分类,但是FFRMA在3 个数据集的准确率均优于ELoPE、MBPOL。
图7 给出了FFRMA 模型在CUB-200-2011、FGVC-Aircraft 和Stanford Cars 数据集上准确率和损失率的变化趋势。随着迭代次数的增多,分类准确率逐渐上升,在125 次迭代后,模型完全收敛,分类准确率也达到最大。网络刚进行训练时,测试集随着训练次数的增加不断减少,网络模型参数在不断更新优化,在75 次迭代后,模型基本收敛,在125 次迭代后,优化算法找到极值点,损失值几乎不变,FFRMA 模型的参数基本稳定。
图7 FFRMA 准确率和损失率的变化趋势Fig.7 Accuracy and loss trend of FFRMA
对SCDA 和FFR 的定位效果进行可视化,如图8 所示。其中图8(a)是卷积算子增强方法(SCDA)可视化的结果,图8(b)是前景特征增强方法可视化的效果。红色矩形代表真值框,绿色代表网络学习到的边界框。通过图8 的可视化结果,FFR 模块的定位性能优于SCDA 方法,边界框更加贴合真值框,消除了更多的背景噪音,获得了更纯粹的前景目标特征,进一步提高了模型的表征能力。
图8 目标定位可视化效果对比图Fig.8 Comparison of object localization visual effect
图9 给出了3 个数据集经过FFRMA 模型处理后的可视化图。
对比图9(a)和图9(b),图9(d)和图9(e),图9(g)和图9(h),图9(b)、(e)、(h)实现了目标增强,消除了背景噪音干扰的同时关注到更多的微小且重要的局部特征信息。
图9 3 种数据集的可视化图Fig.9 Visualization of three datasets
从鸟的可视化图中可以看出,热力图深红色区域主要集中在鸟头、鸟身子和鸟脚等关键局部区域,说明鸟头、鸟身子和鸟脚对最后分类结果贡献最大;汽车的热力图聚焦在车牌、车标等显著特征;从飞机的热力图看出,网络关注的特征是方向舵,飞机图标和机翼。通过以上的可视化效果,FFRMA 模型可以有效地定位前景目标和学习丰富的局部细微特征。
本文提出了将前景特征增强和区域掩码自注意力相结合的细粒度图像分类方法,能够减少背景噪音干扰,提取丰富多样化的局部判别性特征信息。首先,前景特征增强模块可以准确定位前景目标,在消除背景噪音干扰的情况下对前景目标进行特征加强;然后,区域掩码自注意力模块在前景目标增强的前提下,捕获更多丰富的且区别于其他子类的局部细微特征。两个模块的协同合作使得分类精度明显提高;最后,在CUB-200-2011、Stanford Cars 和FGVC-Aircraft 三个数据集的实验结果表明,本文模型均取得了不错的分类精度,分别为88.0%、95.3%和93.6%,性能优于其他模型。在未来工作中,将致力于针对一些局部小区域的特征提取考虑使用跨层特征融合;将目标检测算法用在细粒度图像分类上,提高模型的定位性能;将语义与空间信息联系起来提取更加丰富且多样化的特征信息,进一步提高分类性能。