王祎 李旭伟 刘怡光 陈立平
摘 要 :基于深度学习的图像识别技术在具体应用前必须先经过大量带标签样本的训练,然而在实际场景中目标域样本可能非常稀缺,小样本图像识别技术应运而生.为了提升小样本场景下的图像识别准确率,本文提出一个通用的两阶段训练模型以融合现行主流方法并增强其表现.首先,针对训练时不同害虫种类背景相似度过高的问题提出融合双注意力机制的特征加强模块;其次,针对小样本情况下预测可能产生的过拟合问题提出基于高斯分布的特征生成模块以提高泛化能力;最后,将三种典型小样本识别方法统一成两阶段训练模型以融入提出的方法.将该思路及改进首次应用于传统害虫分类数据集IP102,识别准确率可以在基准方法上取得2.11%到6.87%的提升.为了进一步验证本文方法的有效性,在小样本领域公开数据集Mini-Imagenet也进行了相应的实验,提升效果同样显著.
关键词 : 图像识别; 小样本; 特征增强; 农业害虫
中图分类号 :S126 文献标识码 :A DOI : 10.19907/j.0490-6756.2023.042001
Few shot learning of agricultural pests classification fusion with enhanced feature model
WANG Yi 1, LI Xu-Wei 1, LIU Yi-Guang 1, CHEN Li-Ping 2
(1. College of Computer Science (College of Software), Sichuan University, Chengdu 610065, China;
2. School of Information Engineering, Tarim University, Tarim 843300, China)
In order to achieve accurate image recognition in scenarios where the target domain samples are limited,such as agricultural pest Image recognition, few shot image classification methods have been developed as an extension of deep learning-based image classification .To further improve the accuracy in the few shot image classification, this paper proposes a general two-stage training model that integrates current mainstream methods and enhances their performance to improve the recognition accuracy in limited sample scenarios Firstly, a feature enhancement module incorporating dual attention mechanism is proposed to solve the problem that the background similarity of different pest species is too high during training. Secondly, a feature generation module based on Gaussian distribution is proposed to solve the problem of overfitting that may occur in prediction in the case of a single sample. to improve the generalization ability. Finally, three typical few-shot recognition methods are unified into a two-stage training model to incorporate the proposed method. This idea and improvement are applied to the traditional pest classification dataset IP102 for the first time, and the recognition accuracy can be improved by 2.11% to 6.87% over the benchmark method. In order to further verify the effectiveness of the method in this paper, corresponding experiments were also carried out on the public dataset Mini-Imagenet in the field of few shot learning, the improvement effect is also significant.
Imagine classification; Few shot learning; Feature enhancement; Agricultural pests
1 引 言
农业问题关乎民生大计,种类繁多的害虫却给粮食生产和作物安全带来了巨大的挑战 [1],因此安全高效地识别农业害虫尤为重要.同时基于深度学习的图像识别技术也取得了飞速的进展,各种改进的卷积神经网络 [2-4]和Transformer机制 [5-6]在某些特定场景下的表现已经超越人类,面对经济与效率的取舍,有学者在农业害虫识别领域使用机器视觉方法进行了各种积极的尝试.
2016年吴翔使用12层卷积神经网络对128*128输入的彩色图像进行识别 [7], 在10类害虫识别上达到了76.7%的识别准确率;2017年Cheng [8] 等通过深度残差模块对复杂农田背景下的害虫进行识别,准确率达到99.67%;2018年周爱明 [9]提出了适合移动端部署的轻量化模型,在保证一定效率的条件下识别准确率为93.5%;2019年Thenmozhi [10]等使用迁移学习的思路研究农业害虫识别,并对多种超参数进行调节,最终在引用的三类害虫识别上达到95%以上的准确率;2020年Nanni [11]等在更具挑战的ip102 [12]数据集上,将显著性方法与卷积神经网络进行融合,达到了61.93%的识别准确率; 2021年Hridoy [13]等使用不同的卷积神经网络,在早期秋葵害虫图像上进行对比实验,其中MobileNetV2表现效果最佳,取得了98%的识别准确率.
虽然已有研究取得了较好的成果,但是其识别准确率严重依赖数据集,对于新出现的未经训练的类别则束手无策.小样本学习专门用于解决目标域样本不足这一问题,但是目前将其用于农业害虫识别这一领域的研究寥寥无几.
因此本文以当前最具挑战的IP102农田害虫数据集作为基准数据,首次采用小样本领域的研究思路进行研究;目的是通过已有类别的训练,使得模型在遇到新的类别时,只需要一张引导图片便可以将学习到的特征进行迁移,从而显著提高模型对新出现类别的识别准确率.
为了进一步提高模型在小样本情况下的识别准确率,分析三种典型小样本识别方法:匹配网络 [24],原型网络 [14]和图神经网络 [15]共性部分,在训练阶段,引入空间注意力机制和通道注意力机制以强化不同类别害虫类别差异信息;在验证阶段,使用基类信息加强新类支撑集样本特征以避免过拟合,最终将两种方法进行结合,使得模型识别准确率在基准方法上得到了大幅提升.
应用该方法可以在新的害虫种类比如非洲蝗虫刚入侵时,只需专家进行一次标定,后续便可以对其地区容易混淆的害虫种类进行识别,从而进行针对性防治预案.因此对于比较稀缺和较难获得的样本,这种训练模式无疑是更具有实际应用价值.
2 任务定义
小样本学习 [16]的目标是给定一组标记好的图集 S={( x 1, y 1),( x 2, y 2),…,( x i, y i)} ,其中 x i∈ 瘙 綆
d×d 是图像特征, y i∈C 是样本标签,人为将 S 划分为基类(base) S b 和新类(new) S n ,二者关系为 S b∩ S n=, S b∪ S n=S .对于基类数据和新类数据分别存在支撑集 S s (Support set)和查询集 S q (Query set),目的是通过 S b 的引导使得网络具有在 S n 中的泛化能力,即:在每一次任务 T 中,通过支撑集 S s n 的引导能将 S q n 划分到正确的类别中. n 含义为每一次任务的数据来源为新类(new).
为了衡量模型的泛化能力,通常会定义一个K-way N-shot的问题,即:在新类下,每次任务会随机抽取 K 个类别,每个类别只提供 N 个带标签的样本作为支持集,然后对新出现的未知标签样本进行分类计算准确率.当 N =1时就是单样本学习,即支持集每一个类别只提供一个带标签的样本用于学习.该任务信息如图1的5way-1shot 测试任务示意图.
3 相关工作及改进分析
3.1 相关工作
目前少样本研究以Meta-learning [17]为主要思路,最具代表的有匹配网络MatchingNet [24],原型网络ProtoNet [14],图神经GnnNet [15]等基于度量学习的方法.
3.1.1 匹配网络 匹配网络的思想就是在给定支持集样本的情况下,假设有一个新的测试样本 x ^ ,需要分别求出 x ^ 属于 y i 的概率,并将最大类别标签概率作为最终预测结果.模型一般表示如式(1).
P(y ^ ∣x ^ ,S)= ∑ k i=1a x ^ ,x i y i (1)
其中, k 为类别数,对于支持集的每一个类别都需要求出概率 ;a 是网络训练的目标,其一般表达式为式(2).
a x ^ ,x i =e d(f(x ^ ),g(x i)) / ∑ k j=1e d(f(x ^ ),g(x j)) (2)
其中, d 是查询集与支持集的距离度量,原文采用余弦相似度作为度量; f 和 g 为网络嵌入模型,目的是将查询集和支持集映射到不同的特征空间.
3.1.2 原型网络 原型网络则假定对于每一类样本在特征空间都存在一个原型位置prototype,同类别样本则分布于这个原型附近.因此在训练时先通过一个embedding函数 f φ 将数据映射到特征空间,然后将向量化均值作为每一类的原型空间.形式化表示为式(3).
c k= 1 ∣S k∣ ∑ (x i,y i)∈S kf φ(x i) (3)
其中, c k 为每一类别的原型; f φ 是一个嵌入模型,目的是将图像转化到特征空间,增强计算效率.
在测试时将查询 集数据与每个类别原型的距离经softmax处理便可以得到所属类别,即式(4)所述.
p φ(y=k∣x)= exp -d f φ(x), c k ∑ k′ exp -d f φ(x), c k′ (4)
其中, d 是一个距离度量函数,用于衡量查询集与类别原型之间的距离.
3.1.3 图神经网络 图神经网络的方法则通过将标签信息从有标签的样本传播到无标签的样本上进行图像分类.首先按照式(5)构造图神经网络初始节点.
x (0) i= f φ x i ,h l i (5)
其中, f φ( x i) 是样本在特征空间中的向量表示; h( l ) 是标签的One-Hot向量,二者拼接作为图的初始结点.接下来,获得图的临接矩阵如式(6).
A ~ (k) i,j= MLP θ ~ abs x (k) i- x (k) j (6)
将结点 i 和 j 的绝对值之差叠加一个多层感知器作为图的临界矩阵,MLP即是一个多层感知机, θ 是可以学习的参数.最后,获得整体图模型并通过式(7)进行消息传播.
x (k+1) l=ρ ∑ B x (k)θ (k) B,l (7)
其中, B 为邻接矩阵的集合; θ (k) B,l 是可以训练的参数,它可以获得当前层结点和其邻接矩阵的顶点并更新为下一层的顶点; ρ(·) 是为了提高泛化能力引进的激活函数.通过以上方法经过多次迭代可以将标签信息传播至无标签样本.
3.2 改进分析
由于目前不同小样本学习方法在具有不同特征的数据上表现各有优势,本文拟提出通用的特征增强模块以提高各种方法对农业害虫识别的准确率和适应能力.分析3.1节三种典型网络,其共性为:在特征空间上度量各类别之间的距离以完成分类,不同之处在于度量模式的不同.匹配网络 [24]计算待分类图片与每一张支撑集图片的余弦距离进行度量;原型网络 [14]计算待分类图片与类别原型之间的高斯距离进行度量;而图神经网络 [15]直接将类别关系通过节点与边进行传递,在传递过程中度量待分类样本与各类别之间的关系.
然而,这三种典型网络都只关注度量方法合适与否而忽略了两个关键信息:(1) 在将图像信息映射到特征空间的过程中是否损失了每个害虫类别的关键性特征信息,如果每类害虫缺乏独有的特征标识,那么分类效果势必受到影响;(2) 即使映射后的特征向量足以保留每张害虫图像的类别信息,在测试阶段每一类害虫仅有一张图片进行分类引导,如果这一张图片特征不明确或者某些非关键性信息过于强烈则会对分类结果有错误的引导.
4 提出的方法
不同于以往的小样本图像分类方法,本文采用两阶段训练的模式进行训练.第一阶段引入双注意力机制对特征提取阶段每类害虫的关键性特征信息进行数据增强;第二阶段采用基于高斯分布的特征生成模块,借助基类丰富的样本信息生成相关样本以纠正测试样本稀缺带来得偏分布,整体网络架构如图2所示.
具体的,第一阶段:首先基于传统的小样本学习方法训练出一个良好的可以准确提取不同害虫类别关键性信息的特征提取器,如resnet,并在这一阶段引入空间注意力和通道注意力 [18]机制,使得特征提取网络能够识别到不同种类在各种背景下的细微差异,从而重点关注每一个害虫类别独有特征信息.第二阶段:由于新类中的数据只有有限的带标记样本,如果采用传统方法直接分类很可能会产生过拟合的情况.因此假定特征是基于高斯分布的,则每个类的类别信息与其均值和方差直接相关,均值表示了每个类别的原型,方差表示类内差异性,这样便可以借助基类的分布更加准确地估计新类的分布 [19].因此第二阶段会借助第一阶段的特征提取网络,计算出基类类别在特征空间上的均值和方差,并基于最近邻算法的思想利用与新类最相似类别特征生成大量带标记的样本,最后结合生成的样本和新类支持集训练出一个更加优秀的分类器以实现分类.
4.1 融合双注意力机制的特征提取网络
注意力机制使得网络学会关注重点区域,比如螽斯和蝗虫的重点差异为触角与身体长度的比例,一般有空间注意力机制和通道注意力机制两种模式,空间注意力机制关注图像维度的差异信息,通道注意力机制关注通道维度的差异信息.
对于农业害虫而言,图像维度体现了不同害虫的大小,角度和位置等信息,通道维度体现了颜色,纹理等信息,二者对于不同的害虫辨识都非常重要,因此本文结合空间注意力和通道注意力机制对每一阶段生成的特征图进行加强处理.无论以ConvNet还是ResNet作为特征提取网络,都在跳跃连接阶段引入双注意力机制以达到准确率和效率的平衡,具体实现流程如图3所示.
4.1.1 通道注意力机制 将图像映射到特征空间过程中,图像信息经过多层卷积不断进行信息压缩,每个卷积层的不同通道会关注不同的信息,通道注意力机制解决网络应该重点关注通道信息的问题,一个通道注意力机制由式(8)和式(9)组成.
ω 1=σ f (W 0,W 1) α F +f (W 0,W 1) δ F (8)
其中, F∈ 瘙 綆
C×H×W 为选取的中间层的特征图, C,H,W 分别表示特征图的深度,高度和宽度; α,δ 分别表示平均池化下采样和最大池化下采样,经过其作用后特征图尺寸为 C×1×1 ,整个过程见式(9).
δ(F)= max H,W(F),
α(F)= 1 W×H ∑ H i=1 ∑ W j=1F i,j (9)
其中, W 0, W 1 是共享卷积层,目的是改变特征图的通道数.一个完整的通道注意力机制如式(10).
ω 1=σ( W 1 ReLU ( W 0α(F))+
W 1 ReLU ( W 0δ(F))) (10)
其中,ReLU()和 σ() 分别表示Relu激活函数和sigmoid激活函数.
4.1.2 空间注意力机制 空间注意力机制解决网络应该关注哪些重点区域的问题,与通道注意力机制类似,其实现方式是将平均池化下采样和最大池化下采样的结果进行特征融合后叠加一个卷积层,以获取空间权重特征,可形式化表示为式(11).
ω 2=σ W 7*7 α(F);δ(F) (11)
4.1.3 骨干网络信息融合 对于每一个stage的输出都会经过这样一个双注意力机制,通道注意力机制会把原图转化成一个 C×1×1 的一维向量,并与特征图进行相乘以学习通道的权重信息;空间注意力机制会将原图转化成一个 1×H×W 特征图,以学习到特征图的每一个空间信息的权重值.双注意力机制可表示为式(12)所示.
F′=ω 1(F)?F,
F″=ω 2(F′)?F′ (12)
其中, ω 1, ω 2 分别代表第3.1节提到的通道注意力机制和空间注意力机制; ? 表示逐元素相乘.一个完整的并行双注意力机制则会将通道注意力机制的输出作为空间注意力机制输入,最终叠加得到注意力增强结果.
4.2 基于高斯分布的特征生成器
在测试阶段每一类害虫只有一张引导图片,已训练出的模型很容易因为样本不足形成的偏分布而导致过拟合,为防止过拟合,需要合理利用基类数据中的大量样本.对于农业害虫而言,虽然新类是没有见过的类别,但均属于昆虫种类,图像特征与基类图像具有极大的相似性,因此可以借助训练集中相似样本的均值和方差来校准偏分布以防止过拟合.
4.2.1 计算基类特征信息 利用第一阶段生成的特征提取网络将原图映射到特征空间,可以有效地减少数据维度,从而进行特征的快速提取.由于基类中数据样本充足,可以方便地获取每一个类别在特征空间内的统计信息,其中第 i 类的均值 μ i 和方差 Σ i 分别为式(13)和式(14)所示.
μ i= ∑ n i j=1x j n i (13)
Σ i= 1 n i-1 ∑ n i j=1 x j-μ i x j-μ i T (14)
其中, i 代表支持集内样本种类数; j 代表对应种类内具体的样本数量; n i 则表示基类 i 中样本的总数; x j 是基类 i 中第 j 个样本的特征向量.
4.2.2 生成相关种类特征 特征迁移与校准的前提是样本相似度较高,因而在特征空间内的均值和方差相差不大,而基类数据类别丰富,不可能全部用于样本生成,因此需要找出与新类关系最为密切的种类信息.本文采用欧式距离进行密切性度量找出关系最为密切的 t 个类别,通过这 t 个类别的均值和方差来生成最相关类别的特征信息.
(15)
其中, x 是新类中带标签样本在特征空间中的向量表示; 瘙 綃
b 是基类中所有样本与新类带标签样本(新类支持集)的欧式距离的集合; b 含义为基类数据(base).按照式(16)选取距离最近的前TOP( t )个元素作为补充类集合 瘙 綃
t ,这里 t 本质上为超参数,可以根据不同的数据集灵活选取.
(16)
使用补充类集合内的元素可以按照式(17)生成与新类关系最为密切的均值和方差:
(17)
4.2.3 根据生成特征采样样本训练线性分类器 对于每一次测试任务都应该基于以上方法计算均值和方差生成样本来校正支持集样本分布,将生成的特征集合称作
y={( μ′ 1, Σ ′ 1),…,( μ′ k, Σ ′ k)} ,其中 μ′ i, Σ ′ i 是根据支持集中第 i 类图像的特征向量生成的校准分布均值和方差.
若已知类别的均值和特征向量,则通过随机采样生成补充样本,设生成的样本集合为 G y ,其可通过式(18)生成.
G y={ x,y |x~N(μ,Σ), (μ,Σ)∈F y} (18)
其中,第 i 类样本对应生成补充样本为 (x,y) ,将生成的样本与原样本混合作为增强样本,通过式(19)以最小化交叉熵损失为目标训练一个线性分类器.
l=∑ (x,y)~S ~ ∪G y,y∈YT - log Pr(y|x;θ) (19)
其中, y T 是对于每一个训练任务而言的类别数; θ 是一个可训练的参数,训练完毕之后用式(19)训练的线性分类器对新类的查询集进行预测计算准确率.
5 实验与结果
5.1 数据集介绍
本实验基于发布在CVPR 2019上的大型农业害虫数据集IP102,其共包含102类超过75 000幅从野外真实环境中发现的农业害虫图像,贴近害虫自然状态,并且数据集中包含了各种害虫不同生长周期的图像,其周期差异信息也给识别带来巨大的挑战.
对于传统图像识别任务,采用典型的原数据集划分模式,即训练集∶测试集∶验证集=6∶2∶2;而对于小样本图像识别任务,为了使验证集与训练集不产生类别交叉,编写程序随机选取60个类别作为训练集,剩余类别里验证集和测试集各占21个类别,每次任务都随机挑选五个类别中的一张图片进行验证,经过多次实验取平均值作为预测准确率结果.
5.2 传统方法表现
传统的图像识别方法主要包括手工提取特征和利用深度学习提取特征的方法,前者主要包括如SIFT [20]和HOG [21]等方法,这些方法在低级语义特征如边缘,颜色和纹理上表现较好;而后者在高级语义信息上的表现则更为优异.分别采用SIFT和HOG进行特征提取,并用SVM和KNN作为分类器进行结果评估,实验结果如表1所示.
由实验结果可见,深度学习提取特征总体上比传统手工提取特征效果更为优秀,最佳效果是以ResNet为backbone进行特征提取和KNN进行分类,但其平均准确率也仅为43.7%,从侧面反映ip102数据集具有一定的识别难度.
5.3 实验对比与提升结果
对于3.1节提到的主流且效果较好的三种方法分别以5-way1-shot单样本农业害虫识别实验设定充分进行对比实验,在使用高斯分布校准新类样本分布时最近邻阈值 t 取5,分类器采用逻辑回归,每次测试都在相同的测试集上循环实验10 000次,取平均准确率作为最终结果,因为文献[7,14-15]提出多以Conv4作为特征提取网络,但最近研究发现Resnet10更能兼顾速度与精度,为了验证方法有效性,分别以两种特征提取网络结合提出的方法均做了对比实验,实验结果如表2所示.
由实验结果可见,本文提出的方法效果显著,对于三种不同的方法识别准确率最高得到了687%增强,最差也有2.11%的提升.表现最好的是GNN网络结合提出的特征增强模块,在ip102数据集上得到了46.06%的分类准确率.
最后,对比两种不同任务的实验结果,可以发现小样本方法利用极小的数据集获得了超过传统方法的识别准确率,但是,传统方法是利用全部数据集在102个类别上进行预测,而小样本方法是只抽取一张图片在5个类别上进行预测,其识别准确率在数值其实没有直接可比性,但对于实际应用而言,显然小样本方法更具有价值,因为对于未知类别而言并不需要在所有农业害虫类别上进行识别,反而只给出个别专家标注样本进行针对性的识别更有意义.
5.4 在其他数据集上的表现
目前小样本学习的主要公开数据集为mini-ImageNet数据集,该数据集是从大型图像分类数据集ImageNet中抽取的60 000张图像构成的,总共分类100个类别,每个类别有600张尺寸为 84*84的自然图像,数据集按照主流方法进行划分,训练集,验证集和测试集分别占64个,16个,20个类别.选取Transductive和Inductive方法下效果最好的PrototypicalNet和GnnNet进行实验,提升结果如表3所示.
由实验结果可见,虽然对比其他方法PrototypicalNet和GnnNet表现已经很优秀,但是融合本文提出特征增强模块依然得到了较大的提升,同样说明本文方法在不同的数据集和不同的方法上均具有一定的普适性效果.可以作为小样本学习的通用增强策略.
5.5 消融实验
为了验证提出的两个模块:双注意力机制模块和特征生成模块的作用,采用两个数据集上表现最好的GNN模型作为基础架构,分别在两个数据集上以Resnet10为backbone做了消融实验,实验结果如表4所示.
由实验结果可见,在两个数据集上只有注意力机制提升效果并不明显,分别只有1.04%和055%,加上特征生成模块后提升效果较为明显,但是同时加上注意力机制和特征生成模块效果相当显著,分别达到了5.87%和3.95%的准确率提升,这同时也佐证了提出方法的理论有效性,分析原因,可能是因为利用原始网络进行预测时注意力机制虽然有效,但是因为网络学习已经比较彻底,在验证时作用有限,而我们的方法第二阶段进行验证时需要非常依赖第一阶段backbone生成的特征向量进行特征分布的度量,注意力机制使得网络能够更加关注每个类别之间不同的特征,配合第二阶段的数据生成弥补测试集上样本不足的情况,这样两种方法互相促进,所以会达到不错的效果.
6 结 论
本文在针对目前基于深度学习的图像分类在标记样本不足的情况下表现较差的问题,首次将小样本领域研究思路应用于大型公开农业害虫数据集IP102上进行实验并改进,对比传统图像分类方法在出现新的类别时如果没有大量的训练样本便无法进行识别的问题,提出的方法在面对同样的问题时只需要一个“引导样本”便能很好的进行识别,该方法研究思路显然更具实际应用价值.
但在实际应用过程中又发现目前主流小样本研究方法均由于样本数量不足存在识别精度过低的问题,本课题拟提出一个通用的模型以提高各种小样本方法的识别准确率,于是将传统小样本方法统一成一个两阶段的训练模式,在第一阶段引入空间注意力机制和通道注意力机制以使网络更好地提取特征;在第二阶段为了防止网络过拟合又基于高斯采样的方法借助基类数据集纠正新类分布,综合两种方法识别精度能够得到极大的提升,证明本实验研究思路和方法确实是具有价值且正确的.
最后为了提高应用价值,在极具挑战的IP102数据集上做了广泛的基准实验,验证效果的同时,抛砖引玉以求引起更多的实际应用.且目前仍存在一定可以研究的空间,比如没有解决数据长尾分布,没有解决农业害虫在不同生长时期的特征变化等一系列问题,因此后续依然会继续跟进研究.
参考文献:
[1] Yang J, Guo X, Li Y, et al . A survey of few-shot learning in smart agriculture: developments, applications, and challenges [J]. Plant Methods,2022, 18: 1.
[2] He K, Zhang X, Ren S, et al . Deep residual learning for image recognition[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. Piscataway: IEEE, 2016: 770.
[3] Howard A, Sandler M, Chu G, et al . Searching for mobilenetv3[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE,2019: 1314.
[4] Tan M, Le Q. Efficientnet: Rethinking model scaling for convolutional neural networks[C]//International conference on machine learning. Cambridge MA: JMLR, 2019: 6105.
[5] Dosovitskiy A, Beyer L, Kolesnikov A, et al . An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale [EB/OL]. [2023-01-31]. https://www.webofscience.com/wos/alldb/full-record/INSPEC:20255744.
[6] Liu Z, Lin Y, Cao Y, et al. Swin transformer: Hierarchical vision transformer using shifted windows [C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE, 2021: 10012.
[7] 吴翔.基于机器视觉的害虫识别方法研究[D].杭州: 浙江大学, 2016.
[8] Cheng X, Zhang Y, Chen Y, et al . Pest identification via deep residual learning in complex background[J]. Comput Electron Agr, 2017, 141: 351.
[9] 周爱明.基于深度学习的农业灯诱害虫自动识别与计数技术的研究[D].杭州: 浙江理工大学, 2018.
[10] Thenmozhi K, Srinivasulu U. Crop pest classification based on deep convolutional neural network and transfer learning [J]. Comput Electron Agr,2019,164:104906.
[11] Nanni L,Maguolo G,Pancino F. Insect pest image detection and recognition based on bio-inspired methods [J]. Ecol Inform, 2020, 57: 101089.
[12] Wu X, Zhan C, Lai Y K, et al . Ip102: A large-scale benchmark dataset for insect pest recognition [EB/OL].[2022-09-28].https://ieeexplore.ieee.org/document/8954351/.
[13] Hridoy R H, Afroz M, Ferdowsy F. An early recognition approach for okra plant diseases and pests classification based on deep convolutional neural networks [C]//Proceedings of the 2021 Innovations in Intelligent Systems and Applications Conference (ASYU). Elazig, Turkey: ASYU, 2021: 1.
[14] Snell J, Swersky K, Zemel R. Prototypical networks for few-shot learning[J]. NIPS, 2017, 30: 1.
[15] Garcia V, Bruna J. Few-shot learning with graph neural networks [C]//Proceedings of the 6th International Conference on Learning Representations, ICLR 2018. Vancouver, BC, Canada: OpenReview.net, 2018: 33.
[16] 赵凯琳, 靳小龙, 王元卓. 小样本学习研究综述[J]. 软件学报, 2020, 32: 349.
[17] Chen W Y, Liu Y C, Kira Z, et al . A closer look at few-shot classification[C]//International Conference on Learning Representations. New Orleans, LA, United states: OpenReview.net, 2019.
[18] Hu J, Shen L, Sun G. Squeeze-and-excitation networks [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. NJ: IEEE, 2018: 7132.
[19] Yang S, Liu L, Xu M. Free lunch for few-shot learning: distribution calibration[C]//International Conference on Learning Representations. Vancouver, BC, Canada: OpenReview.net, 2021.
[20] Ng P C, Henikoff S. SIFT: Predicting amino acid changes that affect protein function [J]. Nucleic Acids Res, 2003, 31: 3812.
[21] Dalal N, Triggs B. Histograms of oriented gradients for human detection [C]//Proceedings of the 2005 IEEE computer society conference on computer vision and pattern recognition (CVPR'05). San Diego, CA, USA: IEEE, 2005: 886.
[22] Oh J, Yoo H, Kim C H, et al . BOIL: towards representation change for few-shot learning [C]//Proceedings of the 9th International Conference on Learning Representations (ICLR). Stroudsburg,PA: OpenReview.net, 2021: 10112.
[23] Liu Y, Lee J, Park M, et al . Learning to propagate labels: Transductive propagation network for few-shot learning [C]//Proceedings of the 7th International Conference on Learning Representations, ICLR 2019. Stroudsburg,PA: OpenReview.net ,2019: 4440.
[24] Vinyals O, Blundell C, Lillicrap T, et al . Matching networks for one shot learning [J]. NeurIPS, 2016, 29: 2.