杜鹏飞 黄媛 高欣娜 武猛 杜亚茹 杨英茹
摘要:為满足实际种植环境下对病害叶片精准用药的需求,以设施环境复杂背景图像为研究对象,提出基于语义分割的复杂背景下黄瓜叶部病害分级方法。首先,使用Labelme标注软件对图像叶片和病斑进行标注,并对部分病害叶片进行图像增强以丰富数据集;然后,改进U-Net网络结构并构建基于深度学习的复杂背景下黄瓜叶片病害分割两阶段架构,对复杂背景下的黄瓜叶片、病斑进行分割;最后,提出黄瓜霜霉病、炭疽病病害严重程度分级模型D-MUNet,对病害等级进行划分。改进后的U-Net模型像素精度、平均交并比和Dice系数分别为90.48%、92.46%、0.645 7,较原始模型提升2.36%、2.34%和0.023 8。黄瓜霜霉病、炭疽病病害分级准确率分别达到92.11%和89.17%。基于语义分割的复杂背景下黄瓜叶部病害严重程度分级方法,能够对黄瓜病害实现有效地分割、分级,为病害的精准防治提供技术支撑。
关键词:黄瓜病害;复杂背景;语义分割;两阶段框架;病害严重程度分级
中图分类号:TP391.4: S436.421文献标识码:A文章编号:20955553 (2023) 11013810
Research on cucumber leaf disease severity classification in complex background
based on semantic segmentation
Du Pengfei Huang Yuan Gao Xinna Wu Meng Du Yaru Yang Yingru
(1. Shijiazhuang Academy of Agricultural and Forestry Sciences, Shijiazhuang, 050041, China;
2. Shijiazhuang Agricultural Informational Engineering Technology Innovation Center, Shijiazhuang, 050041, China;
3. Hebei Urban Agricultural Technology Innovation Center, Shijiazhuang, 050041, China)
Abstract:In order to meet the demand for precise medication of diseased leaves in the actual planting environment, a complex background image of facility environment was taken as the research object, and a classification method of cucumber leaf disease under complex background based on semantic segmentation was proposed. First, Labelme labeling software was used to label the image leaves and disease spots, and image enhancement was performed on some diseased leaves to enrich the dataset; then, the U-Net network structure was improved and a deep learning-based cucumber leaf disease segmentation under complex background was constructed. A two-stage architecture is used to segment cucumber leaves and disease spots under complex backgrounds. Finally, the disease severity classification model D-MUNet of cucumber downy mildew and anthracnose is proposed to classify the disease levels. The pixel accuracy, average intersection ratio and Dice coefficient of the improved U-Net model are 90.48%, 92.46%, and 0.645 7, respectively, which are 2.36%, 2.34%, and 0.023 8 higher than the original model. The classification accuracy of cucumber downy mildew and anthracnose reaches 92.11% and 89.17%, respectively. The classification method of cucumber leaf disease severity based on semantic segmentation can achieve effective segmentation and classification of cucumber disease, and provide technical support for accurate disease prevention and control.
Keywords:cucumber disease; complex background; semantic segmentation; two-stage framework; disease severity classification
0引言
黄瓜广泛种植于全世界各地,并且种植面积和产量呈现稳步增长态势。但是病害始终是威胁黄瓜产量的重要因素之一,如不及时防治将会导致黄瓜大规模降质减产,使种植者遭受重大损失。快速、准确地对病害进行分割并判断病害严重程度对于病害的及时防治和指导用药量至关重要[12],对绿色农业、精准农业的实现同样具有重要意义。Sammany等[34]使用GA遗传算法对神经网络的结构和参数进行优化处理,之后使用粗糙集属性约简对输入特征向量进行优化,将冗余属性剔除,提高分类的精度与速度。Sabrol等[5]对番茄5种病害的颜色、形状和纹理特征进行提取,并使用分类树的方法对病害进行分类,准确率达到了97.3%。近些年来,计算机视觉和深度学习的发展促进了病害自动识别技术的实现,Mohanty等[6]使用AlexNet和GoogleNet对PlantVillage中14类植物的25种病害共54 306幅病害图像进行分类,最终取得了99.18%的准确率。Zhang等[7]使用EfficientNet对复杂背景下的黄瓜霜霉病、白粉病以及健康叶片进行分类,分类准确率达到97%。Li等[8]针对番茄和茄子的4种病害,使用SE-Inception结构和多尺度特征提取模块对病害进行分类,准确率达到98.29%。Too等[9]使用DenseNet模型对PlantVillage中简单背景下14类植物的38种不同类别病害进行分类,取得了99.75%的准确率。
随着U-Net等语义分割网络的出现,基于深度学习的图像分割方法逐渐成为一个新的发展方向。U-Net作为较早的语义分割网络,早在医学领域应用较为成熟。Zhang等[10]将U-Net网络中的原始卷积替换为可变形卷积,并对不同大小的镰状细胞进行分割,提升了网络的鲁棒性,取得了较好的分割效果。Yang等[11]提出一种基于深度学习的CT图像分割算法,通过改进U-Net模型并加入注意力机制提高了分割精度,Dice系数达到0.959 4。近些年,U-Net等语义分割网络逐渐与农业相结合。Ngugi等[12]通过对编码器阶段进行改进,提出基于多尺度特征提取的U-Net模型,对复杂背景下的番茄叶片取得了良好的分割效果。Lin等[13]在原始U-Net网络的基础上,在各卷积层后增加了批量歸一化层,对50张复杂背景下的小样本黄瓜白粉病数据集取得了96.08%的平均像素分割准确率,该方法有效地提升了网络的泛化能力,防止了过拟合问题的发生。张善文等[14]提出一种基于多尺度融合卷积神经网络的黄瓜叶片病害分割方法,通过使用迁移学习方法加快训练速度,提高了模型的分割精度。任守纲等[15]等构建了一种基于反卷积引导的DGVGGNet网络,在对植物叶片病斑的分割问题上取得了较好的效果。图像分割方法不仅可以做到对病害进行高效、准确的分割,还是病害严重程度分级的关键前提。在病害等级划分方面,Liang等[16]提出改进后的PD2SE-Net,并应用于植物的物种识别、病害分类和病害严重程度的估计,用较低的计算成本获得了较好的性能。郑志雄等[17]提出一种基于高光谱成像技术的稻瘟病病害分级方法,使用原始图像和掩模图像对背景信息进行去除,得到单叶片高光谱图像再进行进一步分割。刘宝洋[18]以VGG-16网络模型为基础构建一个改进的深度卷积神经网络模型,通过使用迁移学习和带有参数的ReLU激活函数构造网络结构,分级准确率达到了87.2%。Wspanialy等[19]使用PlantVillage中9种番茄病害的图像,利用改进的U-Net模型来估计疾病的严重程度,并取得了较好的效果。
由于图像背景复杂、叶片之间存在遮挡等问题,导致对叶片及病斑分割效果较差。本文在前人的基础上,以复杂背景彩色图像为例,使用卷积神经网络对叶片及病斑进行特征提取,设计基于深度学习和卷积神经网络的叶片、病斑分割以及黄瓜病害严重程度分级模型,针对实际种植环境中植株背景复杂难以分割以及精准防治问题做进一步研究。
1材料与方法
1.1数据采集和预处理
本文所用数据集均为复杂环境下的黄瓜图像,图像数据主要来源于石家庄市藁城区贯庄农昌种植服务专业合作社的自采数据集,为了满足真实应用中不同光照对拍摄效果的影响,因此选择不同的时间段进行图像采集,采集时间为2021年2月15—17日的上午(8:00—10:00)、中午(12:00—14:00)、下午(12:00—16:00)三个时间段。采集的图像如图1所示,数据类型包括黄瓜健康叶片、黄瓜炭疽病、黄瓜霜霉病,采集地点为设施温室。为了使深度学习模型正常运行,在尽量避免影响模型分割准确率的前提下,将所采集的2054张图像重新调整尺寸为512像素×512像素,并使用Labelme软件进行图像标注,生成对应的Mask图,将人工标记的图像作为衡量分割准确率的标准,标注图像如图2所示。第一阶段将2054张图像按照8∶2的比例划分为训练集和测试集,其中训练集1643张,测试集411张。第二阶段训练集共600张,其中包括300张原始图像和300张数据增强后的图像,测试集共150张图像。
深度学习要求有足够的数据集去完成训练,数据集过少往往会导致欠拟合现象的发生,最终导致模型训练和测试效果都很差。由于黄瓜病害数据集较少,因此为了提升模型的分割准确率,本文在第二阶段对原始300张黄瓜霜霉病、炭疽病数据集进行了图像增强,即随机选择0.5~1.5倍数的值对原始图像进行亮度增强,这样做既可以满足模型训练对数据集的要求,还可以模拟不同光照强度对训练产生的影响。通过图像增强的方法,即增加了训练样本的多样性,又提高了模型的鲁棒性及泛化能力。数据集图像增强如图3所示。
1.2试验方法及分割模型
本文通过对叶片面积和病斑面积分别计算以达到划分病害等级的目的,但由于叶片生长于自然环境中,拍摄时背景较为复杂,直接对病斑进行分割往往会将背景中的一些相似特征一同分割,对最终的病害等级划分准确率造成一定的影响,因此首先需要对复杂背景下的叶片进行分割提取,获得简单背景下的叶片,再进一步对目标叶片的病斑区域进行分割。本文从两阶段分割的角度上出发,第一阶段为叶片分割,所对应的分割目标为叶片和复杂背景;第二阶段为病斑分割,所对应的分割目标为病斑和叶片。通过试验验证发现,两阶段分割模型的分割精度较一阶段模型更高。
1.2.1DeepLabV3+网络
DeepLab系列是融合了深度卷积神经网络(DCNNs)和概率图模型(DenseCRFs)的算法,研究人员反复试验发现:DCNNs在语义分割时精确度较低,原因在于高级特征具有平移不变性。针对下采样或者池化后分辨率降低的现象,DeepLab采用了空洞卷积算法扩张感受野,以获取更多的语义信息。
DeepLabV3[20]首先使用FCN实现图像分割,之后引入了几个并行不同速率的空洞卷积[21],从而获取更多尺度的图像特征信息,通过空洞空间金字塔池化(ASPP)[22]结构挖掘获取更多的语义特征信息以提高分割准确率。而DeepLabV3+则在原有DeepLabV3的基础之上使用解码器模块对待提取目标边界进行恢复;其次通过改变空洞卷积的采样率来改变输出的特征图分辨率,在不损失信息的情况下,加大感受野,并且在解码器模块中加入了深度可分离卷积[23],使模型整体具有更高的效率以及更少的参数量。同时,为了消除模型对于细小特征的影响,例如叶片边缘信息处理效果不佳,DeepLabV3+模型使用了ASPP模块,该模块在顶部特征映射图中加入了不同采样率的空洞卷积,既可以增大深度网络中的感受野,又可以有效地降低模型的计算参数量,保证较高的分辨率,为一些较为细小点的特征提取提供了基础。同时,DeepLabV3+在ASPP中添加了Batch Normalization层,用于加速网络收敛、防止出现梯度爆炸或梯度消失以及过拟合现象的出现。
1.2.2U-Net网络
U-Net[24]是基于FCN[25]的一种语义分割网络,其网络结构与FCN网络结构相似。网络的输入为512×512的单通道或三通道图像,网络整体分为编码—解码架构,也可分为收缩路径和扩展路径。收缩路径每一部分由两个3×3的卷积组成,用来进行特征提取,扩展路径中的每一步都包括特征图的上采样过程,与来自收缩路径的特征图相匹配融合,并且U-Net在解码器阶段的结构能充分结合浅层较为简单的特征,所以即使对于小样本也不容易过拟合。U-Net网络中较浅的高分辨率层用来解决像素定位的问题,较深的层用来解决像素分类的问题。虽然U-Net可以对像素进行精确分割,但是对于每个以像素为中心的区域都需要进行一次检测,并且由于一些中心区域重叠,造成了冗余的操作,因此会导致运行速度慢、效率低等问题。
1.2.3多尺度U-Net结构
黄瓜霜霉病、炭疽病的病斑具有形状不同、大小不同的特点,因此本文提出了多尺度U-Net模型,在原始U-Net模型下采样阶段中引入了多尺度卷积模块,加强模型的非线性表达能力,通过使用不同大小的卷积核对特征图进行卷积操作,得到新的大小不同的特征图,丰富了图像特征,从全局的视角对图像中感兴趣的特征信息进行编码解码,进而提高图像的分割性能。具体改进方法如下,通过借鉴Inception结构的特点,把特征图输入到不同大小的并行卷积核进行卷积操作,并且在下采样阶段特征图尺寸为128×128时将Inception结构中的3×3、5×5、7×7卷积核分别改变为1×3和3×1,1×5和5×1以及1×7和7×1,以满足不同形状病斑的分割需求,同时增强网络的非线性表达能力。多尺度模块如图4所示。
1.2.4DeepLabV3+與U-Net两阶段分割模型
由于网络结构存在差异,模型的特征提取能力会受到影响,不同语义分割网络模型所适用的目标也有所不同,分割准确率也会有影响。因此本文根据两阶段所提取的目标特征不同,首先对多种语义分割网络进行对比试验,选择在各阶段所适用的最好模型,结合实际环境中实时性的要求,通过调整模型网络结构以及更改特征提取网络从而达到提升分割准确率以及缩短分割时间的目的。
原始DeepLabV3模型以ResNet[26]为主要特征提取网络,在最后一个ResNet模块中使用了空洞卷积以及在特征学习阶段增加了一个新的残差模块,该残差块的顶部使用了空洞空间金字塔,用来对任意尺度的区域进行分类。DeepLabV3+以Xception[27]作为主要特征提取网络,使用深度可分离卷积分别对每个通道的空间进行单独卷积,这样的优点是在保证性能不变的同时,大幅减少计算量,并且,通过在DCNN模块中引出分支进行解码与上采样操作。此种方法与其他语义分割网络相比来说,对待分割目标的边缘信息分割效果更加准确。空洞卷积的定义如式(1)所示。
在第一阶段中,由于黄瓜图像所包含的背景干扰信息较多,例如泥土和其他与待分割叶片颜色相近的其他叶片,所以仅仅依靠提取颜色特征很难达到预期的分割效果,但是利用DeepLabV3+能够有效地挖掘不同复杂背景下的黄瓜叶片浅层和深层特征信息,在ASPP模块中通过更改膨胀率来精确地控制输出的特征分辨率,有效地提高了分割准确率,网络后层可以通过逐渐恢复空间信息捕捉到物体的边缘,相比于其他的语义分割网络,其对叶片边缘的分割更加细腻。
在第二阶段中,由于病斑形状各异以及训练样本数量较少的原因,因此选用U-Net作为该阶段的模型,在U-Net中通过concatenate操作对不同尺寸的特征图上下采样对应融合。网络的高层由于输入图像尺寸较大,下采样倍数小,特征图具备更加细致的图特征,底层下采样倍数大,信息经过大量浓缩,空间损失大,但有助于目标区域判断,因此会保留图像中的细节信息,如病斑形状、颜色等。
1.3模型评价指标
1.3.1像素准确率
像素准确率是将模型分割得到的结果与人工标记的标准分割叶片进行逐像素对比,计算得到PA。
1.3.2平均像素精度
1.3.3Dice系数
1.3.4平均交并比
1.4黄瓜霜霉病、炭疽病严重程度分级
单叶片病害等级的划分往往是通过对病斑区域占叶片面积的比例进行划分的,由于待分割叶片处于复杂的背景,背景中混有泥土、杂草等干扰因素存在,导致目标叶片或病斑易与其他同类元素混淆,从而导致过分割或欠分割,一阶段的网络很难做到同时准确的分割出叶片和病斑,因此首先需要获取简单背景下的叶片,才能够保证病害分级的准确率。
本文采用了两阶段分割网络进行黄瓜病害等级的划分,具体步骤如下:第一阶段以黄瓜的叶片和复杂背景为目标,使用测试得到的Mask图将叶片从复杂背景中提取出来,得到简单背景下的叶片。第二阶段以病斑和叶片为目标,将测试得到的Mask图对第一阶段所提取的简单背景下的叶片进行提取,从而得到病斑区域。最后分别计算病斑区域和叶片区域的面积,以二者的比值作为划分黄瓜病害等级的依据。计算公式如式(6)所示。
2试验结果分析
2.1分割效果及分析
本文所采用的训练及测试硬件设备配置如下:Intel(R) Core(TM) i7-10700K CPU@3.80 GHz 3.79 GHz,128 G内存,显卡为NVIDIA GeForce RTX 3080 10G显存,操作系统为Windows 10专业版,CUDA版本11.1,Python版本为3.7,Pytorch版本为1.7.0。为避免超参数对试验结果产生影响,本文將各网络模型超参数进行统一设置,经过多次试验,最终选定学习率为10-4、迭代次数为100、批处理大小为4、优化器采用Adam。
为验证D-MUNet网络模型对复杂背景下的黄瓜病害具有较好的分割和分级效果,此试验分别在第一、二阶段使用DeepLabV3+(Xception)、DeepLabV3+(MobileNet)、U-Net、U-net(MobileNet)、SegNet[28]、SegNet(MobileNet)、SegNet(ResNet50)、PSPNet[29](MobileNet)、PSPNet(ResNet50)进行试验。模型默认将训练效果最好的文件保存为最终的权重文件以用来进行测试,最终得到测试集分割结果。最终通过对比PA、MPA、Dice系数、MIoU以及模型参数量几个指标来综合评定模型。第一阶段各分割模型对比结果如表1所示。
从图8可以看出,在同一试验环境下相较于其他模型,DeepLabV3+(Xception)在复杂背景中能够较为完整准确地对叶片进行分割,且分割轮廓较为清晰平滑,受环境干扰较小。而其他8种模型由于各自特征提取网络结构的不同,均会将图像背景中的土壤或者除目标叶片以外的叶片一同分割,不仅导致了叶片分割准确率的降低,还会影响最终病害分级的准确率,最终的分割效果均不理想。
在第二阶段中,由于所采集黄瓜病害数据集数量较少,因此选用U-Net作为第二阶段的分割网络,原因是神经网络的每一层所提取的特征都相当于对输入数据的一个非线性变换,但随着网络深度的增加,非线性变换的复杂度也逐渐增加,与其他网络相比,U-Net在编码器和解码器阶段对各层不同尺寸的特征图进行融合,所以对于小样本数据有着较好地分割效果。以DeepLabV3+(Xception)为第一阶段分割模型,对复杂背景下的叶片进行分割,得到简单背景下的叶片,然后使用U-Net网络对病斑进行提取。针对黄瓜病斑具有大小不一的特点,提出多尺度U-Net模型(Multiscale-U-Net),以便获得更好地分割效果。如表2所示,两模型结果存在一定差异。本文所提出的Multiscale-U-Net模型在PA、MPA、Dice系数、MIoU四个评价指标上都明显高于原始U-Net模型,并分别提高了2.36%、3.46%、0.0238和2.34%,没有因为改进结构而造成模型参数量和分割时间大幅改变。
由图9、图10可知,两模型的准确率一直趋于上升水平,并且在训练的前10轮中上升幅度很大,最终准确率均达到了99.5%以上。损失值同样在前10个轮次中有着较大的下降幅度,之后逐渐趋于平稳。对比两个模型,本文所提出的Multiscale-U-Net较原始U-Net有更好的鲁棒性和分割效果。
第二阶段分割结果对比如图11所示。
通过与人工标注图像对比,不论是原始的U-Net模型还是本文所提出的Multiscale-U-Net模型都可以将叶片上的绝大多数病斑进行有效的分割。但是在一些较小的病斑或者颜色较深病斑的分割效果上,多尺度U-Net模型的分割精确度明显高于原始U-Net模型。
综上所述,通过对准确率曲线、Loss曲线以及第一、二阶段不同语义分割网络或改进后的模型分割效果图分析可知DeepLabV3+(Xception)和Multiscale-U-Net有着较好的鲁棒性且分割效果最为优秀。
2.2不同阶段模型分割效果对比
本文旨在对复杂背景下的黄瓜病害叶片进行准确分级,因此获得简单背景下完整叶片非常关键。为达到这一目的,提出了两阶段的病害分割模型。为验证该方法相较于直接从复杂背景下对病斑进行提取的优越性,采用Multiscale-U-Net分别对复杂背景下和简单背景下的病斑分割,如图12所示。
从图12可以看出,使用一阶段模型直接对复杂背景下的病斑进行分割,分割结果往往不如两阶段模型效果好。归结其原因,是由于复杂背景中含有与目标叶片病斑颜色相近的同类元素存在,使用一阶段分割无法将这些干扰因素去除,导致分割效果较差,因此本文采用两阶段模型进行病害严重程度分级的研究。
2.3病害分级标准及结果
针对黄瓜霜霉病严重度分级还没有统一的标准,查阅资料并结合植保专家的建议,将黄瓜霜霉病和炭疽病病害严重程度划分为L0到L5,根据病害等级不同将叶片划分为抗病叶片和感病叶片两类,如表3所示。
当P值为0时,病害等级为L0,则认为黄瓜叶片为健康叶片,此时植株的抗病能力强;当病害等级为L1时,植株轻微染病,但对植株自身的生长无较大影响,抗病能力较强;当病害等级为L2时,植株染病面积增大,光合作用效果轻微下降,生成养分略微减少,此时植株抗病能力下降,表现性状为感病;当病害等级为L3、L4时,光合作用效果下降明显,生成养分减少,表现性状为感病;病害等级为L5时,叶片面积的一半以上被病斑占据,叶片基本无法进行光合作用,且通过药物治疗无法治愈。
本文以黄瓜霜霉病、炭疽病图像各75张作为测试数据集,将模型预测叶片的病害严重程度与人工标注叶片的严重程度进行比较,计算出模型对于病害等级
划分的准确率。试验结果如表4和表5所示。使用D-MUNet模型对黄瓜病害图像进行分割,经过公式计算可得病害严重程度。其中霜霉病等级划分准确率分别是93.33%、92.31%、89.47%、93.75%和91.67%,平均准确率为92.11%;炭疽病等级划分准确率分别是92.31%、88.24%、88.24%、93.75%和83.33%,平均准确率为89.17%。
综上所述,本文所提出的D-MUNet在对黄瓜病害的划分上取得了较高的准确率,可以为实际种植中黄瓜病害等级的划分提供理论依据,对黄瓜病害的精准防治以及实现绿色农业具有重要意义。
从图13中可以看出,图像背景环境复杂度、光照强度的不同,会对模型的分割结果造成一定影响。
从图13(a)、图13(b)中可以看出,由于背景中存在與目标叶片颜色相似且重叠的叶片,所以模型在第一阶段的分割中,错误地将背景叶片过分割,预测的叶片面积大于实际叶片面积,导致病斑面积与叶片面积之比小于真实值,造成病害等级预测错误;对比图13(d)、图13(e)、图13(f),可见图像明暗程度也会对模型分割造成影响,当过亮或过暗时,模型可能会将背景中与病斑特征相似的元素一同分割出来,导致病斑面积大于真实值,最终造成病害等级预测错误。
此外,如图14所示,由于植株自身健康程度、生长环境的不同,在成长过程中往往会伴有叶片穿孔、卷曲以及遮挡的情况发生,这也直接导致了模型无法完整地对叶片和病斑进行分割,导致了分级准确率的下降。
3结论
1) 本文提出了基于复杂背景下的黄瓜叶部病害两阶段分割方法。首先对复杂背景下的叶片进行分割得到相对完整的叶片,其次在此基础上对病斑进行分割。相较于一阶段模型直接对病斑进行分割的效果,本文方法具有更高的准确率。
2) 充分利用DeepLabV3+、U-Net模型各自的优点,并将U-Net网络与多尺度模块相结合,提出Multiscale-U-Net模型,使得模型在面对较小目标时仍具备较好的分割效果,对病斑的分割效果有明显提升,像素准确率、平均交并比和Dice系数分别为90.48%、92.46%和0.645 7,较原始模型分别提升了2.36%、2.34%和0.0238。
3) 针对单叶片病害严重程度分级问题,提出复杂背景下黄瓜叶片病害严重程度分级模型D-MUNet,经试验验证,霜霉病平均分级准确率为92.11%;炭疽病平均分级准确率为89.17%。为实现黄瓜病害严重程度精准分级和精准施药提供了技术支撑。
参考文献
[1]Ampatzidis Y, Bellis L D, Luvisi A. iPathology: Robotic applications and management of plants and plant diseases [J]. Sustainability, 2017, 9(6): 1010-1023.
[2]Cruz A C, Luvisi A, Bellis L D, et al. X-FIDO: An effective application for detecting olive quick decline syndrome with deep learning and data fusion [J]. Frontiers in Plant Science, 2017(8).
[3]Sammany M, Zagloul K. Support vector machine versus an optimized neural networks fro diagnosing plant diseases [C]. Proceeding of Second International Computer Engineering Conference, 2006: 26-28.
[4]Sammany M, Medhat T. Dimensionality reduction using rough set approach for two neural networks-based applications [C]. International Conference on Rough Sets and Intelligent Systems Paradigms. Springer, Berlin, Heidelberg, 2007: 639-647.
[5]Sabrol H, Satish K. Tomato plant disease classification in digital images using classification tree [C]. 2016 International Conference on Communication and Signal Processing (ICCSP), IEEE, 2016.
[6]Mohanty S P, Hughes D P, Salathé M. Using deep learning for image-based plant disease detection [J]. Frontiers in Plant Science, 2016(7): 1-10.
[7]Zhang P, Yang L, Li D. EfficientNet-B4-Ranger: A novel method for greenhouse cucumber disease recognition under natural complex environment [J]. Computers and Electronics in Agriculture, 2020, 176.
[8]Li Z, Yang Y, Li Y, et al. A solanaceae disease recognition model based on SE-Inception [J]. Computers and Electronics in Agriculture, 2020, 178.
[9]Too E C, Yujian L, Njuki S, et al. A comparative study of fine-tuning deep learning models for plant disease identification [J]. Computers and Electronics in Agriculture, 2019, 161.
[10]Zhang M, Li X, Xu M, et al. Image segmentation and classification for sickle cell disease using deformable U-Net [J]. arXiv, 2017.
[11]Yang J, Qiu K. An improved segmentation algorithm of CT image based on U-Net network and attention mechanism [J]. Multimedia Tools and Applications, 2021, 81(25): 1-24.
[12]Ngugi L C, Abelwahab M, Abo-Zahhad M. Tomato leaf segmentation algorithms for mobile phone applications using deep learning [J]. Computers and Electronics in Agriculture, 2020, 178: 105788.
[13]Lin K, Gong L, Huang Y, et al. Deep learning-based segmentation and quantification of cucumber powdery mildew using convolutional neural network [J]. Frontiers in Plant Science, 2019(10): 155.
[14]张善文, 王振, 王祖良. 多尺度融合卷积神经网络的黄瓜病害叶片图像分割方法[J]. 农业工程学报, 2020, 36(16): 149-157.Zhang Shanwen, Wang Zhen, Wang Zuliang. Method for image segmentation of cucumber disease leaves based on multi-scale fusion convolutional neural networks [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(16): 149-157.
[15]任守纲, 贾馥玮, 顾兴健, 等. 反卷积引导的番茄叶部病害识别及病斑分割模型[J]. 农业工程学报, 2020, 36(12): 186-195.Ren Shougang, Jia Fuwei, Gu Xingjian, et al. Recognition and segmentation model of tomato leaf diseases based on deconvolution-guiding [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(12): 186-195.
[16]Liang Q, Xiang S, Hu Y, et al. PD2SE-Net: Computer-assisted plant disease diagnosis and severity estimation network [J]. Computers and Electronics in Agriculture, 2019, 157: 518-529.
[17]郑志雄, 齐龙, 马旭, 等. 基于高光谱成像技术的水稻叶瘟病病害程度分级方法[J]. 农业工程学报, 2013, 29(19): 138-144.Zheng Zhixiong, Qi Long, Ma Xu, et al. Grading method of rice leaf blast using hyperspectral imaging technology [J]. Transactions of the Chinese Society of Agricultural Engineering, 2013, 29(19): 138-144.
[18]劉宝洋. 基于机器视觉的黄瓜叶部病害程度检测系统研究[D]. 西安: 西京学院, 2020.Liu Baoyang. Research on the detection system of cucumber leaf diseases based on machine vision [J]. Xian: Xijing University, 2020.
[19]Wspanialy P, Moussa M. A detection and severity estimation system for generic diseases of tomato greenhouse plants [J]. Computers and Electronics in Agriculture, 2020, 178.
[20]Chen L C, Zhu Y, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation [J]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 801-818.
[21]Yu F, Koltun V. Multi-Scalecontext aggregation by dilated convolutions [C]. ICLR. 2016.
[22]Chen L C, Papandreou G, Kokkinos I, et al. Semantic image segmentation with deep convolutional nets and fully connected CRFs [J]. Computer Science, 2014(4): 357-361.
[23]Howard A G, Zhu M, Chen B, et al. MobileNets: Efficient convolutional neural networks for mobile vision applications [J]. arXiv, 2017.
[24]Onneberger O, Fischer P, Brox T. U-Net: Convolutional networks for biomedical image segmentation [J]. Springer International Publishing, 2015.
[25]Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 39(4): 640-651.
[26]He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [J]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016, 770-778.
[27]Chollet F. Xception: Deep learning with depthwise separable convolutions [J]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017, 1251-1258.
[28]Badrinarayanan V, Kendall A, Cipolla R. Segnet: A deep convolutional encoder-decoder architecture for image segmentation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12): 2481-2495.
[29]Zhao H, Shi J, Qi X, et al. Pyramid scene parsing network [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 2881-2890.