基于Mask R睠NN模型的葡萄藤关键结构分割方法

2024-05-22 21:42董娅兰胡国玉刘广古丽巴哈尔·托乎提
中国农机化学报 2024年2期
关键词:图像分割葡萄藤特征提取

董娅兰 胡国玉 刘广 古丽巴哈尔·托乎提

摘要:剪枝點的精确识别与定位是实现葡萄藤冬季剪枝智能化的基础,葡萄藤关键结构的分割是用于推理精确剪枝点的重要前提。针对现有分割方法受背景影响较大致使葡萄藤各关键结构损失和剪枝点识别与定位不准确的问题,提出一种基于Mask RCNN的葡萄藤关键结构分割方法,建立葡萄藤修剪模型以及各关键结构数据集。通过主干特征提取网络和分割性能的对比试验,得出最优的Mask RCNN模型结构并验证其拟合与泛化能力以及在不同自然背景下的分割性能。结果表明,以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型具有较好的拟合与泛化能力,相较于对照组模型准确率分别提升7.33%和8.89%,召回率分别提升9.32%和9.26%,平均精度均值分别提升12.69%和12.63%,其能够克服各类自然种植背景因素,分割目标边缘完整,葡萄藤各关键结构之间连接关系正确。

关键词:图像分割;特征提取;葡萄藤;深度学习

中图分类号:TP391

文献标识码:A

文章编号:20955553 (2024) 02020708

收稿日期:2022年8月12日  修回日期:2022年10月17日

基金项目:国家自然科学基金资助项目(12162031)

第一作者:董娅兰,女,1999年生,甘肃陇南人,硕士研究生;研究方向为农牧机器人及智能农业装备。Email: dongyalan122@163.com

通讯作者:胡国玉,女,1979年生,新疆乌鲁木齐人,博士,副教授;研究方向为农牧机器人及智能农业装备。Email: xjhuguoyu@xju.edu.cn

Segmentation method for grapevine critical structure based on Mask RCNN model

Dong Yalan, Hu Guoyu, Liu Guang, Gulbahar Tohti

(College of Mechanical Engineering, Xinjiang University, Urumqi, 830049, China)

Abstract:

The precise identification and positioning of pruning points is the basis for the intelligent pruning of grapevines in winter, the segmentation of the critical structure of the grapevine is an important prerequisite for reasoning about the precise pruning point. Aiming at the problem that the existing cutting method is greatly affected by the background, resulting in the loss of critical structures of the grapevine, and inaccurate identification and positioning of pruning points, a segmentation method of grapevine critical structure based on Mask RCNN was proposed, the grapevine pruning model and the critical structure data sets were established. Through the comparative experiment of backbone feature extraction network and segmentation performance, the optimal Mask RCNN model structure was obtained and its fitting and generalization ability and segmentation performance in different natural backgrounds were verified, The results showed that the Mask RCNN model with ResNet 101+FPN as the backbone feature extraction network proposed had better fitting and generalization ability, compared with the control group model, the accuracy rate was increased by 7.33% and 8.89%, the recall rate was increased by 9.32% and 9.26%, and the average precision was increased by 12.69% and 12.63% respectively, it could overcome various natural planting background factors, the edge of the segmentation target was complete, and the connection relationship between the critical structures of the grapevine was correct.

Keywords:

image processing; feature extraction; grapevine; deep learning

0 引言

冬季修剪是葡萄種植管理过程中一项重要的农艺环节,通过冬季修剪能够合理分布生长枝与结果枝,阻止结果部位过快上移;调节单位面积上的芽眼负载量、结果母枝数量与长度,进而提高来年的葡萄产量与质量[1]。目前现有修剪机械多针对林果树木,粗犷的修剪方式与机械无法满足精细化的葡萄藤冬季修剪需求[2],因此葡萄冬季修剪主要依靠人工作业,其季节性劳动强度大、人工作业效率低,致使劳动成本投入增加。因此,开发自动化、智能化的葡萄修剪设备具有重要意义。

在葡萄栽培与种植过程中,机器视觉技术常被应用于葡萄串检测、葡萄藤结构识别、病虫害防治、产量与叶面积的估算[36]。针对葡萄冬季修剪作业,剪枝点的精确识别与定位可以保证来年葡萄保质增产,葡萄藤关键结构包括绑缚主干、枝条与节点,其各结构之间具有较强附属性,并且相似性较大,各关键结构之间的连接关系是推理与定位葡萄藤冬季修剪点的关键。为此,国内外学者研究多集中于葡萄各关键结构的识别、芽点二维与三维位置的推理与识别以及智能装备的开发。贾挺猛等[7]将骨架提取方法应用于葡萄藤各关键结构提取中,对比分析多种细化算法用于保证骨架具有良好的连通性与中心性,在此基础上,Xu等[8]提出一种基于Rosenfeld细化算法和Harris算法结合的芽点检测方法。Botterill等[9]设计了一种葡萄藤自动修剪机器人,通过三目摄像机重建形成完整的三维藤蔓模型,同时对机器人手臂进行高效的无碰撞路径规划,实现葡萄藤冬季修剪作业的自动化。Pérez[10]、Daz[11]等使用尺度不变特征变换来计算底层特征,利用支持向量机训练分类器来检测葡萄芽在三维空间中的位置。

由于芽点的大小与形状存在差异、图像采集多受光照与背景影响,传统的图像处理方式会导致在藤条细化过程中弱小芽点被忽略。深度学习是目前最先进的处理葡萄种植任务的方法,已经应用于葡萄藤修剪作业,如Marset等[12]提出了一种基于完全卷积网络从葡萄藤图像中完整分割出芽体形状的语义分割网络,用于识别突出芽体。Fernandes等[13]对葡萄藤图像进行分割并创建葡萄藤植物代表模型,依据农艺规则推测潜在的修剪点。Yang等[14]提出一种基于细化算法和轻量级卷积神经网络的二维葡萄冬季剪枝位置,训练分类器查找芽眼并获得冬季剪枝位置。由于国内葡萄种植环境较复杂,葡萄藤关键结构之间、关键结构与周围环境之间都存在较大相似性,上述方式不适用于在国内复杂的种植背景下精确的葡萄藤关键结构识别以及葡萄藤冬季剪枝点推理以及定位作业。综上,本文提出一种基于Mask RCNN的葡萄藤关键结构的分割方法,用以保证葡萄藤各关键结构的识别与连接关系,为进一步提高复杂环境下二维以及三维空间下芽点的识别与剪枝点的推理精度提供依据。

1 葡萄藤冬季修剪原理

为实现葡萄园种植过程机械化作业与产量增收,国内普遍采用“厂”形栽培模式,即保留植株单个主茎成为绑缚主枝,并呈“厂”形在第一条绑缚线上进行固定。枝条生长于绑缚主枝上,主要生长方向垂直于绑缚主枝。葡萄藤精细化的冬季剪枝农艺需求为:各枝条保留靠近绑缚主干的一至两个芽点后,在保留芽点与上部芽点之间的枝条处做截断处理。“厂”形栽培模式的葡萄藤修剪示例模型如图1所示。葡萄藤各关键结构的识别与连接关系成为确定精确剪枝点的必要前提。

2 葡萄藤关键结构分割模型

2.1 Mask RCNN网络模型

随着深度学习分割方法逐步在农业工程领域的应用,目前已经在各项农业种植环节中成功实施[1517]。经典的图像分割模型包括全连接卷积网络(Fully Convolutional Networks,FCN)、DeepLab、PSPNet、Mask RCNN[1819],其中Mask RCNN可实现复杂背景下较高精度的像素分割,并且能够并行实现目标检测、分类以及像素分割问题。由于葡萄藤关键结构之间、关键结构与背景之间颜色相近,枝条丛生交错、姿态多样,传统的阈值分割和边缘分割[2021]方式难以实现葡萄藤关键结构与背景的准确识别以及分割,鉴于深度学习网络同时具备的特征提取与识别的优势,本文将基于Mask RCNN网络框架,对葡萄藤关键结构进行分割识别,为推理精确的葡萄藤冬季剪枝点,实现自动化剪枝作业提供完整的修剪模型依据。其算法框架如图2所示,实现步骤如下。

1) 通过由残差网络(Residual Network)和特征金字塔网络(Feature Pyramid Network,FPN)组成的主干特征提取网络对输入的图像进行多尺度的信息提取与融合,生成一系列有效特征层。

2) 在提取到的有效特征层上生成不同尺寸的感兴趣区域(Region of Interest,ROI)后传入区域选取网络(Region Proposal Network,RPN),RPN将各尺寸的ROI进行初步筛选后对进行分类以及回归操作,以获得目标候选区域。

3) 通过ROI Align(Region of Interest Align)层将RPN网络筛选出来的目标候选区域与主干特征提取网络的有效特征图进行匹配对齐,并统一特征图大小。

4) 统一大小的特征图将输入由类别、边界框以及掩膜分支构成的网络头部,用于输出类别概率、定位的目标边界框位置以及目标区域的掩膜分割。

2.2 图像采集与标注

试验数据于2021年10月13日10:00~21:00(天气晴,光照强烈,自然种植环境)、10月14日(阴,光线较弱,自然种植环境)采集于新疆昌吉州玛纳斯县中信国安葡萄酒合约种植地。采集对象为“厂”形种植的8年生赤霞珠酿酒葡萄,多方位进行拍摄,按照拍摄图片的光照条件分为晴天顺光、晴天逆光、阴天。共采集像素为3000×4000的图片606张,将样本图片统一缩小至512像素×512像素,为防止数据集在训练过程中产生过拟合,采用图像与标签同时进行水平翻转与增减亮度的调整方式对数据集进行增广,经过数据增强后,数据集总数为1818张,按照8∶1∶1的比例划分训练集、验证集和测试集,数据增强后各类样本数量与数据集划分如表1所示。

葡萄藤各关键结构之间具有附属性,合理的数据集标注有助于后期形成各组分连接关系与推断准确的剪枝点位置。依據葡萄藤精细化的冬季剪枝农艺需求与规范的修剪示例,用labelme[22]图像标注工具建立含有三类标签的数据集,并为数据集图像添加掩膜标签,如图3所示。

2.3 对照组网络模型

DeepLab v3+和PSPNet作为经典的语义分割网络,具有较好泛化能力和分割效果,因此本文将采用DeepLab v3+模型和PSPNet模型[2324]作为对照组模型对葡萄藤关键结构的分割性能进行对比试验。

DeepLab v3+模型是近年来深度学习发展中分割精度偏高、使用较广泛的目标分割模型。DeepLab v3+采用编码-解码结构,编码结构主体使用带有空洞卷积的深度卷积神经网络与带有空洞卷积的金字塔池化模块,获取不同尺度的感受野并进行多尺度的特征提取,DeepLab v3+模型在DeepLab v3的基础上,引入解码模块实现底层特征与高层特征的融合,最后通过上采样输出预测结果。PSPNet模型主要由主干特征提取网络与加强特征提取结构组成,其中加强特征提取网络将获取到的特征层划分为不同大小的区域,并对各区域进行平均池化用以实现不同区域上下文信息的聚合,从而提高获取全局信息的能力,特征融合进行上采样后通过卷积层输出目标物体的分割结果。对照组网络模型均采用Labelme工具对数据进行标注,采用PASCAL VOC数据集格式进行训练。

2.4 性能评价指标

采用COCO数据集评价标准对模型性能做出评估,其包括准确率P(Precision)、召回率R(Recall),平均精度AP(Average Precision):AP值可以对各给定类别准确率与召回率全面的表达与综合体现;平均精度均值MAP(Mean Average Precision):MAP值可以满足多标签分类模型的评价任务;各评价指标计算公式如式(1)~式(4)所示。

P=TPTP+FP×100%

(1)

R=TPTP+FN×100%

(2)

AP=∫10P(R)dR×100%

(3)

MAP=1n∑ni=1AP×100%

(4)

式中:

TP——被模型预测为正的正样本;

FP——被模型预测为正的负样本;

FN——被模型预测为负的正样本;

AP——

准确率在召回率上的积分,数值越高,模型性能越好;

MAP——每个类别AP值的平均值;

n——

类别个数,在本文中n=3(绑缚主干+枝条+节点)。

2.5 试验设计

2.5.1 计算环境配置

本试验主机配置Windows 10系统,中央处理器为Intel(R) Xeon(R) CPU E5-2680 v4 @ 2.40 GHz,显卡为GeForce GTX 3090。各网络模型在Anaconda 3虚拟环境下训练,采用TensorflowGPU 1.13.2和Keras 2.1.5、TensorflowGPU 2.5.0深度学习框架来适应不同模型的网络训练需求。虚拟环境配置安装Python 3.8编程环境、GPU并行计算架构Cuda 11.2和深度神经网络GPU加速库Cudnn 8.1。

2.5.2 计算环境配置

1) Mask RCNN模型参数设置:GPU个数1;单GPU同时处理图片数量2;类别个数为1(背景)+3(绑缚藤条、枝条、节点),RPN锚大小为32、64、128、256、512;加载COCO数据集默认权重。为进一步提升目标图像分割精度,采用将区域选取网络和网络头部(分类、边框回归以及掩膜分支)合并起来的端到端的训练模式,整个网络训练迭代数为100,初始学习率为0.001,网络权重衰减系数为0.000 1,动量为 0.9。

2) 对照组模型参数设置:本文中对照组模型为DeepLab v3+与PSPNet网络模型,均采用PASCAL VOC(PASCAL Visual Object Classes)数据集格式进行训练,数据集图片分辨率大小分别设置为512像素×512像素、473像素×473像素,整个网络迭代数为100,总迭代次数为1 000,初始学习率为0.001,每迭代100次,学习率降低0.1。

2.5.3 对比试验设计

1) 主干特征提取网络对比试验。

为使模型的识别与分割效果达到最佳,分别以ResNet 50+FPN、ResNet 101+FPN作为Mask RCNN的主干特征提取网络进行训练并进行对比验证。通过训练及验证损失曲线是否收敛判断模型泛化拟合能力与样本的适用性;依据训练后模型的平均精度AP值、训练时间以及分割效果,选择出最优的主干特征提取网络。

2) 分割模型对比试验。

在主干特征提取网络对比试验的基础上选出Mask RCNN模型的最优主干后,与基于MobilNet v2主干特征提取网络的DeepLab v3+和PSPNet模型进行分割模型性能对比试验。通过训练与验证损失曲线收敛程度、收敛后损失值的保持数值判断分割模型的拟合与泛化能力;对比各模型在葡萄藤关键结构图片测试集上得到的准确率、召回率、平均精度均值以及分割效果,对比各类模型的分割性能。

3 结果与分析

3.1 主干特征提取网络性能对比分析

将ResNet 50+FPN、ResNet 101+FPN分别作为主干特征提取网络,对Mask RCNN模型进行训练与验证,试验结果表明:两种模型在训练与验证的迭代过程中,分类、边框和掩膜的训练集与验证集的损失值整体呈现降低的趋势,如图4所示,两个模型在100个epoch之内均达到收敛,收敛后3个模型整体训练集损失值保持在(0.25,0.3)之间,整体验证集损失率保持在(0.24,0.3)之间。从损失曲线的结果呈现,证明由两种主干特征提取网络构成的Mask RCNN分割模型具有较好的拟合与泛化能力,本数据集的构建也较符合用于葡萄藤关键结构的识别。

经过拟合泛化能力的确定,可知两种主干特征提取网络对模型以及图像样本有效可用,在此基础上,需要通过对比其模型整体的性能来选择最优的主干特征提取网络。表2是两种主干特征提取网络的AP50(IoU取值为0.5)、AP75(IoU取值为0.75)、AP(IoU取值为0.5~0.95阈值下的平均值)以及训练时间的对比。由数值可以看出,ResNet 101+FPN作为主干特征提取网络具有较高的精准度,尽管网络参数量是ResNet 50+FPN的1.4倍,但训练时间仅多出0.462h;AP值相较于ResNet 50+FPN提升1.3%,识别精度提升对比显著,极大程度上保证了葡萄藤关键结构的识别精度。

(a) 不同主干网络训练损失曲线

(b) 不同主干网络验证损失曲线

为验证以ResNet 50+FPN、ResNet 101+FPN为主干特征提取网络的分割性能,在测试集上对两种模型分割性能进行对比试验。由于葡萄藤各关键结构之间、关键结构与背景之间颜色都较为相近,为验证模型对各背景的识别与分割效果,采用强、弱背景之分的图片对模型进行性能检测。利用两种主干特征提取网络对葡萄藤各关键结构的识别与分割效果如图5所示。由图5(b)与图5(c)对比可知,以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型,在不同背景下对葡萄藤各关键结构的识别与分割整体优于ResNet 50+FPN。图5(b)是以ResNet 50+FPN为主干特征提取网络的Mask RCNN模型,其对于强背景区分的葡萄藤关键结构的分类与掩膜较差,对弱背景区分无法完成分类与掩膜任务。图5(c)是以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型,对不同背景区分下的各类分割目标轮廓清晰,没有出现目标像素点重复、遗漏标注的情况;对比强、弱背景区分对作物的分类与掩膜效果,其针对强背景区分的边框回归与分类效果更佳。通过对比两种主干特征提取网络的Mask RCNN模型,综合考虑模型对于目标作物分类、边框回归、掩膜效果,训练时间,模型整体参数量以及电脑配置,选取以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型,用于葡萄藤关键结构的分割模型对比试验。

(a) 原图

(b) 以ResNet 50+FPN为主干网络的分割效果图

(c) 以ResNet 101+FPN为主干网络的分割效果图

3.2 分割模型性能对比分析

在主干特征提取网络对比试验中,得出ResNet 101+FPN是Mask RCNN模型最優的主干特征提取网络,为进一步验证以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型对葡萄藤关键结构分割的分割性能,将其与以MobilNet v2为主干特征提取网络的DeepLab v3+、PSPNet模型进行分割性能比较。采用相同数据集对两类对比模型进行训练与验证,试验结果表明:对照组两种模型在训练与验证的迭代过程中,训练集以及验证集的损失值整体呈现降低的趋势,见图6,对照组两种模型在100个epoch之内均达到收敛。PSPNet模型在训练集上效果最佳,收敛后模型损失值保持在0.25以下;以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型在验证集上效果最佳,收敛后在验证集的损失值相较于PSPNet、DeepLab v3+模型低0.3左右。对比三类模型在训练集与验证集的训练效果,得出以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型具有最优的拟合与泛化能力。

(a) 不同分割模型训练损失曲线图

(b) 不同分割模型验证损失曲线图

经过拟合泛化能力的确定,需要通过对比三类模型的分割性能来获得最优的葡萄藤关键结构分割模型,以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型、以MobilNet v2为主干特征提取网络的PSPNet、DeepLab v3+模型在测试集上对葡萄藤关键结构的分割试验结果如表3所示。

由表3可知,以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型的各项结果均优与对照组模型,其相较于以MobilNet v2为主干特征提取网络的PSPNet、DeepLab v3+模型对葡萄藤各关键结构的准确率分别提升7.33个和8.89个百分点,召回率分别提升9.32个和9.26个百分点,平均精度均值分别提升12.68个和12.63个百分点。试验结果表明:采用以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型虽然网络层数较深,模型参数量较大,致使网络运行速度较慢,但综合其优越的分割性能,针对葡萄藤关键结构的分割任务更具有鲁棒性。

由于葡萄藤各关键结构之间、关键结构与土壤背景之间都存在较大相似度,需要模型具有目标作物与背景相似度较高的弱背景区分下识别与分割能力,因此采用强、弱背景区分两类图像对三类分割模型进行对比试验,三类模型对葡萄藤关键结构在测试集上的分割效果如图7所示。

(a) 原图

(b) 掩码分割图

(c) Mask RCNN模型分割效果

(d) DeepLab v3+模型分割效果

(e) PSPNet模型分割效果

在强背景区分的图像样本中,绑缚主干、枝条、节点个数如标签图7(b)左所示分别为1、2、5个,以MobilNet v2为主干特征提取网络的DeepLab v3+模型分割情况,如图7(d)左所示,分割图像出现将枝条像素错误分割为绑缚主干、绑缚主干与枝条之间形成错误间接关系、节点漏、错分割比例占80%的情况;以MobilNet v2为主干特征提取网络的PSPNet模型分割情况,如图7(e)左所示,分割图像存在枝条与枝条之间像素点粘连、节点边缘分割不完整并且漏分割比例占20%的情况。对于弱背景区分的图像样本中,绑缚主干、枝条、节点个数如标签图7(b)右所示分别为2、5、8个,以MobilNet v2为主干特征提取网络的DeepLab v3+模型分割情况,如图7(d)右示,分割图像绑缚主枝与枝条边缘分割较完整,节点边缘分割完整度较差,未完整分割的节点比例为87.5%,由于节点与节点之间距离较小,存在节点之间像素点粘连划分形成错误连接关系的情况;以MobilNet v2为主干特征提取网络的PSPNet模型分割情况,如图7(e)右所示,枝条与节点分割边缘完整性较差,节点没有完整分割的个体。可见以MobilNet v2为主干特征提取网络的DeepLab v3+、PSPNet模型受背景信息的影响较大,尤其在弱背景区分下,模型难以区分目标作物与背景的颜色与形状特征,漏分割与误分割现象严重。

对于试验样本,以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型展现出良好的分割性能,如图7(c)所示,对三类分割目标分割轮廓完整,各分割目标之间的连接关系正确,样本试验分割正确率与整体掩码程度达到100%。综上,在不同背景与环境下以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型对葡萄藤各关键结构具有较好的分割性能。

4 结论

本文提出了基于Mask RCNN模型的葡萄藤关键结构的分割方法,并对模型的主干特征提取网络进行对比选取、对模型分割性能进行对比验证。

1) 进行以ResNet 50+FPN和ResNet 101+FPN为主干特征提取网络的Mask RCNN模型的对比试验,经验证,以ResNet 101+FPN为主干特征提取网络的模型具有较好的拟合与泛化能力,对葡萄藤各关键结构的平均检测精度为76%,相比以ResNet 50+FPN为主干特征提取网络的模型AP0.5、AP0.75、AP分别提高了4%、4.6%与1.3%,表明其较优的目标检测能力,并且在强、弱背景区分下其分割效果均优于ResNet 50+FPN主干特征提取网络。

2) 在模型分割性能验证上,采用以MobileNet v2主干特征提取网络的DeepLab v3+和PSPNet模型进行分割模型为对照组进行对比试验,经验证,以ResNet 101+FPN为主干特征提取网络的Mask RCNN模型相较于对照组两类模型具有更好的拟合与泛化能力,相比于对照组模型准确率分别提升7.33%和8.89%,召回率分别提升9.32%和9.26%,平均精度均值分别提升12.69%和12.63%;在分割效果性能方面,相较于对照组模型在强、弱背景下的分割效果均优于对照组分割模型,分割边缘完整,葡萄藤各关键结构之间连接关系正确。

3) 本文提出的基于Mask RCNN模型分割识别方法,初步实现了对葡萄藤各关键结构完整的识别与分割。虽然在识别与分割精度方面还有待优化,但与传统图像处理方式下的葡萄藤关键结构识别相比,保证了各关键结构的连接关系,并针对现有种植环境下,实现对自然种植背景的目标识别与分割任务,能够为葡萄藤精确剪枝点的识别与定位研究提供精确的关键结构推理模型,为葡萄自动化、智能化的修剪作业奠定基础。

參 考 文 献

[1]金子煜, 刘淑红, 周祥军. 葡萄冬季修剪技术浅析[J]. 南方农业, 2021, 15(5): 30-31, 40.

[2]秦喜田, 刘学峰, 任冬梅, 等. 我国果园生产机械化现状及其发展趋势[J]. 农业装备与车辆工程, 2019, 57(S1): 35-38.

Qin Xitian, Liu Xuefeng, Ren Dongmei, et al. Current situation and development prospect of orchard mechanization in China [J]. Agricultural Equipment & Vehicle Engineering, 2019, 57(S1): 35-38.

[3]刘平, 朱衍俊, 张同勋, 等. 自然环境下贴叠葡萄串的识别与图像分割算法[J]. 农业工程学报, 2020, 36(6): 161-169.

Liu Ping, Zhu Yanjun, Zhang Tongxun, et al. Algorithm for recognition and image segmentation of overlapping grape cluster in natural environment [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(6): 161-169.

[4]苏仕芳, 乔焰, 饶元. 基于迁移学习的葡萄叶片病害识别及移动端应用[J]. 农业工程学报, 2021, 37(10): 127-134.

Su Shifang, Qiao Yan, Rao Yuan. Recognition of grape leaf diseases and mobile application based on transfer learning [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(10): 127-134.

[5]Francesca C, Ermes M, Davide C, et al. Estimating leaf area index (LAI) in vineyards using the PocketLAI smartapp [J]. Sensors, 2016, 16(12): 2004.

[6]Fourie J, Bateman C, Hsiao J, et al. Towards automated grapevine pruning: Learning by example using recurrent graph neural networks [J]. International Journal of Intelligent Systems, 2021, 36(2): 715-735.

[7]贾挺猛, 荀一, 鲍官军, 等. 基于机器视觉的葡萄树枝骨架提取算法研究[J]. 机电工程, 2013, 30(4): 501-504.

Jia Tingmeng, Xun Yi, Bao Guanjun, et al. Skeleton extraction algorithm on grapevine based on machine vision [J]. Journal of Mechanical & Electrical Engineering, 2013, 30(4): 501-504.

[8]Xu S, Xun Y, Jia T, et al. Detection method for the buds on winter vines based on computer vision [C]. 2014 Seventh International Symposium on Computational Intelligence and Design. IEEE, 2014, 2: 44-48.

[9]Botterill T, Paulin S, Green R, et al. A robot system for pruning grapevines [J]. Journal of Field Robotics, 2017, 34(6): 1100-1122.

[10]Pérez D S, Bromberg F, Diaz C A. Image classification for detection of winter grapevine buds in natural conditions using scaleinvariant features transform, bag of features and support vector machines [J]. Computers and Electronics in Agriculture, 2017, 135: 81-95.

[11]Díaz C A, Pérez D S, Miatello H, et al. Grapevine buds detection and localization in 3D space based on structure from motion and 2D image classification [J]. Computers in Industry, 2018, 99: 303-312.

[12]Marset W V, Pérez D S, Díaz C A, et al. Towards practical 2D grapevine bud detection with fully convolutional networks [J]. Computers and Electronics in Agriculture, 2021, 182: 105947.

[13]Fernandes M, Scaldaferri A, Fiameni G, et al. Grapevine winter pruning automation: On potential pruning points detection through 2D plant modeling using grapevine segmentation [C]. 2021 IEEE 11th Annual International Conference on CYBER Technology in Automation, Control, and Intelligent Systems (CYBER). IEEE, 2021: 13-18.

[14]Yang Q, Yuan Y, Chen Y, et al. Method for detecting 2D grapevine winter pruning location based on thinning algorithm and lightweight convolutional neural network [J]. International Journal of Agricultural and Biological Engineering, 2022, 15(3): 177-183.

[15]傅隆生, 宋珍珍, Zhang Xin, 等. 深度學习方法在农业信息中的研究进展与应用现状[J]. 中国农业大学学报, 2020, 25(2): 105-120.

Fu Longsheng, Song Zhenzhen, Zhang Xin, et al. Applications and research progress of deep learning in agriculture [J]. Journal of China Agricultural University, 2020, 25(2): 105-120.

[16]孙俊, 谭文军, 毛罕平, 等. 基于改进卷积神经网络的多种植物叶片病害识别[J]. 农业工程学报, 2017, 33(19): 209-215.

Sun Jun, Tan Wenjun, Mao Hanping, et al. Recognition of multiple plant leaf diseases based on improved convolutional neural network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2017, 33(19): 209-215.

[17]龙洁花, 赵春江, 林森, 等. 改进Mask RCNN的温室环境下不同成熟度番茄果实分割方法[J]. 农业工程学报, 2021, 37(18): 100-108.

Long Jiehua, Zhao Chunjiang, Lin Sen, et al. Segmentation method of the tomato fruits with different maturities under greenhouse environment based on improved Mask RCNN [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(18): 100-108.

[18]Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640-651.

[19]He K, Gkioxari G, Dollár P, et al. Mask RCNN [C]. Proceedings of the IEEE International Conference on Computer Vision, 2017: 2961-2969.

[20]黃鹏, 郑淇, 梁超. 图像分割方法综述[J]. 武汉大学学报(理学版), 2020, 66(6): 519-531.

Huang Peng, Zheng Qi, Liang Chao. Overview of image segmentation methods [J]. Journal of Wuhan University(Natural Science Edition), 2020, 66(6): 519-531.

[21]刘硕. 阈值分割技术发展现状综述[J]. 科技创新与应用, 2020(24): 129-130.

[22]Russell B C, Torralba A, Murphy K P, et al. LabelMe: A database and webbased tool for image annotation [J]. International Journal of Computer Vision, 2008, 77(1): 157-173.

[23]Chen L C, Zhu Y, Papandreou G, et al. Encoderdecoder with atrous separable convolution for semantic image segmentation [C]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 801-818.

[24]Zhao H, Shi J, Qi X, et al. Pyramid scene parsing network [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 2881-2890.

猜你喜欢
图像分割葡萄藤特征提取
葡萄藤上的塑料袋
基于Daubechies(dbN)的飞行器音频特征提取
Bagging RCSP脑电特征提取算法
一种改进的分水岭图像分割算法研究
一种图像超像素的快速生成算法
基于鲁棒性的广义FCM图像分割算法
基于MED和循环域解调的多故障特征提取
短文三则
葡萄藤和老朽树
Walsh变换在滚动轴承早期故障特征提取中的应用