System.ArgumentOutOfRangeException: 索引和长度必须引用该字符串内的位置。 参数名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技术实现步骤摘要】
本专利技术涉及叶片病害检测,具体涉及一种基于深度学习的作物叶片病害量化方法。
技术介绍
1、作物的叶片病害程度直接影响作物的生长状况和最终产量,是农作物健康监测和管理中的关键指标。叶片的病斑面积是衡量病害严重程度的重要指标。准确获取叶片的病害程度对理解病害的传播机制、制定防治措施以及提升作物产量具有重要的理论意义和实际应用价值。
2、目前,作物叶片病害程度的获取主要依赖于人工观察和测量。这种方法不仅效率低下,尤其是在大田环境下处理大量叶片时耗时费力,而且容易受到人为因素的影响,导致测量结果出现主观误差。
技术实现思路
1、针对现有技术中的上述问题,本专利技术提供了一种基于深度学习的作物叶片病害量化方法,解决了现有人工观察测量作物的叶片病害程度费时费力且误差大的问题。
2、为了达到上述目的,本专利技术采用的技术方案如下:
3、提供一种基于深度学习的作物叶片病害量化方法,包括步骤:
4、s1、获取作物叶片的训练图像和目标图像。通过手机或其他摄像设备在大田环境中对作物的叶片进行图像拍摄,确保涵盖不同光照、角度和背景下的叶片图像,并设置较高的快门速度以避免图像模糊,调整图像分辨率以确保细节的清晰度。
5、s2、找出训练图像中的距离镜头最近的叶片,并使用labelme标注工具标注该叶片的叶片轮廓和病害轮廓;
6、s3、将经标注的训练图像按一定比例分别为训练集、验证集和测试集,并通过深度估计模型得到训练集、验证集和测试集中
7、s4、将训练集中的原始rgb图像和深度图输入至rda u-net模型中,以距离镜头最近的叶片区域以及该叶片上的病斑区域为输出对rda u-net模型进行训练,rda u-net模型为在u-net模型加入深度编码器的训练模型;
8、s5、通过验证集和对测试集rda u-net模型进行优化,得到最优rda u-net模型;
9、s6、将目标图像输入至最优rda u-net模型中,分割得到目标图像中距离镜头最近的叶片区域以及该叶片上的病斑区域;
10、s7、通过步骤s6中的病斑区域的像素个数除以叶片区域像素个数得到目标图像中的病斑面积占比。
11、本方案中,考虑到大田的环境复杂,背景上难免有其他叶片,会对计算造成影响,基于此,引入了图像的深度信息,通过在rda u-net模型同时输入rgb图像和深度图,排除了背景中的其他叶片和病斑的干扰,只对距离镜头最近的叶片进行计算评估,本方案利用深度学习技术自动量化作物叶片的病害程度,提高了病害程度检测的效率和准确性,减少了人工观察测量的主观误差,适用于大规模农田环境。
12、进一步地,深度编码器的通道数为u-net模型中的rgb图像编码器通道数的一半。深度图是一个单通道的灰度图像,每个像素表示场景中对应点的深度值。深度图的信息量相对较少,因此使用较少的通道数可以减少模型的复杂度,同时不会显著影响深度信息的提取。
13、进一步地,rda u-net模型分割得到距离镜头最近的叶片区域以及该叶片上的病斑区域的方法包括:
14、s4.1、通过深度编码器和rgb图像编码器分别对输入的深度图和原始rgb图像进行特征提取,生成深度图的特征图fd和原始rgb图像的特征图frgb;分别从rgb图像和深度图中提取特征,可以充分利用两种不同类型的信息。
15、s4.2、在rgb图像编码器和深度编码器分别完成原始rgb图像和深度图的最后一次下采样后,将frgb和fd在通道维度上进行拼接,得到融合特征图ff,ff=concat(frgb,fd);通过拼接两种特征图,可以将rgb图像和深度图的特征信息有效地结合起来,形成一个综合的特征表示。
16、s4.3、通过通道注意力机制生成注意力权重wa,对融合特征图ff中每个通道的特征进行加权:f′f=ff×wa;其中,wa是通过全局平均池化、全连接层和sigmoid函数生成的注意力权重向量。通道注意力机制可以帮助模型自动学习哪些通道的特征更重要,从而对这些特征进行加权。这有助于突出关键特征,抑制噪声和无关信息,提高模型的鲁棒性和分割精度。
17、s4.4、使用1x1的卷积操作降低融合特征图f′f的通道数,生成降维后的特征图fr:fr=conv1x1(f′f);1x1卷积操作可以减少特征图的通道数,降低模型的计算复杂度,提高处理速度。同时,通过降维操作,可以去除冗余信息,保留最重要的特征,提高模型的效率和性能。
18、s4.5、将降维后的特征图fr输入至解码器中,通过解码器进行上采样和特征重构,最终分割得到距离镜头最近的叶片区域以及该叶片上的病斑区域。
19、进一步地,rda u-net模型的训练过程包括对训练集中的原始rgb图像进行数据增强,数据增强包括随机裁剪、水平方向和垂直方向的随机翻转,随机角度的旋转,随机比例的缩放,随机的亮度、对比度、饱和度和色调的变化。数据增强增加了训练数据的多样性,提高了模型的泛化能力和对不同环境条件下的适应性,有助于提高模型的准确性和稳定性。
20、进一步地,rda u-net模型的优化器为adam优化器。
21、进一步地,rda u-net模型的损失函数l为:
22、l=λ1·crossentropyloss+λ2·focalloss(pt)
23、focalloss(pt)=-α(1-pt)γlog(pt)
24、其中,λ1和λ2为权重系数,crossentropyloss为交叉熵损失,focalloss(pt)为焦点损失,pt为预测概率,α为平衡因子,γ为聚焦参数。通过结合交叉熵损失和焦点损失,使得模型更加关注难分类的样本,提高了模型对病斑区域的识别精度,特别是在病斑面积较小的情况下。
25、进一步地,rda u-net模型的训练过程采用余弦退火学习率调整策略调整学习率;余弦退火学习率调整策略能够在训练初期快速下降学习率,然后逐渐减小学习率的波动,有助于模型更稳定地收敛到全局最优或接近全局最优的解。
26、余弦退火学习率调整策略为:
27、
28、其中,ηt为当前训练周期tcur的学习率,ηmin和ηmax分别为最小和最大学习率,tcur是当前训练周期,tmax是最大训练周期。
29、进一步地,rda u-net模型的优化方法为:将验证集输入训练好的rda u-net模型中,得到rda u-net模型的总损失和miou指标,根据总损失和miou指标,不断调整rda u-net模型的超参数,得到多个rda u-net模型,并通过测试集挑选出最优rda u-net模型。
30、进一步地,训练集、验证集和测试集的比例为8∶1∶1。如此划分比例既保证了训练集有足够的数据量来训练模型,又确保了验证集和测试集能够有效评估模型的性能,平衡了模型的训练和评估需求。
本文档来自技高网...【技术保护点】
1.一种基于深度学习的作物叶片病害量化方法,其特征在于,包括步骤:
2.根据权利要求1所述的叶片病害程度量化方法,其特征在于,深度编码器的通道数为U-Net模型中的RGB图像编码器通道数的一半。
3.根据权利要求1所述的叶片病害程度量化方法,其特征在于,RDA U-Net模型分割得到距离镜头最近的叶片区域以及该叶片上的病斑区域的方法包括:
4.根据权利要求1所述的叶片病害程度量化方法,其特征在于,RDA U-Net模型的训练过程包括对训练集中的原始RGB图像进行数据增强,数据增强包括随机裁剪、水平方向和垂直方向的随机翻转,随机角度的旋转,随机比例的缩放,随机的亮度、对比度、饱和度和色调的变化。
5.根据权利要求1所述的叶片病害程度量化方法,其特征在于,RDA U-Net模型的优化器为Adam优化器。
6.根据权利要求1所述的基于深度学习的作物叶片病害程度量化方法,其特征在于,RDA U-Net模型的损失函数L为:
7.根据权利要求1所述的叶片病害程度量化方法,其特征在于,RDA U-Net模型的训练过程采用余
8.根据权利要求1所述的叶片病害程度量化方法,其特征在于,RDA U-Net模型的优化方法为:将验证集输入训练好的RDA U-Net模型中,得到RDA U-Net模型的总损失和mIOU指标,根据总损失和mIOU指标,不断调整RDA U-Net模型的超参数,得到多个RDA U-Net模型,并通过测试集挑选出最优RDA U-Net模型。
9.根据权利要求1所述的叶片病害程度量化方法,其特征在于,训练集、验证集和测试集的比例为8:1:1。
...【技术特征摘要】
1.一种基于深度学习的作物叶片病害量化方法,其特征在于,包括步骤:
2.根据权利要求1所述的叶片病害程度量化方法,其特征在于,深度编码器的通道数为u-net模型中的rgb图像编码器通道数的一半。
3.根据权利要求1所述的叶片病害程度量化方法,其特征在于,rda u-net模型分割得到距离镜头最近的叶片区域以及该叶片上的病斑区域的方法包括:
4.根据权利要求1所述的叶片病害程度量化方法,其特征在于,rda u-net模型的训练过程包括对训练集中的原始rgb图像进行数据增强,数据增强包括随机裁剪、水平方向和垂直方向的随机翻转,随机角度的旋转,随机比例的缩放,随机的亮度、对比度、饱和度和色调的变化。
5.根据权利要求1所述的叶片病害程度量化方法,其特征在于,rda u-net模型的优化器为ad...
【专利技术属性】
技术研发人员:蒋霓,严闽汝,郑树松,李宗阳,
申请(专利权)人:中国科学院遗传与发育生物学研究所,
类型:发明
国别省市:
还没有人留言评论。发表了对其他浏览者有用的留言会获得科技券。