一种改进的基于YOLOv5的大豆表型信息感知方法


发布时间:

2023-02-05

来源:

植物表型资讯

作者:

PhenoTrait

大豆是粮食作物和饲料的重要来源,近年来,随着大豆消费的增长和机器人技术的不断发展,人们对高效和智能的大豆种植过程越来越感兴趣。为了实现大豆的无人植保操作,传统的无靶喷洒方法造成大量农药浪费和地面沉降,施用效率低,环境污染严重。因此,大豆无人精确植保操作的主要解决方案是如何获取大豆作物叶片生长信息以实现目标应用。
 
大豆叶片密度高,存在不同水平的重叠。通过准确识别叶片数量,可以在一定程度上反映大豆叶片密度,从而为目标施用的喷洒量决策提供依据。为了获得大豆作物叶片生长信息,许多学者进行了大量的研究,并通过红外、超声波、激光雷达、机器视觉等获得了相应的结果。传统的视觉识别技术有许多缺点,例如,基于颜色的空间分割技术不够精确,无法在接近颜色的情况下分割作物。此外,传统的识别技术依赖于手动设计的提取器,这需要专门的知识和复杂的调整过程,而每种方法都是特定于应用的,泛化能力和鲁棒性较差,难以提取深层抽象特征。YOLO是一种经典的单级目标检测算法,其极快的推理速度、较好的精度和高质量的开源代码使其成为许多项目中的首选目标检测算法。YOLOv5模型是YOLO的轻量级版本,具有更少的层和更快的检测速度,可用于便携式设备,但存在小目标误检和遗漏的问题。为此,本研究提出了一种基于改进YOLOv5的大豆表型信息感知方法,主要通过MobileNetv2减轻YOLOv4的主干网络,并引入高效的通道注意力模块(ECANet)来提高模型的识别精度和鲁棒性,以解决大豆阴影叶的识别精度低的问题。通过引入注意机制和改进损失函数,提高了目标检测模型的鲁棒性和泛化能力。最后,在自主开发的机器人平台上进行了叶片识别实验。实验结果表明,改进的YOLOv5的mAP为96.13%,FPS为79,模型参数数量减少39%,权重减少55.56%。获取的数据与人工测量大豆表型信息之间的相关系数为0.98384,具有更高的准确性和更好的一致性。上述研究表明,利用机器视觉获取大豆叶片位置和密度信息是实现大豆植保机器人精确变靶应用的有效方法。
 

图1整体结构

 

图2 改进YOLOv5结构

 

图3 植物识别和计数;(a) 叶片;(b) 花朵颜色。

 

图4 模型训练和验证损失曲线

 

图5 密集大豆植株叶片检测结果

 

 

来 源

Liu L., Liang J., Wang J., et al. An improved YOLOv5-based approach to soybean phenotype information perception. Computers and Electrical Engineering, 2023, 106, 108582.

 

编 辑

Phenotypic researcher

 

扩展阅读

推荐新闻

石时之约|韩志国:透过表型数据,看见植物的喜怒哀乐!

本期石时之约,我们将对话慧诺瑞德(北京)科技有限公司总经理、国际植物表型学会(IPPN)执委会委员/工业分会副主席韩志国,一起从表型数据的科学角度,去读懂农作物的喜怒哀乐和前世今生。

慧科研、慧育种、慧种田——慧聚改变的力量

让我们“慧聚”在一起,为“慧科研、慧育种、慧种田”赋能。

高通量植物表型平台建设注意事项

育种,是在给定的环境条件下,选择各种表型指标(产量、品质、抗性)最优的基因型材料的过程(AI育种,从这里起步)。育种工作中大约70%的工作量来自表型观察测量和筛选,是最耗人力物力的过程。

作物生理表型测量基础原理

生理表型测量的核心在于“早、快”,要在肉眼可见之前就能测量并预判出变化趋势,才是这个技术的核心价值。叶绿素荧光成像,恰好满足了这个要求。