基于表型车视频的大豆产量估算


发布时间:

2025-03-20

来源:

作者:

本研究提出了一种新颖的方法,利用高通量种子计数结合计算机视觉和深度学习技术,对大豆(Glycine max (L.) Merr.)产量进行估算。传统的产量数据采集方法劳动强度大、成本高,并且在关键数据采集时段容易出现设备故障,还需要将设备运输到各个田间试验地。通过计算机视觉这一教会计算机解读视觉数据的技术,我们可以直接从图像中提取详细的产量信息。将其视为计算机视觉任务,提出了一种更高效的替代方案,采用配备鱼眼摄像头的地面机器人,对大豆试验地进行全面视频拍摄,并从中提取图像供多个开发程序使用。

 

这些图像通过P2PNet-Yield模型进行处理。该模型是一个深度学习框架,结合了特征提取模块(P2PNet-Soy的主干)和产量回归模块,用于估算大豆试验地的种子产量。本研究基于三年的产量试验数据,包括2021年的8500个数据集、2022年的2275个数据集,以及2023年的650个数据集。在这些数据集的支持下,通过融入多项创新,如鱼眼图像校正和随机传感器效应的数据增强,以进一步提高种子计数和产量估算架构的准确性和通用性。
 
P2PNet-Yield模型在基因型排序精度上达到了83%的最高分,且相较于传统产量估算方法,数据采集时间减少了多达32%,相关成本也显著降低。该方法为育种计划和农业生产力提升提供了一种可扩展的解决方案。

    

 图1 空间调整网格模式的示例,高亮的单元格表示用于空间调整的试验地块,未高亮

的中心单元格表示正在进行调整的单元格

 

 图2 该图展示了从田间数据采集到后期处理以用于P2PNet-Yield模型的完整流程。第一张图显示了我们的Terrasentia机器人在成熟的大豆田间运行的场景。当机器人在田间移动时,其两侧安装的摄像头会采集鱼眼视频数据。随后,从视频中提取单帧图像,对其进行鱼眼畸变校正,并裁剪掉模糊的边缘部

 

 图3a 单个试验地块的数据采集过程

 

 图3b 为单个试验地块生成分割器

 

 图4 专家标注图像的示例。所有肉眼清晰可见的种子均使用点标注完成。该图像经过鱼眼畸变校正,并已裁剪处理

 

图5 本研究大豆产量估算架构 P2PNet-Yield 包括两个训练阶段:首先训练 P2PNet-Soy 模型,使其主干(作为我们的特征提取模块)能够提取与前景中的大豆种子相关的有用信息;其次训练产量回归模块,从特征提取模块的输出特征图中估算产量值

 

 图6 不同数据集组合训练模型的实际种子计数与估算种子计数之间的相关性。

ISU_ NO_ AUG的相关性在估计计数上表现出向上的偏差,特别是在较高的种子计数值( R²值为0.80 ,图6a)上,ISU _AUG的偏差较小,尽管在较高的种子计数值上仍有高估的趋势,但并没有表现出与回归线( R²值为0.87 ,图6c)更紧密的拟合。在较低的( R²值为0.77 ,图6b)值下,MIX_ NO_ AUG倾向于高估。MIX _ AUG数据集与最高R² ( R²值为0.87 ,图6d)组合的拟合效果最好

 

 图7 不同数据集组合训练模型的残差图

残差与真实值的曲线图显示,在MIX _AUG上训练的模型,即数据增强的混合数据集上表现最好,残差分布在0附近较窄的波段内,且未出现偏差

 

 图8 2023年F7试验田650个地块中估算总种子数(TSC)与估算产量之间的相关性分析。

P2PNet-Soy和本研究的P2PNet-Yield模型在两个场景中进行了测试,以展示其在作物育种项目中的应用价值。两个模型都使用了基于MIX_ AUG数据集组合训练的权重。在第一个场景中,使用P2PNet-Soy模型进行种子计数,并为实验品系分配排名,随后做出育种选择决策。在第二个场景中,我们使用P2PNet-Yield模型估算种子产量(吨/公顷),并为实验品系分配排名以做出育种选择决策。P2PNet-Soy估算的TSC值和P2PNet-Yield估算的产量之间的R²值为0.06,相关系数为0.25

 

 图9 使用(A) TSC和(B) 估算产量进行10%、20%和30%选择阈值的排名分数。分数表示空间调整后的实际产量、TSC和估算产量

在三个选择阈值下,准确性和特异性得分相对较高。我们注意到,当选择阈值变得更加严格时,准确性和特异性得分增加,而灵敏度得分则呈现相反的趋势。在10%、20%和30%的选择截止点下,准确性值分别为0.86、0.76和0.70。类似地,特异性值在更严格的截止点下最高(在10%的截止点为0.92,在20%的截止点为0.85,在30%的截止点为0.78)。相反,随着选择截止点的增加,灵敏度得分逐渐增加,即在10%、20%和30%的截止点下分别为0.31、0.40和0.50(见图9a)。除了基于估计TSC的分析外,还评估了基于估计产量的基因型排名。在使用P2PNet-Yield模型时,我们注意到,随着选择阈值变得更加严格,准确性和特异性得分增加,而灵敏度得分则呈现相反的趋势。准确性和特异性得分在所有三个选择阈值下都较高。在10%、20%和30%的选择截止点下,准确性值分别为0.83、0.70和0.60。类似地,特异性值在更严格的截止点下最高(在10%的截止点为0.91,在20%的截止点为0.81,在30%的截止点为0.71)。相反,随着选择截止点的增加,灵敏度得分逐渐增加,即在10%、20%和30%的截止点下分别为0.17、0.25和0.33(见图9b)

 

 图10 Venn图展示了使用TSC作为产量排名估计的实际与估算的最高产量品系,分别使用(A) 10%、(B) 20%和(C) 30%的选择阈值

在10%的截止点下,TP(真正例)和TN(真负例)的观察数最高,且随着选择阈值增加,正确类别的总数(即TP和TN)减少,在20%时减少,30%时最低。在每个选择阈值内,FP(假正例)和FN(假负例)值几乎相同,并且随着截止点从10%增加到30%而增加

 

图11 实际产量与使用整个数据集估算的产量之间的比较(左),在最优育种和成像条件下,使用试验地块数据集估算的产量与实际产量的比较(右)

为了评估P2PNet-Yield模型的性能,手动筛选了来自2023年F1数据集的200个样本(该数据集包含650个样本),即我们用于此分析的样本占比为30%。这些样本中不包含任何异常情况,如严重倒伏、重度病害等。在种植、收获和中间阶段,记录了展示独特问题或特征的样本,如病害、倒伏或收获行中存在大空隙(>0.5m缺失植物)。还排除了因过度曝光或相机摆放错误导致的图像质量差的样本。最终得到了一个精细化的数据集,其中包括100个用于训练的样本和100个用于测试的样本,供P2PNet-Yield模型使用。对于这些样本,估计产量与实际产量之间的R²值为0.38,均方误差(MSE)为6.53。尽管手动选择了数据集中的高质量样本,这些结果展示了该架构在高质量田间实验中进行产量估计的潜在效能

 

 图12 使用原始权重和我们自定义权重的种子检测结果比较。 (a) 使用原始权重;(b) 使用我们的自定义权重

为了展示通过修正鱼眼图像提高种子计数性能的效果,我们展示了使用两组不同权重的种子检测结果:原始权重和通过在改进数据集上训练得到的权重。图12a显示了使用原始权重的结果,在这些结果中,模型难以在修正后的鱼眼图像中检测到种子。相反,图12b展示了使用微调后的权重的结果,模型成功地检测到了大多数前景中的种子。这个对比突出了通过在改进数据集上微调模型所取得的显著进步

 
来 源

Feng J, Blair S W, Ayanlade T, et al. Robust soybean seed yield estimation using high-throughput ground robot videos[J]. arXiv preprint arXiv:2412.02642, 2024.

 

编辑

wrd

推荐新闻

石时之约|韩志国:透过表型数据,看见植物的喜怒哀乐!

本期石时之约,我们将对话慧诺瑞德(北京)科技有限公司总经理、国际植物表型学会(IPPN)执委会委员/工业分会副主席韩志国,一起从表型数据的科学角度,去读懂农作物的喜怒哀乐和前世今生。

慧科研、慧育种、慧种田——慧聚改变的力量

让我们“慧聚”在一起,为“慧科研、慧育种、慧种田”赋能。

高通量植物表型平台建设注意事项

育种,是在给定的环境条件下,选择各种表型指标(产量、品质、抗性)最优的基因型材料的过程(AI育种,从这里起步)。育种工作中大约70%的工作量来自表型观察测量和筛选,是最耗人力物力的过程。

作物生理表型测量基础原理

生理表型测量的核心在于“早、快”,要在肉眼可见之前就能测量并预判出变化趋势,才是这个技术的核心价值。叶绿素荧光成像,恰好满足了这个要求。