VegAnn:在不同条件下获取的多作物RGB图像进行分割的植被标注


发布时间:

2023-06-14

来源:

植物表型资讯

作者:

PhenoTrait

将深度学习应用于种植系统图像为研究和商业应用提供了新的知识和见解。对地面获取的RGB图像进行语义分割或逐像素分类,将其分为植被和背景,是估算冠层特征的关键步骤。目前基于卷积神经网络(convolutional neural networks, CNN)的最先进的方法是在受控或室内环境下获得的数据集上进行训练。这些模型无法推广到真实世界的图像,因此需要使用新的标记数据集进行微调。

 

这激发了VegAnn -植被注释-数据集的创建,该数据集使用不同的系统和平台,在不同的光照条件下,为不同的物候阶段获取了3775张多作物RGB图像。我们期望VegAnn将有助于提高分割算法的性能,促进对标,促进大规模作物植被分割研究。

 

图1 绿色植被部分与衰老植物部分的视觉区分并不简单的图像示例:叶子的形状和纹理大致相同,但颜色不同。

 

图2 在VegAnn中,作物残留物出现在地面并被视为背景的图像示例。

图片图3 用于构建VegAnn的采集系统。从左到右:安装在LITERAL设备上的手持摄像机,安装在探头上的装有鱼眼镜头的摄像机,以及安装在phenoobile上的摄像机。

 

图4 获取VegAnn图像的作物位置。颜色表示选择原始图像的原始数据集,点的半径与每个站点获取的图像数量成正比。

 

图5  原始图像及其背景/植被标签。从左到右:取自Literal、Crowdsourcing和Phenomobile子数据集的例子(表1)。图片来自农业生态学中种植的混合作物。

 

图6 不同系统获取的VegAnn图像比例。

 

图片

图7 DHP图像及其相应的植被/背景标签的示例

 

图8 报告了在VegAnn的五个测试褶上对每个物种的分割模型的性能进行了评估-平均IOU以及以误差条形式的标准差。

 

图9 在VegAnn测试集上分割结果的可视化,其中模型面临一些困难。场景非常复杂,缺乏纹理和颜色信息,无法自信地在植被和背景之间进行对比。

 

图片图10 比较使用特定作物方法(蓝色表示物种)和通用VegAnn方法(红色表示所有作物类型)训练的分割模型的性能,并在VegAnn测试数据集上进行评估。

 

 

来 源

Madec, S., Irfan, K., Velumani, K. et al. VegAnn, Vegetation Annotation of multi-crop RGB images acquired under diverse conditions for segmentation. Sci Data 10, 302 (2023). https://doi.org/10.1038/s41597-023-02098-y

 

编辑

王春颖
 
 

扩展阅读

推荐新闻

石时之约|韩志国:透过表型数据,看见植物的喜怒哀乐!

本期石时之约,我们将对话慧诺瑞德(北京)科技有限公司总经理、国际植物表型学会(IPPN)执委会委员/工业分会副主席韩志国,一起从表型数据的科学角度,去读懂农作物的喜怒哀乐和前世今生。

慧科研、慧育种、慧种田——慧聚改变的力量

让我们“慧聚”在一起,为“慧科研、慧育种、慧种田”赋能。

高通量植物表型平台建设注意事项

育种,是在给定的环境条件下,选择各种表型指标(产量、品质、抗性)最优的基因型材料的过程(AI育种,从这里起步)。育种工作中大约70%的工作量来自表型观察测量和筛选,是最耗人力物力的过程。

作物生理表型测量基础原理

生理表型测量的核心在于“早、快”,要在肉眼可见之前就能测量并预判出变化趋势,才是这个技术的核心价值。叶绿素荧光成像,恰好满足了这个要求。