学术中心
VegAnn:在不同条件下获取的多作物RGB图像进行分割的植被标注
发布时间:
2023-06-14
来源:
植物表型资讯
作者:
PhenoTrait
将深度学习应用于种植系统图像为研究和商业应用提供了新的知识和见解。对地面获取的RGB图像进行语义分割或逐像素分类,将其分为植被和背景,是估算冠层特征的关键步骤。目前基于卷积神经网络(convolutional neural networks, CNN)的最先进的方法是在受控或室内环境下获得的数据集上进行训练。这些模型无法推广到真实世界的图像,因此需要使用新的标记数据集进行微调。
这激发了VegAnn -植被注释-数据集的创建,该数据集使用不同的系统和平台,在不同的光照条件下,为不同的物候阶段获取了3775张多作物RGB图像。我们期望VegAnn将有助于提高分割算法的性能,促进对标,促进大规模作物植被分割研究。
图1 绿色植被部分与衰老植物部分的视觉区分并不简单的图像示例:叶子的形状和纹理大致相同,但颜色不同。
图2 在VegAnn中,作物残留物出现在地面并被视为背景的图像示例。
图3 用于构建VegAnn的采集系统。从左到右:安装在LITERAL设备上的手持摄像机,安装在探头上的装有鱼眼镜头的摄像机,以及安装在phenoobile上的摄像机。
图4 获取VegAnn图像的作物位置。颜色表示选择原始图像的原始数据集,点的半径与每个站点获取的图像数量成正比。
图5 原始图像及其背景/植被标签。从左到右:取自Literal、Crowdsourcing和Phenomobile子数据集的例子(表1)。图片来自农业生态学中种植的混合作物。
图6 不同系统获取的VegAnn图像比例。
图7 DHP图像及其相应的植被/背景标签的示例
图8 报告了在VegAnn的五个测试褶上对每个物种的分割模型的性能进行了评估-平均IOU以及以误差条形式的标准差。
图9 在VegAnn测试集上分割结果的可视化,其中模型面临一些困难。场景非常复杂,缺乏纹理和颜色信息,无法自信地在植被和背景之间进行对比。
图10 比较使用特定作物方法(蓝色表示物种)和通用VegAnn方法(红色表示所有作物类型)训练的分割模型的性能,并在VegAnn测试数据集上进行评估。
Madec, S., Irfan, K., Velumani, K. et al. VegAnn, Vegetation Annotation of multi-crop RGB images acquired under diverse conditions for segmentation. Sci Data 10, 302 (2023). https://doi.org/10.1038/s41597-023-02098-y
编辑
扩展阅读
推荐新闻
视频展示