学术中心
基于深度学习的植物表型语义分割
发布时间:
2022-01-26
来源:
PhenoTrait
作者:
PhenoTrait
近年来,语义分割技术迅猛发展,已被广泛应用于多种研究领域,但其在植物表型分析领域的应用依然有限。虽然利用影像分析可以在不破坏植株结构的基础上无损地提取植物表型信息,但表型信息的提取结果严重依赖于影像的分割精度。基于此,本研究提出了一种新的语义分割方法,可以有效优化植物表型的自动化分析过程。
本研究引入了U-Net、Attention-Net和Attention-Augmented Net等深度学习网络,并利用CVPPP14竞赛发布的拟南芥影像数据集分别对不同的网络结构进行训练,最后使用Dice系数评价网络性能。CVPPP14发布的拟南芥影像数据集共包含752张影像,均为生长在不同容器中的拟南芥植株俯视图。其中,部分影像失焦,还有一部分影像的容器背景中包含苔藓或水体,这些干扰因素都会增加拟南芥叶片的分割难度。本研究提出的语义分割为像素级的影像分割,即将影像中的像素分为前景和背景两个类别,前景为叶片分割结果(图1)。在数据集中随机选取601张影像作为训练集,其余151张影像作为测试集,然后分别使用U-Net、Attention-Net和Attention-Augmented Net等三种不用的深度学习网络对影像进行分割,三种网络结构如图2、图3和图4所示。实验结果显示,Attention-Net的Dice系数高于U-Net和Attention-Augmented Net,可以达到0.985。不但如此,通过与已有的研究结果对比可以发现,Attention-Net的语义分割结果为目前植物表型语义分割中的最优结果。
在此前的研究中,U-Net、Attention-Net和Attention-Augmented Net等深度学习网络尚未用于植物影像分割,本研究的结果说明,利用深度学习可以提高植物影像的分割精度,从而有助于在影像中更有效地提取植物表型信息。

图1 影像分割结果。从左侧开始,第一列为输入的RGB影像,第二列为地面实测分割结果,第三列为模型预测分割结果

图2 U-net 结构

图3 Attention net结构

图4 Attention augmented net结构
来源:Pullalarevu Karthik, Mansi Parashar, S. Sofana Reka, et al. Semantic segmentation for plant phenotyping using advanced deep learning pipelines. Multimedia Tools and Applications, 2021.
编辑:段博
推荐新闻
视频展示