学术中心
结合Hough变换的全卷积神经网络模型从无人机图像中提取作物育种地块
发布时间:
2024-09-14
来源:
作者:
高通量表型分析在作物育种中发挥着越来越重要的作用。在这类研究中,育种者通常建立数百到数千个小区,每个小区都有独立的遗传育种来源。遗传资源的育种地块提取通常是在RGB无人机图像上手工绘制,耗时且容易受到人为偏差的影响。因此,在高通量表型分析中,快速提取每个遗传源的育种小区具有重要意义。本文提出了一种从无人机RGB图像中提取育种地块的可转移方法。使用了带有注意门的全卷积神经网络模型A-UNet。在深度学习获得二值栅格数据后,引入后处理。随后,将经过后处理的栅格数据转换为矢量数据,得到地理坐标。最后,对无人机图像进行矢量数据掩蔽,得到每个地块的提取结果。结果表明,A-UNet在准确率、查全率和F1分数方面均达到90%以上的准确率。后处理结果表明,主要研究区种田提取平均IoU为93%。在不同空间分辨率(1.6 cm和0.4 cm)、地块大小(1 m × 1.5和2 m × 5 m)和作物类型(水稻)下,平均IOU均达到86%以上。综上所述,本研究建立了一种用于高通量表型分析的育种小区提取方法,将有助于作为一种加快作物育种的高通量筛选技术。
图1 无人机工作流-RGB高通量地块分割方法。(a)大疆幻影4无人机平台。(b)数字正射影像图。(c)标签。(d)增加数据。(e)深度卷积神经网络架构。(f)后处理。
图2 研究区域的位置。
图3 参数空间的变换。
图4 手动(棕色)和程序确定(蓝色)区域的交叉((a)橙色区域)和联合((b)绿色区域)的视觉表示。
图5 原始图像和OTSU-ExGR图像的比较。(a, c, e)原始图像。(b, d, f) OTSU-ExGR图像。
图6 四种模型在训练数据集上计算的f1分数、精度、召回率和损失值。(一)F1-score。(b)的精度。(c)召回。(d)损失值。
图7 不同模型的比较。(a, f, k, p)原始图像。(b, g, 1, q) FCN-VGGNet。(c, h, m, r) PSP-MobileNet。(d, i, n, s) UNet-VGGNet。(e, j, o, t) A-UNet。
图8 后处理后Site 1育种小区提取结果。
图9 后处理后的小区提取结果。(a)站点1的15米高度结果。(b)站点1 60米高度的结果。(c)站点2的结果。(d)试验点3的结果。
图10 在第100次迭代时从A-UNet中提取的特征图。
图11 杂草存在时A-UNet的性能。(a, c, e)原始图像。(b, d, f) A-Unet。
Han, X., Zhou, M., Guo, C., Ai, H., Li, T., Li, W., Zhang, X., Chen, Q., Jiang, C., Cheng, T., Zhu, Y., Cao, W., & Yao, X. (2024). A fully convolutional neural network model combined with a Hough transform to extract crop breeding field plots from UAV images. International Journal of Applied Earth Observation and Geoinformation. 132, 104057.
编辑
王春颖
推荐新闻
视频展示