利用可解释机器学习的数字农业增强决策支持框架


发布时间:

2024-12-11

来源:

作者:

模型可解释性将可解释性与领域知识相结合,对于评估机器学习框架的可靠性至关重要,特别是在增强数字农业中的决策支持方面。人们努力建立可解释性的明确定义,并开发新的可解释性技术。评估可解释性对于充分利用可解释性的潜力至关重要。在本文中,比较了一种卷积神经网络的可解释性技术“梯度加权类激活映射”与视觉Transformers的原始关注。在一个基于图像的任务中分析了这两种方法,以分类菜花植物的收获准备情况。通过开发一个模型不可知的框架来比较基于可解释性的模型,为更可靠的数字农业系统铺平了道路。

 

图1  可靠性评估框架。所提出的模型可靠性评估框架分为三个阶段。最初,在执行阶段,输入图像被馈送到一个候选模型池中,该模型经过训练以预测植物的收获准备情况。超过评价指标阈值α的模型进入局部可解释性阶段,而其他模型则被丢弃。在这个阶段,使用可解释性技术对每个模型的可解释性进行定性评估。如果结果不充分,则探索替代方法,直到获得令人满意的解释。第三阶段涉及全局解释,其中使用诸如CNN的Grad-CAM和ViTs的原始注意等技术。在这里,骰子分数(DS)是在阈值属性映射Y和地面真值分割掩码Y∗之间计算的。可以接受超过DS阈值β的模型;其他的则被丢弃。

 

图2  输入菜花植物的图像和ResNet-18模型,输出二值分类(准备收获或未准备收获)。

 

图3  输入花椰菜植物的图像和具有二进制分类输出(准备收获或未准备收获)的Vision Transformer模型。

 

图4  GrowliFlowerL数据集的数据示例。(a)和(c)表示RGB图像,(b)和(d)分别表示相应的标记分割掩码。紫色表示背景,其他颜色表示单个植物。

 

图5  四个示例输入图像的结果归属图。为了更好地理解空间,地图上覆盖了RGB输入图像。最左边的一行是收获准备类。

 

图6  该图由四列组成:第一列为输入图像,(A)列为表示领域知识的地面真值分割图,(B)列为ViT生成的阈值关注图,(C)列为CNN最后一个卷积层的grada - cam生成的阈值属性图。

 

来 源

Emam, Ahmed & Farag, Mohamed & Kierdorf, Jana & Klingbeil, Lasse & Roscher, Ribana. (2024). A Framework for Enhanced Decision Support in Digital Agriculture Using Explainable Machine Learning.

 

编辑

王春颖

推荐新闻

石时之约|韩志国:透过表型数据,看见植物的喜怒哀乐!

本期石时之约,我们将对话慧诺瑞德(北京)科技有限公司总经理、国际植物表型学会(IPPN)执委会委员/工业分会副主席韩志国,一起从表型数据的科学角度,去读懂农作物的喜怒哀乐和前世今生。

慧科研、慧育种、慧种田——慧聚改变的力量

让我们“慧聚”在一起,为“慧科研、慧育种、慧种田”赋能。

高通量植物表型平台建设注意事项

育种,是在给定的环境条件下,选择各种表型指标(产量、品质、抗性)最优的基因型材料的过程(AI育种,从这里起步)。育种工作中大约70%的工作量来自表型观察测量和筛选,是最耗人力物力的过程。

作物生理表型测量基础原理

生理表型测量的核心在于“早、快”,要在肉眼可见之前就能测量并预判出变化趋势,才是这个技术的核心价值。叶绿素荧光成像,恰好满足了这个要求。