可解释人工智能explainable artificial intelligence (XAI) 领域,旨在为当今强大但不透明的深度学习模型,带来更多透明度虽然,局部可解释人工智能XAI方法,以属性图的形式解释个体预测,从而识别重要特征出现的“位置”(但不提供关于代表“什么”的信息),但全局解释技术,可视化模型通常学习编码的概念。
因此,这两种类型的方法,都只提供了部分见解,并将解释模型推理的任务留给了用户近日,德国 弗劳恩霍夫·海因里希·赫兹研究所 (Fraunhofer Heinrich Hertz Institute)Reduan Achtibat, Maximilian Dreyer,Wojciech Samek & Sebastian Lapuschkin等,在Nature Machine Intelligence上发文,报道了概念相关性传播Concept Relevance Propagation (CRP)方法,结合了局部和全局视角,因此可以回答个人预测的“在哪里”和“什么”问题。
研究表明,在各种情况下,该项方法的能力,还展示了概念相关性传播CRP产生了更多的人类可解释说明,并通过概念图谱、概念组合分析和概念子空间的定量研究,及其在细粒度决策中的作用,提供了对模型表示和推理的深刻见解。
From attribution maps to human-understandable explanations through Concept Relevance Propagation.基于概念相关性传播,从归因图到人类可理解的解释。
图1: 全局可解释人工智能explainable artificial intelligence,XAI:基于统一局部和全局XAI,判断存在哪些特征以及如何使用这些特征进行预测。
图2:简要概述方法贡献。
图3:基于概念相关性传播Concept Relevance Propagation,CRP,理解概念和概念合成。
图4:从概念级解释到模型和数据调试。
图5:概念相似性与细粒度决策分析文献链接Achtibat, R., Dreyer, M., Eisenbraun, I. et al. From attribution maps to human-understandable explanations through Concept Relevance Propagation. Nat Mach Intell 5, 1006–1019 (2023).。
https://doi.org/10.1038/s42256-023-00711-8https://www.nature.com/articles/s42256-023-00711-8本文译自Nature。
来源:今日新材料免责声明:中国复合材料学会微信公众号发布的文章,仅用于复合材料专业知识和市场资讯的交流与分享,不用于任何商业目的任何个人或组织若对文章版权或其内容的真实性、准确性存有疑议,请第一时间联系我们。
我们将及时进行处理原标题:《【复材资讯】可解释人工智能XAI | Nature Machine Intelligence》
亲爱的读者们,感谢您花时间阅读本文。如果您对本文有任何疑问或建议,请随时联系我。我非常乐意与您交流。
发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。