2021-06-20

姓名:王映中 学号:20181214025 学院:广研院

【嵌牛导读】可解释人工智能又向前迈进了一步,以及为什么现有的解释方法难以适用于gnn,可解释性是深度学习中的一个大课题,因为它可以实现更可靠和可信的预测。由于图结构的不规则性,现有的解释方法难以适用于图神经网络。

【嵌牛鼻子】人工智能、GNN

【嵌牛提问】为什么很难用现有的方法来解释GNN?

【嵌牛正文】

Explainability增加可靠性

  最近,人工智能中的可解释性引起了人们的广泛关注,其主要动机在于通过深度神经网络等“黑盒子”模型产生更可靠和可信的预测。LIME论文[2]中给出的一个很好的例子是,您会信任您的医生,因为他/她能够根据您的症状解释诊断。类似地,如果能够以人类可理解的方式解释或证明预测,由深度模型生成的预测就更可靠和可信。

为什么很难用现有的方法来解释GNN?

  传统的解释方法在卷积神经网络(CNN)上很有效。下面的示例显示了对输入图像(a)的三个顶级预测类标签的LIME解释。我们可以清楚地看到导致相应预测的部分与类标签匹配。例如,吉他颈对预测“电吉他”(b)贡献最大。


然而,当涉及到图神经网络(GNN)时,事情就变得有点棘手了。与cnn所操作的高度规则网格不同,图结构的不规则性带来了许多挑战。例如,我们可以很容易地解释上述CNN模型的解释,但是对于一个图来说,类似的节点级解释就不容易形象化和解释。

GNN解释方法概述

  基于梯度/特征的方法:使用梯度或隐藏特征作为输入重要性的近似值,通过反向传播来解释预测。

  基于扰动(Perturbation )的方法:输出对输入扰动的变化反映了输入区域的重要性。或者换句话说,需要保留哪些节点/边/特征,以便最终的预测不会与最初的GNN模型偏离太多。


代理(Surrogate )方法:训练一个使用输入节点的邻近区域更易于解释的代理模型。


分解方法:将预测分解为几个项,每个项作为相应输入特征的重要度得分。

生成方法:学习根据待解释的GNN模型生成获得最佳预测分数的图。、

什么是GNN最好的解释方法?

当谈到方法评估时,有很多事情需要考虑。建议了两个指标来确保以下属性。

· 保真度:可解释的模型应该与被解释的原始GNN有一致的预测。

· 稀疏性:只有一小部分节点/边缘/特征被用作解释。

· 稳定性:输入的微小变化不应过多影响解释。

· 准确性:解释应该准确地恢复地面真相解释(这只适用于地面真相已知的合成数据集)

总结

可解释性是人工智能的一个关键部分,因为它可以实现可靠和可信的预测。然而,将现有的解释方法应用于GNN并非易事。我们快速浏览了一些现有GNN解释方法中的一般方法,以及定义一个好的GNN解释方法所需的一些属性。

你可能感兴趣的:(2021-06-20)