Deep SHAP 深度学习模型的可解释性分析

Deep SHAP 深度学习模型的可解释性分析

  • 1. 简介
    • 1.1 起源
    • 1.2 基本思想
  • 2. 算法实现流程
  • 3. 基于Deep SHAP的MNIST 数据集可解释性测试
    • 3.1 基于Tensorflow2的模型训练
    • 3.2 利用shap包对模型解释
  • 4. Deep lift和deep shap差异性
  • 参考文献资料

1. 简介

Deep SHAP 算法是一种用于解释深度学习模型的技术, 该算法通过将每个特征的重要性与输出值相关联来进行解释。下面我们将详细介绍 Deep SHAP 的原理。

1.1 起源

Deep SHAP (SHapley Additive exPlanation) 是 Luca Ancona 等人在 2017 年提出的一种模型解释技术。它基于 Shapley 值的思想, 是一个 分散度量方法, 它用于解释复杂模型中特征对输出造成的影响。

1.2 基本思想

Deep SHAP 的核心思想是给出每个特征对决策函数的局部贡献度量, 这 个特征局部贡献的大小, 在所有特征组合的所有可能性中, 根据 Shapley 值确定。

你可能感兴趣的:(计算机视觉,-,Opencv,强化学习等的,趣味小实验,深度学习,人工智能)