XAI Explainable AI 模型可解释性(1)

前言: 搜索这个话题的壮士,一定是想寻找一种更适合自己模型可解释的方法,提升模型的可信和透明度,帮助于模型优化改进或者模型识别和防止偏差等等。故这里不再把时间浪费在什么是可解释这样的问题上。笔者把目前的解释性方法汇总在下面,并持续更新。

XAI Explainable AI 模型可解释性(1)_第1张图片

总的来说:常规的模型解释的核心思路:想办法使用一系列可解释的模型对复杂模型做解释,可解释的模型比如线性回归、逻辑回归、决策树等

三个层面:算法透明度——模型细节、全局可解释——全局输出、局部可解释——具体样本预测

你可能感兴趣的:(小翊总结,神经网络)