机器学习解释利器:SHAP

参考【1】https://zhuanlan.zhihu.com/p/106320452

       【2】https://zhuanlan.zhihu.com/p/364919024

       【3】https://zhuanlan.zhihu.com/p/85791430  

       【4】https://zhuanlan.zhihu.com/p/186204351

1.概括图,即 summary plot,该图是对全部样本全部特征的shaple值进行求和,可以反映出特征重要性及每个特征对样本正负预测的贡献。

shap.summary_plot(shap_values, data[use_cols])

2.summary_plot图,是把所有的样本点都呈现在图中,颜色代表特征值的大小,而横坐标为shap值的大小,从图中可以看到 days_credit这一特征,值越小,shap值越大,换句话来说就是days_credit越大,风险越高。

3.特征影响图

X - 横轴是样本数量,

Y - 纵轴是shap值加总(每个特征值 * 每个特征的shap值)

这里横轴的排列是非常有讲究的,因为不是按顺序排列的,该图会把受相同特征影响大的放一起,

比如观察最左边,蓝色扎堆是负向shap增益区,划过可以看到基本是0/4/5/12这几个特征对大多数样本都有负向增益; 当然同样,右边,红色扎堆,12/5/10对一些样本是正向增益的

整体来说,该图是一个宏观的了解,诸多样本不同的特征对其的影响

你可能感兴趣的:(机器学习解释利器:SHAP)