Lime算法总结--可解释性机器学习算法总结

一.引言

前面我们进行了CAM、GRAD-CAM算法的介绍,本文我们继续介绍一种算法:Lime(Local Interpretable Model-Agnostic Explanations)

二.算法介绍

Lime算法是基于局部代理模型来对单个样本进行解释。假设对于需要解释的黑盒模型,取关注的实例样本,在其附近进行扰动生成新的样本点,并得到黑盒模型的预测值,基于新的数据集训练可解释的模型来得到对黑盒模型良好的局部相似。

算法步骤:

1.确定目标函数

2.选取关注的样本点。

3.确定一个相似度计算方式,以及要选取的目标解释特征

4.对样本点周围进行扰动,按照它们到x的距离赋予样本权重

5.用原模型对这些样本进行预测,并训练一个线性模型在X的附近对原模型近似

可取值:

样本相似度

在样本X附近进行扰动,对扰动签的样本相似度进行定义,样本类型不同会有不同的定义

三.总结

算法优点:

(1)LIME可以应用到多个场景中,不仅仅可以对卷积神经网络中的图像分类,而且还可以应用到自然语言处理(NLP)当中。而LIME算法它与模型无关,他的可用性强

(2)LIME算法可以给出一个相关的可信度量,可以作为模型可靠的评估指标

(3)LIME还可以对训练的模型的特征数据中未出现过特征数据进行解释

缺点:

算法在发生数据扰动时,样本服从高斯分布,忽略了特征之间的相关性。

LIME算法速度慢,LIME在完成采样完成后,采样出来的图片都要经过原模型预测的结果,所需的时间复杂度比较高

你可能感兴趣的:(可解释性分析,算法,人工智能)