Explainable

Explainable/Interpretable ML

两种类型

  • Local Explanation
    Why do you think this image is a cat?
  • Global Explanation
    What do you think a “cat” looks like?

Point of Explainable ML

  • 解释Ml的目的并不是完全的知道Ml model 的工作原理
    • 人类的大脑同样是一个黑盒子
    • 不相信训练网络因为它是黑盒子, 但是人们相信人类的判断
  • ML Explanation的目标是让你觉得理解, 对不同的人有不同的解释

Interpretable v.s. Powerful

  • 一些模型是容易被解释的,
    • 例如,linear model 从权重可以知道feature的重要性
  • 深度学习不容易被解释
    • 黑盒子
    • 但是比linear model 更加powerful
  • desision tree
    • 可以被解释, 同时powerful?
    • 然而很多时候,tree是很复杂的, 我们用的是forest, 无法完全解释它。

Local Explanation

components 拿掉或者改动, 这个coponents 对结果的改变影响很大, 这就是重要的component
Explainable_第1张图片

Explainable_第2张图片 Explainable_第3张图片
移动灰色方块, 灰色放在蓝色部分辨识狗狗几率变小, 红色部分, 机器辨识度高。这方法要小心方块的大小。方块颜色也要选择。 画saliency map,通过, 改变x向量,计算gradient, 看哪些grdient 比较大, 计算哪些pixcel 比较重要,每个点的亮度表示,yk对xn的偏微分绝对值
Explainable_第4张图片 Explainable_第5张图片
其他方法 gradient 有时会遇到瓶颈, 可以使用右边2种方法。

interpretation 同样可以会被attack, 一些杂讯会使saliency变化很大。

Global Explanation

Activation Minimization

手写数字分类的例子

Explainable_第6张图片 Explainable_第7张图片
取出模型对应数字的output, 使他yi几率最大, 显示理想的数字图片长什么样子。 yi 越大越好, 同时图片看起来像数字。 R(x)表示图片看起来多像一个数字。因为多数区域没有数值, 这里R(x)把所有有数值的pixel 加起来。计算通过pixel的强度。

Explainable_第8张图片画出心里理想部件的时候, 需要增加很多限制,然后暴调参数

Explainable_第9张图片 Explainable_第10张图片
找到一个最好的z, 通过image generator, 产生一个image,图片通过classifier以后,得到的y的一个class 越大越好。 很深的network。 可以产生的结果, 心里的蚂蚁,心里的火山,心里的修道院

用一种模型解释另外的模型

一些模型很容易被解释, 用容易解释的模型去模仿不易解释的模型
Explainable_第11张图片

lime

Explainable_第12张图片 Explainable_第13张图片
Explainable_第14张图片 Explainable_第15张图片

查看哪些segment,权重1, 表示对结果影响最大。

Explainable_第16张图片 Explainable_第17张图片
Explainable_第18张图片 min Los, decision tree的复杂程度也要越小越好—》 tree regularization。
怎么微分?train一个network , 给他一个networkb的参数, 可以计算出 networkb 转成decision tree 的深度。

你可能感兴趣的:(Explainable)