2020李宏毅学习笔记——23.Explainable ML(4_8)

1.Global Explanation——Explain the whole model

也就是说回答机器心里的猫到底是长什么样?机器对于某一类别的认知是什么?机器认为的最像某一类别的图片长什么样子?是不是和我们认为的一样呢?
思路::当模型输出某一类别的可能的概率值最大时候,输入长什么样子?
Activation Minimization (review)的复习
假设我们已经训练好了NN,并且已经给定了yi,那么global explanation要做的就是找到x*,x∗=argmax⁡(yi),x*需要满足让yi越大越好,
2020李宏毅学习笔记——23.Explainable ML(4_8)_第1张图片
但是有时这样求出来的效果并是很好,所以就像训练NN时一样,我们也给它加上正则项(下图这个例子中的正则项表示:如果是图片中是一个数字,那么白色的点就不应该很多(白色表示这里有墨迹)):
需要增加一个约束,使得生成的图片不仅使得yi最大,还要一个手写数字。比如可以选择下图所示的约束R(x),因为手写数字图片应该是大部分地方都没有数值,只有少部分pixel是有值的。这个约束可以自己设计。
2020李宏毅学习笔记——23.Explainable ML(4_8)_第2张图片
需要精心设计一些约束,并且要爆调一波参数才能得到的。。。才能得到好的结果:
2020李宏毅学习笔记——23.Explainable ML(4_8)_第3张图片

你可能感兴趣的:(2020李宏毅学习笔记——23.Explainable ML(4_8))