点击上方“CVer”,选择加"星标"置顶
重磅干货,第一时间送达
本文作者:王睿 | 来源:知乎(已授权)
https://zhuanlan.zhihu.com/p/345265507
TL;DR:我们将特征的重要值直接写进神经网络,作为层间特征,这样的神经网络模型有了新的功能:
1. 层间特征重要值解释(因此模型测试时也可做instance-based的剪枝),
2. 常数复杂度的Shapley值逼近,
3. (因而能够)根据Shapley值对模型进行改进。
来介绍一下自己本科在普渡大学做的工作,最近也被ICLR 2021录用了:
题目:Shapley Explanation Networks
论文:https://openreview.net/forum?id=vsU0efpivw
代码链接:
https://github.com/RuiWang1998/ShapleyExplanationNetworks
PC评价:
the paper yields an innovation to a widely-used approach to one of the most pressing current research problems.
深度神经网络的可解释性是一个非常重要的问题,而知道各个特征的重要性是解决这个问题过程中非常重要的一环。Shapley值给了一个理论基础扎实的重要性定义,但是Shapley值的计算一直是一个很大的问题(指数级复杂度),这也带来了很大的限制。我们通过将Shapley值直接作为神经网络的中层特征表达,有效地缓解了Shapley值计算量巨大的问题,同时也带来了几个新的功能。(with compromise of course)
这个谈到有点复杂了,具体看我之前的回答:
https://www.zhihu.com/question/310837513/answer/1281609735
或者 @Qs.Zhang张拳石老师写的一系列文章:
https://zhuanlan.zhihu.com/p/264871522
总而言之,Shapley值是
相对而言,理论基础非常扎实的一种特征重要性的估值,
但是计算复杂度是指数,所以有很多的近似算法。
有几个性质,其中在这里跟我们实际有关的有俩:
线性:如果你计算了某一个函数的Shapley值,而这个函数在后面又进行了线性变换生成了新的函数,那么你只需要将得到的Shapley值进行相同的线性变换,即可获得新函数的Shapley值
missingness:一个特征输入的时候如果已经为其参考值,则这个特征的重要性为0
下面部分可能会(非常)难读,同一个东西我们完全重写了至少三遍,因为总共10个reviewer里面3个完全没看懂(NeurIPS的reviewer说的就是你们)剩下7个里面有5个说真的很难读懂。哪里没写清楚求一定在评论里提出来,看见我就试着改改。
以及下面所有edge的weight都是这样:
Idea说起来也简单(在三次投稿,重写了三次之后能不简单吗):多层神经网络 可以表示为
对于任意输入,我们依次计算 的输出,此时 的输入,即为 的输出。而我们选择将 的Shapley值作为下一层 的输入。
如果将第 层输出特征用 表示,对于普通正常神经网络:
而我们的ShapNet则:
其中
而 表示求函数 关于输入 的Shapley值(们,毕竟有很多input features)。
Shapley Module:
如图所示:
我们可以给模型内的函数 限制,使它只取决于一小部分输入feature,这样运算量也算可控。
Shallow ShapNet
如下图所示,我们通过对函数的线性变换,来达到同时
每一个Shapley值的运算只取决于一小部分输入feature
最终输出取决于所有feature。
Deep ShapNet,
这个其实就是把Shallow ShapNets摞起来,项目一开始的时候我们以为最终算出来的 是准确的Shapley值,结果合作者Xiaoqian (Joy) Wang教授抬手一个证明,把这玩意儿证否了,但是实验上看,其实近似的效果还不错。这里的Deep ShapNet也就是最终模型
接近,但是不是准确的,但是相比Deep SHAP,它更准确,相比Kernel SHAP,它更快。
还行,但是距离SOTA有(很大)距离,下图表格中的Deep ShapNet for images也是我花了很久很久才做出来的,一开始试Cifar-10的时候准确率只有30%
这个很明显我们只用一个forward pass就能算出Shapley值(虽然每一个module要算几遍)
如我在
https://www.zhihu.com/question/310837513/answer/1281609735
里所说,之前所有方法,都不能做到根据Shapley值来改变模型性质,而我们因为(强行)常数的时间复杂度,可以进行这样的操作。大概就如下图:
是加入稀疏度,而 是把每个feature的重要性扩散开(2021年了还在用MNIST发paper)。值得一提的是,之前的近似算法计算一张MNIST图片都需要几十分钟甚至几个小时的时间。
这里联系上Shapley值的missingness(这个missingness在提出的paper里面只是可有可无的[1],但是我们还是用到了):
一个特征输入的时候如果已经为其参考值,则这个特征的重要性为0
这里的missingness是Shapley值的,但是我们模型
每一层的输出都是这一层自己的解释
这就意味着,如果在某一层,一个feature的重要性变成了0,那么接下来所有层,它都不再重要(对应值为0)。如果有一个Shapley Module的所有input feature都不重要了,那它的计算就可以完全省过去。这样的剪枝是instance-based的,比普通的剪枝更能剪。
我们可以对每一层的representation都进行 ,这样的话我们甚至可以剪更多。
这个想法是ICLR的rebuttal阶段想出来的,所以也没有时间做实验来验证这玩意儿,感觉挺有意思,可能之后的工作会跟进吧。详细的还是看openreview上的rebuttal:
https://openreview.net/forum?id=vsU0efpivw
上次回答的时候买了个关子,说自己当时投了ICML 2020,是的它真的经历了ICML/NeurIPS/ICLR三大顶会才被发表出来,项目开始的时候我大三才开始两个月,到ICLR录用,我大学都毕业8个月了:
https://www.zhihu.com/question/310837513/answer/1281609735
^Scott M Lundberg and Su-In Lee.A Unified Approach to Interpreting Model Predic-tions.In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vish-wanathan, and R. Garnett (eds.),Advances in Neural Information Processing Systems 30,pp. 4765–4774. Curran Associates, Inc., 2017. http://papers.nips.cc/paper/7062-a-unified-approach-to-interpreting-model-predictions
CV资源下载
后台回复:CVPR2020,即可下载代码开源的论文合集
后台回复:ECCV2020,即可下载代码开源的论文合集
后台回复:YOLO,即可下载YOLOv4论文和代码
后台回复:Trasnformer综述,即可下载两个最新的视觉Transformer综述PDF,肝起来!
重磅!CVer-细分垂直交流群成立
扫码添加CVer助手,可申请加入CVer-细分垂直方向 微信交流群,也可申请加入CVer大群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、Transformer、PyTorch和TensorFlow等群。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡),根据格式备注,才能通过且邀请进群
▲长按加微信群
▲长按关注CVer公众号
整理不易,请给CVer点赞和在看!