Decoupled Dynamic Filter Networks(速读)

大年初一快乐!

过年好!

昨天bb了那么多东西(有点喧宾夺主啦),今天就不多说了,反正要一直成长就好啦~

咱来看看这篇论文

Abstract

我看在一些文章里竟然没有这一个部分的讲解,,,要是我的话这部分是必须看的
可能因为人家只需要看method就可以总结出来了呜呜

这个的Abstract非常巧妙啊!!!

一开始先说传统的卷积有两个主要的缺点:内容不可知和计算量大(Content-sgnostic and Computation-heavy)

然后说自己的DDF可以克服这两个缺点

最后跟resnet对比了一下,还真不错

这个结构其实很不错的,也很常规。

introduction

这个intro里面里面有个图,是对比static filter ,dynamic filter和ddf的,这一块感觉也不是能很看得懂(毕竟才intro)底下的总结感觉有点灌水,所以还是继续看。

底下的实现&实验

(这篇的结构略微有点奇怪?居然没有以method为标题,不过也还结构清楚)

Decoupled Dynamic Filter Networks(速读)_第1张图片
这个图是讲DDF的,很明显每篇都有一个最重要的图及,基本get过这个图就差不多啦

可以看到右边的图片中有个DDF Op,而左边正好是DDF Op,那就先看右边

Decoupled Dynamic Filter Networks(速读)_第2张图片
分为两个分支,左边的是spatial(空间),右边是channel (这里见另一篇博客吧,我这里其实不太能区分它们)
spatial维度上,先用1x1卷积讲channel 数变成k*k,每个空间位置的卷积核参数量是kxkxhxw

而channel上,经过一个GAP+FC,最终得到一个kxkxc

好了,那个DDF Op就是合并空间位置和chnnel 上的卷积核

看左边这个图

Decoupled Dynamic Filter Networks(速读)_第3张图片
空间:
h ∗ w h*w hw代表像素点个数,那么Spactial dynamic filters那一棕色部分就是每个像素点对应的卷积核。将 k 2 k^2 k2 reshape成 k ∗ k k*k kk就是一个大小为 k的卷积核了

对应空间位置的卷积核与对应通道的卷积核做了一个 逐像素相乘(Element-wise )得到了一个新的卷积核然后在对这个点进行卷积

数据集被可耻地省略掉了QAQ

这篇先这样,我去补一点基础知识

你可能感兴趣的:(论文,机器学习)