Swin Transformer详解

继vit之后,进一步证明了Transformer可以在视觉领域广泛应用,并且可以应用到半监督以及自监督中。 

Swin Transformer:Hierarchical Vision Transformer Using Shifted Windows

Swin Transformer:用了移动窗口的层级式的Transformer,Swin来自Shifted Windows。

他可以像CNN一样做到层级式提取,使提取到的特征有多尺度的概念

摘要

Vit出现后虽然让大家看到了Transformer在视觉领域的潜力,但并不确定Transformer可以做掉所有视觉任务。

Swin Transformer可以作为一个通用的骨干网络。

面对的挑战:1、多尺度。 2、高像素。

移动窗口提高效率,并通过Shifted操作变相达到全局建模能力。

层次结构:灵活,可以提供各个尺度特征信息,容易使用到下游任务中。

最后分层设计和移位窗口方法也被证明对所有mlp体系结构都是有益的。

引言

Swin Transformer详解_第1张图片

 Vit虽然可以全局建模,但单一尺寸和低分辨率减弱了对多尺寸特征的把握,然而对密集预测型任务多尺寸特征非常重要。同时Vit是全局建模,复杂度与图像大小为平方关系。

由此,借鉴CNN的先验知识和设计理念,提出了Swin Transformer。

1、复杂度

在小窗口内计算自注意力从而使复杂度降到线性,这利用了CNN中局部性的先验知识:同一个物体的不同部分和语意相近部分大概率相邻。

2、多尺寸特征

卷积神经网络为什么有多尺度特征?因为池化操作,池化能增大每一个卷积核的感受野。因此这里也提出一个类似池化的patch merging,将相邻的小patch合成大patch,增大感受野和获取多尺寸特征信息。有了这些多尺寸特征图就可以扔给分割,检测,这使它可以作为一个骨干网络。

Swin Transformer详解_第2张图片

 shift操作

假设窗口大小为M,shift操作就是向右向下分别平移M//2个patch,然后在新的特征图重新进行自注意力,这让相邻窗口有了交互的能力。估计看到这里会一头雾水,先不用搞清,具体原理稍后就说。

先说说为什么会能够具有交互能力,比如第四行第四列的patch,最初只能和最左上角的窗口内的其他patch进行自注意力,但shift之后就可以和第四行第五列的patch,第五行第四列的patch,第五行第五列的patch进行自注意力,而这三个patch分别来自其它三个窗口,这就使得不同窗口间有了交互能力。再加上patch merging就可以做到全局自注意力操作了。

网络结构 

整体结构

Swin Transformer详解_第3张图片

Swin Transformer详解_第4张图片

patch partition

与Vit类似,使用一个卷积核大小为4*4,步长为4,通道数为48的卷积神经网络后维度为(H/4,W/4,48)

linear Embedding

将维度调整到C,并且它还包含一个layer norm

Swin Transformer Block

输入输出维度不变。首先一个Swin Transformer Blocks包含两个block,分别将原有的Multi-head attention(MSA)替换成窗口注意力(Window-MSA)和滑动窗口注意力(Shifted Window-MSA)

Patch Merging

类似于池化,对特征图进行下采样,同时通道数变为2倍,后面细讲。

具体实现

Patch Merging

1 2 1 2
3 4 3 4
1 2 1 2
3 4 3 4
1 1
1 1
2 2
2

2

3 3
3 3
4 4
4 4

这里的1,2,3,4代表的是序号,也就是说先将序号相同的patch汇聚到一起,这时候有四个(H/2,W/2,C)的张量,再在C的维度依次拼接这四个张量得到(H/2,W/2,4C)的张量,对他在4C维度上进行layer norm。因为卷积神经网络每次下采样后通道数会变成两倍,因此我们通过一个Linear将其维度转变为(H/2,W/2,2C) 。

W-MSA

目的:减少计算量

缺点:窗口之间无法进行信息交互。

做法:只对window之内的patch做self-attention。

以下是复杂度对比,推导见Swin-Transformer网络结构详解_swin transformer_太阳花的小绿豆的博客-CSDN博客

SW-MSA

Swin Transformer详解_第5张图片

再来仔细看这幅图: 

将窗口向右向下分别平移M//2个patch,这时会出现9个窗口,并且每个窗口内的patch数不一样。

有两种解决方法,一种是对每个窗口进行补0,但这样就从一开始要计算的4个窗口变成了计算9个窗口,计算量大大增加。一种是通过masking方法来减少计算。

Swin Transformer详解_第6张图片

 先将AC移到下方,再讲BA移到右方,被移动的和它现在相邻的在原本是没有关系的。比如原来C是天,最下面的是地,现在C被移到最下方,也不能说天在地下面。因此这些原本无关的patch就不能进行自注意力计算,因此我们需要使用masking。

现在我们已经得到了4*4的window,怎么进行mask呢?(如果看不懂强烈建议去学习朱导的精读,时间45:00。)

Swin Transformer详解_第7张图片

首先一个窗口有7*7个patch,那么向下向右平移7//2=3个单位。假设各部分按此编号。我们将窗口2展开,各个patch的来源应该是

3,3,3,3,3,3,3,

3,3,3,3,3,3,3,

3,3,3,3,3,3,3,

3,3,3,3,3,3,3,

6,6,6,6,6,6,6,

6,6,6,6,6,6,6,

6,6,6,6,6,6,6,

前28个来自3,后21个来自6。自注意力后得到

Swin Transformer详解_第8张图片

attention矩阵维度是49*49,左上角28*28的块是3号区域内的attention,右下角的21*21是6号区域内的attention,我们需要mask掉3号区域与6号区域的attention就可以。作者提到因为attention都是一个零点几的小数,所以我们直接给要mask掉的地方-100就可以做到softmax后其值为0.

类似的我们看看编号为12的窗口,它展开应该是这样的

1,1,1,1,2,2,2,

1,1,1,1,2,2,2,

1,1,1,1,2,2,2,

1,1,1,1,2,2,2

与刚才的方法类似,于是我们得到各个窗口的mask如下

Swin Transformer详解_第9张图片

最终我们还要把刚刚移动的移回去就大功告成。

相对位置偏移

因为本文仅供自己复习用,如果看不懂我写的强烈建议学习12.1 Swin-Transformer网络结构详解_哔哩哔哩_bilibili

时间37:00

这里的B就是相对位置偏移 。首先,在Swin Transformer中使用绝对位置编码表现并不好,其次相对位置编码表现得很好,因此我们用相对位置编码。。。

1、相对位置索引

假如特征图如下

a b
c d

 这时候a,b,c,d的绝对位置索引是

0,0 0,1
1,0 1,1

a,b,c,d与其他的相对位置矩阵分别为(自己的索引减去别人的索引)

0,0 0,-1
-1,0 -1,-1

0,1 0,0
-1,1 -1,0

1,0 1,-1
0,0

0,-1

1,1 1,0
0,1 0,0

 将四个矩阵展平,拼接

0,0 0,-1 -1,0 -1,-1
0,1 0,0 -1,1 -1,0
1,0 1,-1 0,0 0,-1
1,1 1,0 0,1 0,0

然后再将二维坐标转换为一维坐标,如果直接将行列坐标相加,会发生之前索引不同而之后索引相同的情况,如(-1,0)和(0,-1)

于是我们先给行和列都加上M-1,在这个例子中M=2。

说白了其实就是消除负数

1,1 1,0 0,1 0,0
1,2 1,1 0,2 0,1
2,1 2,0 1,1 1,0
2,2 2,1 1,2 1,1

然后我们给行标乘2M-1再和列标相加

4 3 1 0
5 4 2 1
7 6 4 3
8 7 5 4

通过上述方法我们让刚刚索引相同的值仍然相同,索引不同但行标列标相加后相同的情况索引不再相同,比如刚刚的(0,-1)和(-1,0)

2、相对位置偏置

我们根据相对位置索引去相对位置偏置表中取需要的值,相对位置偏置表的元素个数为(2M-1)*(2M-1),他是一个可学习的参数,相对位置索引是固定的

Swin Transformer详解_第10张图片

 最终得到相对位置偏置

0.1 0.8 0.2 0.1
0.6 0.1

0.3

0.2
0.4 0.4 0.1 3
0.7 0.4 0.6 0.1

 模型配置参数

 Swin Transformer详解_第11张图片

消融实验

 Swin Transformer详解_第12张图片

结论

复杂度同图像大小是线性关系。基于移动窗口的自注意力在密集预测型任务中非常有效。

最后,本文章仅供学习

你可能感兴趣的:(transformer,深度学习,人工智能)