Swin transformer里的mask操作

Swin transformer里的mask操作_第1张图片

实现批量操作问题:经shifted windows,特征图被划分成大小不一的小窗口,显然这样就无法进行批量操作,Swin trans提出使用循环移位方式cyclic shift ,又分成了4个小窗口。

相关性不大的窗口做自注意力问题:如果直接循环移位后的各窗口进行自注意力操作,对于像上图C是天上的,与地上的(g)进行自注意力操作的话,两者本来就没大关系,没必要做自注意力。此时引入掩码操作:

Swin transformer里的mask操作_第2张图片

可以看到,将循环移位后的特征图还是分成4个window,(紫色方块表示移位过来的部分)

Swin transformer里的mask操作_第3张图片Swin transformer里的mask操作_第4张图片

                              (左)                                                                        (右)

见左图(可以看到绿色圆圈,圈住的一个window,里面有7*7个patch),将3号的patch向量拉直,然后转置,将两矩阵相乘,即做自注意力运算;可以看到右边矩阵序号36,63都不是我们想要的,但是为了并行计算,矩阵计算的速度比判断都是更快的,所以在计算后采用的掩码操作,见右图。

右图采用的掩码模板(绿色矩阵),是对画紫×的部分,自注意力操作产生的矩阵,数值很小,将掩码设计的矩阵与自注意力操作产生的矩阵相加,在通过softmax,就完成屏蔽画紫×的部分。

 将循环一次的窗口再还原到原位置上去的问题:保持原来的语义信息不变。

你可能感兴趣的:(深度学习,目标检测)