VIT基础概述

四,VIT

  1. 概述

VIT基础概述_第1张图片

VIT基础概述_第2张图片

需要在的数据集上进行预训练。

Vit本质为 transformer encoder网络。

  1. 算法

VIT基础概述_第3张图片

Vit将图片划分为大小相同的patches,可以重叠划分,也可以不重叠划分。

VIT基础概述_第4张图片

每个patches都是RGB的图像,属于张量。

需要将张量拉伸为向量。

VIT基础概述_第5张图片

Fc对向量x进行线性变化,注意不采用relu,得到z,此处WB为参数,需要训练得到,并且所有patch共享参数。

VIT基础概述_第6张图片

VIT基础概述_第7张图片

VIT基础概述_第8张图片

VIT基础概述_第9张图片

VIT基础概述_第10张图片

Z不仅编码了内容表征,而且包含位置信息。如果不用位置信息,会掉点3%。

一定要用positon encoder,但是具体什么形式的position,影响不大。

VIT基础概述_第11张图片

如果不用位置编码,则上图左右的transformer的输出一样。这样不好。

因此需要进行编码。

如果patches变化顺序,则其位置编码也会变化。

VIT基础概述_第12张图片

VIT基础概述_第13张图片

VIT基础概述_第14张图片

VIT基础概述_第15张图片

VIT基础概述_第16张图片

  1. 训练

VIT基础概述_第17张图片

数据集A很大,如JFT数据集-3亿张图像;

数据集B相对小,如imagenet-130万张图像

VIT基础概述_第18张图片

  1. 评估

VIT基础概述_第19张图片

VIT基础概述_第20张图片

你可能感兴趣的:(基础算法,transformer,深度学习,计算机视觉)