transformer入坑指南

*免责声明:
1\此方法仅提供参考
2\搬了其他博主的操作方法,以贴上路径.
3*

场景一: Attention is all you need

场景二: VIT

场景三: Swin v1

场景四: Swin v2

场景五: SETR

场景六: TransUNet

场景七: SegFormer

场景八: PVT

场景九: Segmeter

场景一:Attention is all you need

论文地址

强推–》国外学者的解读

强推–》国内学者对国外学者解读的翻译

1.1 概述

强推先看–> 《场景三:seq2seq与attention机制》

transformer入坑指南_第1张图片
transformer入坑指南_第2张图片

transformer入坑指南_第3张图片

transformer入坑指南_第4张图片

transformer入坑指南_第5张图片

1.2 transformer网络结构

细讲 | Attention Is All You Need

transformer入坑指南_第6张图片

1.3 encoder

transformer入坑指南_第7张图片
transformer入坑指南_第8张图片

transformer入坑指南_第9张图片
transformer入坑指南_第10张图片
transformer入坑指南_第11张图片
transformer入坑指南_第12张图片
transformer入坑指南_第13张图片
transformer入坑指南_第14张图片
transformer入坑指南_第15张图片

1.4 decoder

tarnsformer里面的decoder阶段的mask的作用与数学描述

transformer入坑指南_第16张图片

1.5 输入端 (位置编码)

transformer入坑指南_第17张图片

transformer入坑指南_第18张图片

1.6 encoder与decoder的交互形式

transformer入坑指南_第19张图片

transformer入坑指南_第20张图片

场景二: VIT (Vision Transformer)

论文地址

Vision Transformer详解

ViT(Vision Transformer)解析

【机器学习】详解 Vision Transformer (ViT)

1.1 概述

MLP更多请看–> 《场景六:神经网络》
transformer入坑指南_第21张图片
transformer入坑指南_第22张图片
transformer入坑指南_第23张图片

1.2 VIT网络结构

transformer入坑指南_第24张图片

1.3 输入端编码处理

图片编码

transformer入坑指南_第25张图片

用于分类的class编码

transformer入坑指南_第26张图片
位置编码
transformer入坑指南_第27张图片
transformer入坑指南_第28张图片
transformer入坑指南_第29张图片

1.4 encoder

强推–>transformer系列基础知识先导篇

【正则化】DropPath/drop_path用法

transformer入坑指南_第30张图片

1.5 MLP Head

强推–>MLP更多知识可查看 《场景五1.4 与场景六》
transformer入坑指南_第31张图片

1.6 ViT-B/16结构图

transformer入坑指南_第32张图片

1.7 hybrid model (cnn与transformer结合的混合模型)

transformer入坑指南_第33张图片
transformer入坑指南_第34张图片
transformer入坑指南_第35张图片

1.8 参数调节

transformer入坑指南_第36张图片

1.9 实验结果

transformer入坑指南_第37张图片
transformer入坑指南_第38张图片
transformer入坑指南_第39张图片

场景三:swin v1

Swin Transformer 论文地址

github工程项目地址

参考一:Swin-Transformer网络结构详解

参考二:论文详解:Swin Transformer

参考三:详解Swin Transformer核心实现,经典模型也能快速调优

1.1 前言

transformer入坑指南_第40张图片

1.2 网络结构

transformer入坑指南_第41张图片
transformer入坑指南_第42张图片

1.3 输入端编码处理

transformer入坑指南_第43张图片

1.4 W-MSA ( Window Mutil-head Attention )

transformer入坑指南_第44张图片
transformer入坑指南_第45张图片

transformer入坑指南_第46张图片
transformer入坑指南_第47张图片

1.5 SW-MSA ( Shifted Window Mutil-head Attention)

transformer入坑指南_第48张图片
transformer入坑指南_第49张图片
transformer入坑指南_第50张图片

1.6 Patch Merging

transformer入坑指南_第51张图片

1.7 相对位置偏置

transformer入坑指南_第52张图片
transformer入坑指南_第53张图片

transformer入坑指南_第54张图片

transformer入坑指南_第55张图片
transformer入坑指南_第56张图片

1.8 模型结构图

transformer入坑指南_第57张图片
transformer入坑指南_第58张图片

1.9 性能

transformer入坑指南_第59张图片
transformer入坑指南_第60张图片
transformer入坑指南_第61张图片

you did it
在这里插入图片描述

你可能感兴趣的:(transformer,深度学习,人工智能)