E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
VIT
【神经网络】(19) ConvNeXt 代码复现,网络解析,附Tensorflow完整代码
完整代码在我的Gitee中:https://gitee.com/dgvv4/neural-network-model/tree/master/21年Transformer频频跨界视觉领域,先是在图像分类上被谷歌
ViT
立Sir
·
2022-05-30 16:51
TensorFlow神经网络
深度学习
tensorflow
神经网络
python
计算机视觉
Vision Transformer 必读系列之图像分类综述(一):概述
文@000007号外号外:awesome-
vit
上新啦,欢迎大家StarStarStar~https://github.com/open-mmlab/awesome-vitgithub.com/open-mmlab
OpenMMLab
·
2022-05-29 13:28
技术干货
transformer
深度学习
人工智能
旷视MegEngine是如何将31*31的大核卷积计算速度提高10倍的
2021年提议的VisionTransformer(
VIT
)已成为计算机视觉深度学习领域的一个有前途的研究主题。
·
2022-05-29 12:36
人工智能深度学习神经网络
CVPR2022《Mobile-Former: Bridging MobileNet and Transformer》
论文链接:https://arxiv.org/pdf/2108.05895.pdf代码链接:无1.动机visiontransformer(
ViT
)可以很好地建模全局信息,并实现与CNN相比显著的性能提升
Love向日葵的兮兮子
·
2022-05-27 07:22
Transformer
计算机视觉
transformer
深度学习
2022CVPR边缘检测——EDTER: Edge Detection with Transformer文章阅读
EDTER:EdgeDetectionwithTransformer文章阅读今天阅读了一篇文章,名为EDTER:EdgeDetectionwithTransformer,作者将
ViT
运用在图像边缘检测任务中
shuttle6
·
2022-05-27 07:54
计算机视觉
深度学习
人工智能
Vision Transformer(
ViT
)PyTorch代码全解析(附图解)
VisionTransformer(
ViT
)PyTorch代码全解析最近CV领域的VisionTransformer将在NLP领域的Transormer结果借鉴过来,屠杀了各大CV榜单。
Adenialzz
·
2022-05-25 03:04
PyTorch
深度学习
神经网络
cv
使用动图深入解释微软的Swin Transformer
与
VIT
不同SwinTransformer更加高效并且有更高的精度。由于SwinTransformer的一些特性,现在许多视觉的模型体系结构中,SwinTransformers还是被用作模型的骨干。
·
2022-05-24 12:20
A ConvNet for the 2020s 原理分析与解读
VisionTransformer,VisionMLP超详细解读(原理分析+代码解读)(目录)-知乎VisionMLP超详细解读(原理分析+代码解读)(四)-知乎ConvNeXt可以看做是把SwinTransformer包括
ViT
m0_61899108
·
2022-05-22 07:24
经验分享
知识学习系列
代码阅读系列
cnn
深度学习
人工智能
【深度学习】CVPR 2022|从原理和代码详解FAIR的惊艳之作:全新的纯卷积模型ConvNeXt...
作者丨科技猛兽编辑丨极市平台导读ConvNeXt可以看做是把SwinTransformer包括
ViT
的所有特殊的设计集于一身之后的卷积网络进化版,升级了ResNet架构,看看借助了2020年代CV设计范式之后的卷积网络的性能极限在哪里
风度78
·
2022-05-22 07:46
网络
神经网络
人脸识别
大数据
算法
CVPR 2022 | 超越Transformer!FAIR重新设计纯卷积架构:ConvNeXt
本文是FAIR的ZhuangLiu(DenseNet的作者)与SainingXie(ResNeXt的作者)关于ConvNet的最新探索,以ResNet为出发点,逐步引入近来
ViT
架构的一些设计理念而得到的纯
Amusi(CVer)
·
2022-05-22 07:44
计算机视觉
人工智能
深度学习
机器学习
神经网络
【深度学习】(ICCV-2021)PVT-金字塔 Vision Transformer及PVT_V2
目录0.详情1.简述2.主要工作2.1
ViT
遗留的问题2.2引入金字塔结构3.PVT的设计方案3.1Patchembedding代码3.2positionembedding3.3Encoder3.2Spatial-reductionattention
sky_柘
·
2022-05-21 10:42
transformers
语义分割
论文阅读
transformer
深度学习
人工智能
GitHub 7.5k star量,各种视觉Transformer的PyTorch实现合集整理好了
自2020年10月谷歌提出VisionTransformer(
ViT
)以来,各式各样视觉Transformer开始在
计算机视觉研究院
·
2022-05-18 07:53
算法
人工智能
计算机视觉
深度学习
机器学习
新论文使用LSTM挑战长序列建模的
ViT
不到两年的时间
ViT
已经彻底改变了计算机视觉领域,利用transformers强大的自注意机制来替代卷积,最近诸如MLP-Mixer和通过精心设计的卷积神经网络(CNN)等方法也已经实现了与
ViT
相当的性能
·
2022-05-12 11:43
ViT
for Detection
本文介绍何恺明组在MAE后发表的两篇论文。使plainViT更直接地适配下游检测任务,并比较了自监督预训练、监督预训练和强随机初始化基线,并表明最新的基于屏蔽的无监督学习方法可能首次在COCO上提供令人信服的迁移学习改进。目录:1.BenchmarkingDetectionTransferLearningwithVisionTransformers(2021.11)2.ExploringPlain
Valar_Morghulis
·
2022-05-09 17:09
刷新ImageNet最高分!谷歌发布最强Transformer
可打印版本附pdf下载链接近日,谷歌大脑团队公布了VisionTransformer(
ViT
)进阶版
ViT
-G/14,参数高达20亿的CV模型,经过30亿张图片的训练,刷新了ImageNet上最高准确率记录
SophiaCV
·
2022-05-09 10:06
人工智能
编程语言
机器学习
深度学习
计算机视觉
Keras实现Vision Transformer
VIT
模型示例详解
目录什么是VisionTransformer(
VIT
)VisionTransforme的实现思路一、整体结构解析二、网络结构解析1、特征提取部分介绍2、分类部分VisionTransforme的构建代码什么是
·
2022-05-07 19:43
DeiT III
DeiTIII:
ViT
的复仇作者是Meta(原Facebook)、索邦大学的HugoTouvron,MatthieuCord,HervéJégou等人。他们也是DeiT、ResNet的反击的作者。
Valar_Morghulis
·
2022-05-06 12:45
当Swin Transformer遇上DCN,效果惊人!
一方面,使用密集注意力(例如
ViT
)会导致过多的内存和计算成本,并且特征可能会受到超出兴趣区域的无关部分的影响;另一方面,PVT或SwinTransformer中采用的稀疏注意力与数据无关,可能会限制对远程
深度学习技术前沿
·
2022-05-05 07:01
计算机视觉
机器学习
人工智能
深度学习
大数据
【读点论文】ViTGAN: Training GANs with Vision Transformers 将视觉transformer和gan结合起来
将
ViT
整合到生成式对抗网络(GANs)中。本文观察到,现有的GANs正则化方法与自注意力的交互作用很差,导致训练过程中严重的不稳定
羞儿
·
2022-05-04 07:42
论文笔记
深度学习
计算机视觉
人工智能
GAN
CVPR 2022 优质论文分享
AConvNetforthe2020s论文:https://arxiv.org/abs/2201.0354代码:https://github.com/facebookresearch/ConvNeXt2020年以来,
ViT
极链AI云
·
2022-05-04 07:54
深度学习
神经网络
人工智能
[Transformer] MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer
GitHub-apple/ml-cvnets:CVNets:Alibraryfortrainingcomputervisionnetworks1Introduction传统CNN易于优化且可根据特定任务整合不同网络,
ViT
Cherry_qy
·
2022-05-01 11:03
Transformer
backbone
transformer
深度学习
计算机视觉
MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer论文翻译理解
为了学习全局特征,
ViT
被应用到了CV领域,但是比起CNN,
ViT
更复杂。那么有没有一种可能,将CNN和
ViT
的优点结合起来,去构建一个轻量级而且低延迟的网络呢。
Katherine121
·
2022-05-01 11:31
transformer
深度学习
计算机视觉
人工智能
魔改ResNet反超Transformer再掀架构之争!作者说“没一处是创新”,这些优化trick值得学...
先是图像分类上被谷歌
ViT
突破,后来目标检测和图像分割又被微软SwinTransformer拿下。
QbitAl
·
2022-04-27 07:18
卷积
大数据
计算机视觉
机器学习
人工智能
ViT
模型关联的Layer Normalization研读(一)初学者
今天在重新回顾
ViT
模型的基本结构的时候,发现很多知识盲区,这仅是其中一个。
踏实钻研
·
2022-04-24 07:25
python
人工智能
nlp
【论文笔记】Shunted Self-Attention via Multi-Scale Token Aggregation 论文笔记及实验
ShuntedTransformer飞桨权重迁移在线体验传送门
ViT
模型在设计时有个特点:在相同的层中每个token的感受野相同。这限制了se
嘟嘟太菜了
·
2022-04-18 11:43
深度学习
ViT
pytorch
计算机视觉
ViT
Transformer
Vite 创建Vue3项目及基础使用
Vite法语意为"快速的",发音/
vit
/,下一代前端开发与构建的工具,等于现在的webpack。
似朝朝我心
·
2022-04-14 16:07
微信图片翻译技术优化之路
文章术语
ViT
人工智能与算法学习
·
2022-04-13 07:22
大数据
算法
python
计算机视觉
神经网络
Multi-modal Multi-task Masked Autoencoder:一种简单、灵活且有效的
ViT
预训练策略
MAE是一种使用自监督预训练策略的
ViT
,通过遮蔽输入图像中的补丁,然后预测缺失区域进行子监督的与训练。
·
2022-04-12 11:03
vite + Vue3 + TS
plugin-vue'//如果编辑器提示path模块找不到,则可以安装一下@types/node->npmi@types/node-Dimport{resolve}from'path'//https://
vit
·
2022-04-09 18:46
前端
【第31篇】探索普通视觉Transformer Backbones用于物体检测
摘要我们探索了普通的、非分层的视觉转换器(
ViT
)作为目标检测的骨干网络。这种设计使原始
ViT
架构能够针对对象检测进行微调,而无需重新设计用于预训练的分层主干。
AI浩
·
2022-04-05 07:30
高质量人类CV论文翻译
人工智能
深度学习
python
pytorch
最新的一篇视觉Transformer综述!
已授权转载(源:知乎)https://zhuanlan.zhihu.com/p/433048484CVer公众号已汇集三篇视觉Transformer,公众号后台回复:Transformer综述,即可下载三篇
ViT
Amusi(CVer)
·
2022-04-01 07:21
大数据
编程语言
计算机视觉
机器学习
人工智能
神经网络学习小记录68——Tensorflow2版 Vision Transformer(
VIT
)模型的复现详解
神经网络学习小记录68——Tensorflow2版VisionTransformer(
VIT
)模型的复现详解学习前言什么是VisionTransformer(
VIT
)代码下载VisionTransforme
Bubbliiiing
·
2022-03-30 07:45
神经网络学习小记录
transformer
神经网络
学习
tensorflow2
VIT
Transformer自监督学习(2021) - SiT: Self-supervised vIsion Transformer
文章目录原文地址初识相知回顾原文地址https://arxiv.org/pdf/2104.03602.pdf【萨里大学】初识采用
ViT
进行在无标注数据集上进行自监督学习,降低
ViT
对大数据量训练的依赖,
我是大黄同学呀
·
2022-03-27 07:24
读点论文
-
无监督学习
transformer
深度学习
计算机视觉
transformer中QKV的通俗理解(渣男与备胎的故事)
transformer中QKV的通俗理解(渣男与备胎的故事)用
vit
的时候读了一下transformer的思想,前几天面试结束之后发现对QKV又有点忘记了,写一篇文章来记录一下参考链接:哔哩哔哩:在线激情讲解
Joker-Tong
·
2022-03-26 07:52
准研究生的生活
深度学习
transformer
深度学习
人工智能
RepLKNet:不是大卷积不好,而是卷积不够大,31x31卷积了解一下 | CVPR 2022
论文提出引入少数超大卷积核层来有效地扩大有效感受域,拉近了CNN网络与
ViT
网络之间的差距,特别是下游任务中的性能。
·
2022-03-24 14:55
Vision Transformer的讲解和代码实现
文章目录1、
ViT
介绍2、模型详解Embedding层详解TransformerEncoder详解MLPHead详解完整模型(
ViT
-B/16为例)3、总结1、
ViT
介绍从深度学习暴发以来,CNN一直是
热血厨师长
·
2022-03-23 08:00
图像分类
深度学习
transformer
深度学习
一文细数73个Vision transformer家族成员
Awesome-Visual-Transformerhttps://github.com/IDEACVR/awesome-detection-transformerImageClassificationUniform-scale*
ViT
Tom Hardy
·
2022-03-23 08:17
算法
计算机视觉
机器学习
人工智能
深度学习
Vision Transformer(
ViT
)
1.前言本文讲解Transformer模型在计算机视觉领域图片分类问题上的应用——VisionTransformer(
ViT
)。
DeepGeGe
·
2022-03-23 08:16
#
计算机视觉
人工智能
机器学习
深度学习
计算机视觉
神经网络
是那个Transformer干的,依图科技开源“可大可小”T2T-
ViT
,轻量版优于MobileNet...
本文在
ViT
方面进行了一次突破性探索,提出了首次全面超越ResNet,甚至轻量化版本优于MobileNet系列的T2T-
ViT
。
Amusi(CVer)
·
2022-03-23 07:05
计算机视觉
机器学习
人工智能
深度学习
神经网络
LV-
ViT
:训练视觉Transformer的技巧合集
点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达作者丨happy审稿丨邓富城转载自丨极市平台导读本文探索了用于提升
ViT
性能的各种训练技巧。
Amusi(CVer)
·
2022-03-23 07:05
计算机视觉
人工智能
深度学习
机器学习
神经网络
各类Transformer都得稍逊一筹,LV-
ViT
:探索多个用于提升
ViT
性能的高效Trick
↑点击蓝字关注极市平台作者丨happy审稿丨邓富城编辑丨极市平台极市导读本文探索了用于提升
ViT
性能的各种训练技巧。
算法码上来
·
2022-03-23 07:02
计算机视觉
人工智能
深度学习
大数据
机器学习
一文解读Vision Transformer(
ViT
)
前言VisionTransformer论文:https://arxiv.org/pdf/2010.11929.pdf跟李沐学AI:https://www.bilibili.com/video/BV15P4y137jb?spm_id_from=333.999.0.0VisionTransformer打破了CNN在计算机视觉领域的统治地位,仅使用一个标准的TransformerEncoder(与NLP
littlepeni
·
2022-03-23 07:56
深度学习
深度学习
RepLKNet:不是大卷积不好,而是卷积不够大,31x31卷积了解一下 | CVPR 2022
论文提出引入少数超大卷积核层来有效地扩大有效感受域,拉近了CNN网络与
ViT
网络之间的差距,特别是下游任务中的性能。
·
2022-03-21 13:15
RepLKNet:不是大卷积不好,而是卷积不够大,31x31卷积了解一下 | CVPR 2022
论文提出引入少数超大卷积核层来有效地扩大有效感受域,拉近了CNN网络与
ViT
网络之间的差距,特别是下游任务中的性能。
晓飞的算法工程笔记
·
2022-03-21 13:00
RepLKNet:不是大卷积不好,而是卷积不够大,31x31卷积了解一下 | CVPR 2022
论文提出引入少数超大卷积核层来有效地扩大有效感受域,拉近了CNN网络与
ViT
网络之间的差距,特别是下游任务中的性能。
VincentTeddy
·
2022-03-21 00:53
语义分割算法分享之Swin-Transformer
在
ViT
等基础之上继续演变的Swin刚刚拿到了ICCV2021的bestpaper,经过实际使用体验来看,确实效果较好,从语义分割角度来看,Swin不仅在ADE20K取得了sota的效果,在各个其他场景数据集下都有极为优秀的表现
xuzz_498100208
·
2022-03-18 05:34
算法
深度学习
视觉Transformer开山之作:Vision Transformer(
ViT
)论文解读与复现
paddlepaddle框架)patchembeddingattentionlayerVIT前向部分3.2FINE-TUNINGANDHIGHERRESOLUTION:模型微调与高分辨率图像处理四.实验总结与评价前言
VIT
naca yu
·
2022-03-18 05:48
深度学习
论文
机器学习与统计学习
transformer
paddle
深度学习
人工智能
计算机视觉
Vision Transformer原理及代码实战
https://github.com/BR-IDL/PaddleViT在NLP领域,Transformer深度学习技术已经"统治"了该领域;在CV领域,从2020年底开始,VisionTransformer(
ViT
一个热爱学习的深度渣渣
·
2022-03-18 05:13
Paddle
transformer
深度学习
自然语言处理
人工智能
attention
深度学习之图像分类(十八)-- Vision Transformer(
ViT
)网络详解
深度学习之图像分类(十八)VisionTransformer(
ViT
)网络详解目录深度学习之图像分类(十八)VisionTransformer(
ViT
)网络详解1.前言2.
ViT
模型架构2.1Embedding
木卯_THU
·
2022-03-18 05:27
Deep
Learning
学习笔记
计算机视觉
transformer
深度学习
pytorch
人工智能
最新!CVPR 2021 视觉Transformer论文大盘点(43篇)
Amusi认为引爆CV圈Transformer热潮的有两篇最具代表性论文,即ECCV2020的DETR(目标检测)和ICLR2021的
ViT
(图像分类)。跟着DETR和
ViT
两篇论文的时
Amusi(CVer)
·
2022-03-18 05:24
人工智能
计算机视觉
ocr
深度学习
微软
上一页
23
24
25
26
27
28
29
30
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他