人工智能论文原理图集2

1, EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
人工智能论文原理图集2_第1张图片
2, EfficientFormer: Vision Transformers at MobileNet
Speed
人工智能论文原理图集2_第2张图片
3, Vision Transformers for Dense Prediction
人工智能论文原理图集2_第3张图片
4, DiT: Self-supervised Pre-training for
Document Image Transformer
人工智能论文原理图集2_第4张图片
5, Dilated Neighborhood Attention Transformer
人工智能论文原理图集2_第5张图片
人工智能论文原理图集2_第6张图片
6, End-to-End Object Detection with Transformers
人工智能论文原理图集2_第7张图片
人工智能论文原理图集2_第8张图片
人工智能论文原理图集2_第9张图片
7, NMS Strikes Back
人工智能论文原理图集2_第10张图片
8, Training data-efficient image transformers
& distillation through attention
人工智能论文原理图集2_第11张图片
9, DEFORMABLE DETR: DEFORMABLE TRANSFORMERS
FOR END-TO-END OBJECT DETECTION
人工智能论文原理图集2_第12张图片
人工智能论文原理图集2_第13张图片
10, CvT: Introducing Convolutions to Vision Transformers
人工智能论文原理图集2_第14张图片
人工智能论文原理图集2_第15张图片
11, ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
人工智能论文原理图集2_第16张图片
人工智能论文原理图集2_第17张图片
12, A ConvNet for the 2020s
人工智能论文原理图集2_第18张图片
13, Big Transfer (BiT): General Visual Representation Learning
人工智能论文原理图集2_第19张图片
14, BEIT: BERT Pre-Training of Image Transformers
人工智能论文原理图集2_第20张图片
15, XLNet: Generalized Autoregressive Pretraining
for Language Understanding
人工智能论文原理图集2_第21张图片

16, ProphetNet: Predicting Future N-gram for Sequence-to-Sequence
Pre-training
人工智能论文原理图集2_第22张图片
人工智能论文原理图集2_第23张图片
17, Cross-lingual Language Model Pretraining
人工智能论文原理图集2_第24张图片

18, Lifting the Curse of Multilinguality
by Pre-training Modular Transformers
人工智能论文原理图集2_第25张图片
19, Unifying Language Learning Paradigms
人工智能论文原理图集2_第26张图片
人工智能论文原理图集2_第27张图片
20, TAPEX: TABLE PRE-TRAINING VIA LEARNING A
NEURAL SQL EXECUTOR
人工智能论文原理图集2_第28张图片
人工智能论文原理图集2_第29张图片
人工智能论文原理图集2_第30张图片
人工智能论文原理图集2_第31张图片
21, Exploring the Limits of Transfer Learning with a Unified
Text-to-Text Transformer
在这里插入图片描述
人工智能论文原理图集2_第32张图片
人工智能论文原理图集2_第33张图片
22, Switch Transformers: Scaling to Trillion Parameter Models
with Simple and Efficient Sparsity
人工智能论文原理图集2_第34张图片
人工智能论文原理图集2_第35张图片
人工智能论文原理图集2_第36张图片
人工智能论文原理图集2_第37张图片
23, Few-Shot Question Answering by Pretraining Span Selection
人工智能论文原理图集2_第38张图片
24, ROFORMER: ENHANCED TRANSFORMER WITH ROTARY
POSITION EMBEDDING
人工智能论文原理图集2_第39张图片
25, RoCBert: Robust Chinese Bert with Multimodal Contrastive Pretraining
人工智能论文原理图集2_第40张图片
26, FAIRSEQ: A Fast, Extensible Toolkit for Sequence Modeling
人工智能论文原理图集2_第41张图片
27, REFORMER: THE EFFICIENT TRANSFORMER
人工智能论文原理图集2_第42张图片
人工智能论文原理图集2_第43张图片
28, REALM: Retrieval-Augmented Language Model Pre-Training
人工智能论文原理图集2_第44张图片
人工智能论文原理图集2_第45张图片
29, Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
人工智能论文原理图集2_第46张图片

30, INTEGER QUANTIZATION FOR DEEP LEARNING INFERENCE:
PRINCIPLES AND EMPIRICAL EVALUATION
人工智能论文原理图集2_第47张图片
31, ProphetNet: Predicting Future N-gram for Sequence-to-Sequence
Pre-training
人工智能论文原理图集2_第48张图片
人工智能论文原理图集2_第49张图片
32, PEGASUS: Pre-training with Extracted Gap-sentences for
Abstractive Summarization
人工智能论文原理图集2_第50张图片
33, Nystromformer: A Nystr ¨ om-based Algorithm for Approximating Self-Attention
人工智能论文原理图集2_第51张图片
人工智能论文原理图集2_第52张图片
34, Twitter’s Recommendation Algorithm
人工智能论文原理图集2_第53张图片
35, No Language Left Behind:
Scaling Human-Centered Machine Translation
人工智能论文原理图集2_第54张图片
人工智能论文原理图集2_第55张图片
人工智能论文原理图集2_第56张图片
人工智能论文原理图集2_第57张图片
人工智能论文原理图集2_第58张图片
人工智能论文原理图集2_第59张图片
人工智能论文原理图集2_第60张图片
人工智能论文原理图集2_第61张图片
人工智能论文原理图集2_第62张图片
人工智能论文原理图集2_第63张图片
人工智能论文原理图集2_第64张图片
人工智能论文原理图集2_第65张图片
36, MVP: Multi-task Supervised Pre-training
for Natural Language Generation
人工智能论文原理图集2_第66张图片
37, MPNet: Masked and Permuted Pre-training for
Language Understanding
人工智能论文原理图集2_第67张图片
人工智能论文原理图集2_第68张图片
人工智能论文原理图集2_第69张图片
38, MobileBERT: a Compact Task-Agnostic BERT
for Resource-Limited Devices
人工智能论文原理图集2_第70张图片
人工智能论文原理图集2_第71张图片
39, mLUKE: The Power of Entity Representations
in Multilingual Pretrained Language Models
人工智能论文原理图集2_第72张图片
40, Megatron-LM: Training Multi-Billion Parameter Language Models Using
Model Parallelism
在这里插入图片描述
人工智能论文原理图集2_第73张图片
人工智能论文原理图集2_第74张图片

你可能感兴趣的:(人工智能,深度学习,机器学习)