PyTorch笔记 - MAE: Masked Autoencoders Are Scalable Vision Learners

欢迎关注我的CSDN:https://blog.csdn.net/caroline_wendy
本文地址:https://blog.csdn.net/caroline_wendy/article/details/128345741

Paper:MAE - Masked Autoencoders Are Scalable Vision Learners

  • 掩码的自编码器是可扩展的视觉学习器

  • Kaiming He,FAIR

Code:https://github.com/facebookresearch/mae

self-supervised learning,自监督学习算法

Abstract摘要:写作意图、算法描述、最优效果

MAE,Masked AutoEncoders,类似于BERT,asymmetric encoder-decoder architecture,非对称的编码器-解码器架构。

A nontrivial(重要的) and meaningful(有意义的) self-supervisory task,有效的训练大模型。

MAE的结构:

你可能感兴趣的:(深度学习,深度学习,人工智能)