PyTorch笔记 - MAE(Masked Autoencoders) PyTorch源码

Posted SpikeKing

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了PyTorch笔记 - MAE(Masked Autoencoders) PyTorch源码相关的知识,希望对你有一定的参考价值。

欢迎关注我的CSDN:https://blog.csdn.net/caroline_wendy
本文地址:https://blog.csdn.net/caroline_wendy/article/details/128382935

Paper:MAE - Masked Autoencoders Are Scalable Vision Learners

  • 掩码的自编码器是可扩展的视觉学习器

  • Kaiming He,FAIR

Code:https://github.com/facebookresearch/mae

MAE结构:

ViT的不同类型:An Image is worth 16X16 words: Transformers for Image recognition at scale

  • 一张图片相当于 16X16 个字: 用于大规模图像识别的Transformers,Google Research

以上是关于PyTorch笔记 - MAE(Masked Autoencoders) PyTorch源码的主要内容,如果未能解决你的问题,请参考以下文章

PyTorch笔记 - MAE(Masked Autoencoders) PyTorch源码

PyTorch笔记 - MAE: Masked Autoencoders Are Scalable Vision Learners

PyTorch笔记 - MAE: Masked Autoencoders Are Scalable Vision Learners

PyTorch笔记 - MAE: Masked Autoencoders Are Scalable Vision Learners

PyTorch - MAE(Masked Autoencoders)推理脚本

算法研发 - MAE(Masked Autoencoders)推理脚本