BYOL论文笔记(Bootstrap Your Own Latent A New Approach to Self-Supervised Learning)

BYOL论文笔记(Bootstrap Your Own Latent A New Approach to Self-Supervised Learning)

一、基本架构

BYOL论文笔记(Bootstrap Your Own Latent A New Approach to Self-Supervised Learning)_第1张图片
BYOL论文笔记(Bootstrap Your Own Latent A New Approach to Self-Supervised Learning)_第2张图片

二、BYOL实现细节

数据增强:使用在SimCLR中同样的一系列数据增强,包括随机水平翻转、颜色扰动、高斯模糊等。
网络架构:使用resnet50、resnet50(1x)作为基本的编码器,使用两层的MLP作为online和target网络的投影器(2048-4096,4096-256),预测层和投影层使用同样的结构。
优化:使用Lars优化器,1000epoches, batch size of 4096, 使用 512 Cloud TPU v3 cores

三、评估和消融实验

BYOL论文笔记(Bootstrap Your Own Latent A New Approach to Self-Supervised Learning)_第3张图片
BYOL论文笔记(Bootstrap Your Own Latent A New Approach to Self-Supervised Learning)_第4张图片
BYOL论文笔记(Bootstrap Your Own Latent A New Approach to Self-Supervised Learning)_第5张图片

四、总结:

通过减小正例之间的距离,扩大负例之间距离的对比学习方法大多依赖大的batch size、内存或者特定的负例挖掘策略,它们的效果也取决于数据增强方式和种类的选择。
这篇文章认为不依赖负例是它具有较高鲁棒性的首要原因。使用BYOL方法,更小的batchsize和更少的数据增强类型相对于SimCLR来说精度下降的更少一些。
可利用:
官方github提供resnet50_1x的预训练模型(tensorflow版本)以及Batchsize=2048、1024、512、256、128、64的checkpoint
solo-learn提供了相关的方法和类

你可能感兴趣的:(论文阅读,bootstrap,深度学习,计算机视觉,python)