论文阅读——S4L:Self-Supervised Semi-Supervised Learning

论文链接:https://openaccess.thecvf.com/content_ICCV_2019/papers/Zhai_S4L_Self-Supervised_Semi-Supervised_Learning_ICCV_2019_paper.pdf

从论文的模型图来看,将整个数据集分为了有标记数据和无标记数据。对于标记数据来说,模型会同时预测旋转角度和标签,对于无标签数据来说,只会预测其旋转角度,预测旋转角度”可以替换成任何其它无监督task,例如文章中提到的exemplar self-supervision。总的来说,需要借助于无监督学习,为无标注数据创建一个pretext task,这个pretext task能够使得模型利用大量无标注学习一个好的feature representation
损失函数为:
在这里插入图片描述

前半部分是有标记数据的损失(交叉熵),后面是无标记数据的自监督损失。自监督部分是提出了两个算法,一个无监督损失是旋转预测任务,另一个是基于图像变换的triplet损失。

看的比较浅,只是看了下核心模型图,以及如何结合的部分

你可能感兴趣的:(半监督学习,自监督学习,机器学习,计算机视觉)