Self-Supervised Learning 自监督学习中Pretext task的理解

Pretext task也叫surrogate task,我更倾向于把它翻译为:代理任务

Pretext可以理解为是一种为达到特定训练任务而设计的间接任务。比如,我们要训练一个网络来对ImageNet分类,可以表达为 f θ ( x ) : x → y f_{\theta}(x):x\rightarrow y fθ(x):xy,我们的目的其实是获得具有语义特征提取/推理能力的 θ \theta θ。我们假设有另外一个任务(也就是pretext),它可以近似获得这样的[公式],比如,Auto-encoder(AE),表示为: g θ ( x ) : x → x g_{\theta}(x):x\rightarrow x gθ(x):xx。为什么AE可以近似 θ \theta θ呢?因为AE要重建 x x x就必须学习 x x x中的内在关系,而这种内在关系的学习又是有利于我们学习 [公式]的。这种方式也叫做预训练,为了在目标任务上获得更好的泛化能力,一般还需要进行fine-tuning等操作。

因此,Pretex task的好处就是简化了原任务的求解,在深度学习里就是避免了人工标记样本,实现无监督的语义提取,下面进一步解释。

Pretext任务可以进一步理解为:对目标任务有帮助的辅助任务。而这种任务目前更多的用于所谓的Self-Supervised learning,即一种更加宽泛的无监督学习。这里面涉及到一个很强的动机:训练深度学习需要大量的人工标注的样本,这是费时耗力的。而自监督的提出就是为了打破这种人工标注样本的限制,目的是在没有人工标注的条件下也能高效的训练网络,自监督的核心问题是如何产生伪标签(Pseudo label),而这种伪标签的产生是不涉及人工的,比如上述的AE的伪标签就是 [公式] 自身。这里举几个在视觉任务里常用的pretext task几伪标签的产生方式:

  • Rotation(图片旋转)
    图片: Self-Supervised Learning 自监督学习中Pretext task的理解_第1张图片

[1] S. Gidaris, P. Singh, and N. Komodakis, “Unsupervised representation learning by predicting image rotations,” ICLR, 2018.

  • Colorization(图片上色)
    Self-Supervised Learning 自监督学习中Pretext task的理解_第2张图片

[2] R. Zhang, P. Isola, and A. A. Efros, “Colorful Image Colorization,” in ECCV, Cham, 2016, pp. 649-666.

  • Inpainting(图片补全)
    Self-Supervised Learning 自监督学习中Pretext task的理解_第3张图片

[3] D. Pathak, P. Krahenbuhl, J. Donahue, T. Darrell, and A. A. Efros, “Context Encoders: Feature Learning by Inpainting,” CVPR, 2016.

  • Jigsaw Puzzle/Context Prediction(关系预测/上下文预测)
    Self-Supervised Learning 自监督学习中Pretext task的理解_第4张图片

[4] C. Doersch, A. Gupta, and A. A. Efros, “Unsupervised Visual Representation Learning by Context Prediction,” ICCV, 2015.

你可能感兴趣的:(深度学习,机器学习)