A holistic approach to semi-supervised learning

Berthelot D, Carlini N, Goodfellow I, et al. Mixmatch: A holistic approach to semi-supervised learning[J]. arXiv preprint arXiv:1905.02249, 2019.
https://github.com/samihaija/mixhop

半监督学习的核心想法是利用无标注的数据来减轻对有标数据的需求。正则项可分为三类:一致性正则化、熵最小化和传统正则化。本文结合了这三种正则,消融实验表明MixMatch效果好于三个正则项每部分提升之和。

正则项

一致性正则化

分类器对于数据增强后的的数据的分类分布应该与之前的类别分布一样:
∣ ∣ P ( y ∣ A u g m e n t ( x ) ; θ ) − p ( y ∣ x ) ∣ ∣ 2 2 ||P(y|Augment(x);\theta)-p(y|x)||^2_2 P(yAugment(x);θ)p(yx)22

熵最小化

分类器的决策边界不应该穿过数据边缘分布的高密度区域:

  • 显式的对unlabeled data加入 P ( y ∣ x , θ ) P(y|x,\theta) P(yx,θ)的熵作为损失函数
  • 使用“sharpening”函数来隐式地实现熵的最小化

传统正则化

传统的正则化项位 L2 范数。本文的优化方法为Adam算法,使用权值衰减来替代L2损失项。

MixMatch

使用 MixMatch 生成数据,有标签的数据X和等量的无标数据U,和超参数:锐化(“sharpening”)参数T、对于无标数据强化K次和 Mixup 的参数 α \alpha α
A holistic approach to semi-supervised learning_第1张图片

sharpening:

s h a r p e n ( p , T ) i = p i 1 T ∑ j = 1 L p j 1 T sharpen(p,T)_i=\frac{p_i^{\frac{1}{T}}}{\sum_{j=1}^{L}p_j^{\frac{1}{T}}} sharpen(p,T)i=j=1LpjT1piT1

MixUp

λ = B e t a ( α , α ) \lambda=Beta(\alpha, \alpha) λ=Beta(α,α)

λ ’ = m a x ( λ , 1 − λ ) \lambda^’=max(\lambda,1-\lambda) λ=max(λ,1λ)

x ’ = λ ’ x 1 + ( 1 − λ ’ ) x 2 x’=\lambda^’x_1+(1-\lambda^’)x_2 x=λx1+(1λ)x2

p ’ = λ ’ p 1 + ( 1 − λ ’ ) p 2 p’=\lambda^’p_1+(1-\lambda^’)p_2 p=λp1+(1λ)p2

loss

X ’ , U ’ = M i x M a t c h ( X , U , T , K , α ) X’,U’=MixMatch(X , U, T, K, \alpha) X,U=MixMatch(X,U,T,K,α)

L X = 1 ∣ X ’ ∣ ∑ x , p ∈ X ’ H ( p , p m o d e l ( y ∣ x ; θ ) ) L_X=\frac{1}{|X’|}\sum_{x,p\in X’}H(p, p_{model}(y|x; \theta)) LX=X1x,pXH(p,pmodel(yx;θ))

L U = 1 L ∣ U ’ ∣ ∑ u , q ∈ U ’ ∣ ∣ q − p m o d e l ( y ∣ x ; θ ) ∣ ∣ 2 2 L_U = \frac{1}{L|U’|}\sum_{u,q\in U’}||q-p_{model}(y|x; \theta)||^2_2 LU=LU1u,qUqpmodel(yx;θ)22

L = L X + λ U L U L=L_X+\lambda_UL_U L=LX+λULU

你可能感兴趣的:(读书笔记,程序)