机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)

在实际数据收集的过程中,带标签的数据远远少于未带标签的数据。 我们据需要用带label 和不带label的数据一起进行学习,我们称作半监督学习。

  • Transductive learning:没有标签的数据是测试数据
  • Inductive learning:没有标签的数据不是测试数据
    机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第1张图片
    为什么没有标签的数据会帮助我们学习呢? 是因为没有标签数据的分布可能会告诉我们一些潜在的规律。

1.半监督生成模型 Semi-supervised Learning for Generative Model

我们回忆一下监督学习的生成模型,计算先验概率,然后通过概率模型估计,计算分类概率。
机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第2张图片

是不是也有半监督的概率生成模型?答案是可以。

没有标记的数据帮助我们重新评估的 P ( C i ) P(C_{i}) P(Ci) P ( x ∣ C i ) P(x|C_{i}) P(xCi)等分布数据

  • 寻找概率最大的 P ( C i ) P(C_{i}) P(Ci) P ( x ∣ C i ) P(x|C_{i}) P(xCi)
  • P ( x ∣ C i ) P(x|C_{i}) P(xCi) 符合高斯分布
    机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第3张图片
    算法流程如下,但是最后的结果与初始值的初始化有关系,结构和EM算法类似
    机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第4张图片
    需要综合考虑有标记数据的max likelihood和没有标记数据的max likelihood机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第5张图片

2. 低密度分割 Low-density Separation

大原则:非黑即白
(1)自训练 Self-training
机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第6张图片
机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第7张图片
(2)基于熵的估计 Entropy-based Regularization
我们估计的分布函数,如何衡量他的好坏
机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第8张图片
所以我们让他越小越好:
机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第9张图片
考虑到了Entropy因素,Loss函数最后可以写成
机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第10张图片

(3)半监督的SVM (Semi-supervised SVM
semi-SVM 中,我们假设没有标签的数据可以任意标注(计算复杂风度高)
机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第11张图片
我们取margin 最大的和error最小的
机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第12张图片

3. 平滑性假设 Smoothness Assumption

近朱者赤,近墨者黑

假设:相似的x 有着相同的分类

  • x 并不是uniform 统一的
  • 如果 x 1 x_{1} x1 x 2 x_{2} x2在高密度区域中相似,那么他们的结果也就 y 1 y_{1} y1 y 2 y_{2} y2一致

机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第13张图片
(1)聚类,然后标注 Cluster and then Label
机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第14张图片
(2)以图为基础的方法 Graph-based Approach

机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第15张图片
很显然,当图中的点能走通,说明是一类。
创建图的方法( Graph Construction):

  • 定义 x i x_{i} xi x j x_{j} xj的相似度s( x i x_{i} xi, x j x_{j} xj)
  • 加入边edge
    K Nearest Neighbor
    e-Neighborhood
    机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第16张图片
    • edge 的权重 与s( x i x_{i} xi, x j x_{j} xj)称比例

s( x i x_{i} xi, x j x_{j} xj)一般表示为Gaussian Radial Basis Function::
在这里插入图片描述

  • 定义图的平滑程度 Define the smoothness of the labels
    s 越小越平滑:
    机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第17张图片
    如果我们定义s为:
    机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第18张图片
    机器学习与深度学习系列连载: 第一部分 机器学习(十三)半监督学习(semi-supervised learning)_第19张图片

4. Better Representation

去芜存菁,化繁为简 具体内容我们再降维的章节介绍。(下一节)

本专栏图片、公式很多来自台湾大学李弘毅老师、斯坦福大学cs229,斯坦福大学cs231n 、斯坦福大学cs224n课程。在这里,感谢这些经典课程,向他们致敬!

你可能感兴趣的:(机器学习)