Multi-view Learning 多视角学习入门

Multi-view Learning 多视角学习入门

标签:机器学习


在上海呆了一年了,从啥都不会 到 啥都不会,还是要回归博客,做做小结整理整理……
多视角学习是老板的拿手好戏,最近布置的任务也和多视角相关。经过老板的一番吐槽,在找论文时候要注意其上过哪些会议,比较好的会议上论文的质量较高。经过多方求助,入门可以从最精(xuan)华(xue)的综述开始看起。

  • Xu C, Tao D, Xu C. A Survey on Multi-view Learning[J]. Computer Science, 2013.
  • Sun S. A survey of multi-view machine learning[J]. Neural Computing & Applications, 2013, 23(7-8):2031-2038.

多视角简介

Multi-view learning: introduces one function to model a particular view and jointly optimizes all the functions to exploit the redundant views of the same input data and improve the learning performance.

引入了一个函数去模型化一个特定的视角,并且利用相同输入的冗余视角去联合优化所有函数,最终提高学习效果。

多视角来源

(1) multiple sources (2) different feature subsets;

(1) 多个源:比如人物识别可以用脸、指纹等作为不同源的输入。
(2) 多个特征子集:比如图像表示可以用颜色、文字等作为不同特征表述。

多视角学习算法

  • co-training 协同训练
    trains alternately to maximize the mutual agreement on two distinct views of the unlabeled data.
  • multi-kernel learning 多核学习
    exploits kernels that naturally correspond to different views and combine kernels either linearly or non-linearly to improve learning performance.
  • subspace learning 子空间学习
    obtains a latent subspace shared by multiple views by assuming that the input views are generated from this latent subspace.

学习准则

为了确保 redundant views 可以被有效充分地利用,建立以下 Principles:

  1. consensus principle (共识准则)
    尽量保证两个 Hypothesis 一致,其不一致的概率作为右边式子的上界。右式为单独每个假设下的错误率,下式保证了该值最小化。
    P(f1f2)max{Perr(f1),Perr(f2)} P ( f 1 ≠ f 2 ) ≥ m a x { P e r r ( f 1 ) , P e r r ( f 2 ) }
    利用该原则的有 co-training,co-regularization,SVM-2K.
  2. complementary principle (互补准则)
    每个视角都拥有一些其他视角没有的信息。

其他相关的机器学习

  • Active Learning
    主动学习:减少 labeled data 的数量: Muslea et al.
  • Ensemble Learning
    协同学习:employ multiple learners and combine their predictions.
    包含的经典算法有:
    • bagging algorithm:用不同 judgements 生成不同模型
    • AdaBoots:train a new model to compensate for the errors made by earlier models. 训练出新模型来弥补先前的不足
  • Domain Adaption
    域适应:source domain (different data) 训练出 prediction1, prediction2

多视角的建立和组合

建立

先建立单视角,再构建多视角。总结为三类

  1. 元数据随机生成多视角。
    The random subspace method (RSM) (Ho, 1998)
    随机选取一个特征空间的若干维作为备用数据,为选取的维度数据置 0。不同的选取形成不同的视角,总共可以有 2n 2 n 种选法。
  2. reshape, decompose 原单视角。
    如向量数据可以重写为矩阵或不同的核函数。
    x=[a,b,c,d,e,f]T x = [ a , b , c , d , e , f ] T (abcdef) ( a c e b d f ) (adbecf)T ( a b c d e f ) T
  3. perform feature set partitioning automatically 自动执行功能集分区。
    如 PMC(伪多视角 co-training)

评价

评价各个视角,确保其效用。在三个类型的学习算法中,分别提出了多种评价标准。

  1. In co-training
    低维的特征难以描述高维特征,如直方图信息对应了多个图像。
    Yan and Naphade (2005):在 co-training 的学习中,如果 unlabelled data 噪音太大,就将 classifiers 的组合权重置零。
    Christoudias et al. (2008) :提出了条件视角熵 H(xi|xj) H ( x i | x j )
    Yu et al. (2011):将概率统计的方法用到了 co-training 上结合起来,即 Bayesian co-training

  2. In MKL
    当 kernel 之间不相关或有噪音时,优化 kernel weights,Christoudias 利用了 GP 来学习每个视角的 weights。Liu and Yuen (2011) 提出了 inter-view confidence of X , Cinter(X)=1I(Xi,Xj) C i n t e r ( X ) = ∑ ∑ 1 I ( X i , X j ) ,以及视角的 sufficiency。

  3. In subspace learning
    CCA 可以用来形容两个视角的线性关系,KCCA( kernel canonical correlation analysis )形容两个视角的非线性相关映射。两者都用到了相关系数 ρ ρ 并使之最大。

组合

容易想到,直接将多个视角拼接成单个视角,再进行单视角学习方法。但在训练样本中容易过拟合,且拼接以后的数据没有物理意义。因此可以求助于其他组合多视角的办法。

  1. In co-training
    在无监督学习中,将一个视角的在 验证集 上的结果放入另一个视角的 训练集 中,不同视角在 迭代 过程中达到最优。
    在监督学习中,Yu et al. (2011) 提出 latent function 作为 隐式的验证集 来连接多视角。
    其组合的时机在训练后,因此是 a late combination of multiple views.
    Multi-view Learning 多视角学习入门_第1张图片

  2. In MKL
    use a set and allow an algorithm to choose suitable kernels and the kernel combination.
    kernel 组合可以选择 线性组合方法 或者 非线性组合方法
    由于是在训练之前或中途进行组合,因此是 an intermediate combination of multiple views.
    Multi-view Learning 多视角学习入门_第2张图片

  3. In subspace learning
    认为多视角来源于同一个潜空间, Canonical correlation analysis (CCA) can be viewed as the multi-view version of principal component analysis (PCA) ,CCA被认为是多视角的PCA方法,避免了“维维度灾难”但因为产生子空间是线性的,因此不能直接应用于非线性模型。
    由于多视角利用共享空间直接结合在一起, 因此是 the prior combination of multiple views.
    Multi-view Learning 多视角学习入门_第3张图片


后续

后面几天再详细描述一下三种类型的多视图学习算法。

你可能感兴趣的:(机器学习,--Multi-view)