EEG分类算法 of 迁移学习

论文分析

《A review of classification algorithms for EEGbased brain–computer interfaces: a 10 year update》
To cite this article: F Lotte et al 2018 J. Neural Eng. 15 031005

基于学习环境、领域和任务的不同,存在几种适用于迁移学习的情况。例如,同构迁移学习是指XS = XT的情况,领域适应是指源域和目标域的边缘概率分布或条件概率分布不匹配的情况。源域和目标域的任务不同,称为归纳迁移学习。在BCI中,可能是源域和任务与视觉P300诱发电位相关,而目标域和任务与听觉P300诱发电位相关。相反,直推式迁移学习指的是任务相似但领域不同的情况。一个特殊的例子是当域上的失配是由边缘概率或条件概率错配引起的时,领域适应问题。在BCI中,直推式迁移学习是最常见的情况,因为通常会出现主体间的不同或会话间的不同。关于迁移学习的更多分类,我们建议读者参考Pan等人的调查。

  • 归纳式迁移学习Inductive TL

    • source和target的domain可能一样或不一样,task不一样;target domain的labeled数据可得,source domain不一定可得。
      • multitask learning(多任务学习):source domain的labeled数据可得。
      • self-taught learning(自学习):source domain的labeled数据不可得。
  • Transductive TL(直推式迁移学习)
    source和target的task一样,domain不一样;source domain的labeled数据可得,target domain的不可得。注意我们提过,domain不一样意味着两种可能:feature space不一样,或者feature space一样而probability不一样。而后一种情况和domain adaptation(域适配)息息相关。这里也可以根据domain和task的个数分为两个情况:

    • Domain Adaptation(域适配):不同的domains+single task
    • Sample Selection Bias(样本选择偏差)/Covariance Shift(协方差转变):single domain+single task

解决迁移学习问题的方法和实现有很多,它们依赖于特定的情况和领域的应用。同构转移学习是BCIs中最常见的一种学习方式,主要有三种学习策略。如果域分布不匹配,1一种可能的策略是学习源或目标域数据的转换,从而纠正分布不匹配。如果这种不匹配的类型发生在边缘分布上,那么补偿分布变化的一种可能的方法是考虑重新加权方案。许多转移学习方法也基于为两个(或多个)域找到一个共同的特征表示。由于所检索到的潜在空间的表示形式对所有域都是通用的,因此来自源域和目标域的标记样本可以用来训练一个通用的分类器。一种经典的策略是考虑其目标是定位哪些域匹配的表示的方法。转移学习的另一个趋势是考虑学习数据转换的方法,使它们的分布匹配。这些转换可以是线性的(例如基于内核方法),也可以是非线性的(通过使用最优传输策略)。

你可能感兴趣的:(迁移学习)