目录
一、数据增量与类别增量
二、常见增量学习结构
三、增量学习方法分类
四、总结及论文链接
4.1 总结
4.2 相关论文链接
无监督增量学习 Unsupervised Class-Incremental Learning Through Confusion.论文详解ICLR 2021
基于拓扑图的增量学习方法 论文归纳与详解
Few Shot Incremental Learning with Continually Evolved Classifiers论文详解 基于持续进化分类器的小样本类别增量学习CVPR2021
TPCIL论文详解,基于持续改进分类器的增量学习Topology-Preserving Class-Incremental Learning,ECCV2020_祥瑞的技术博客-CSDN博客
论文详解Memory Efficient Incremental learning through feature adaptation. CVPR2020 基于增量特征映射
Supervised Contrastive Replay 论文详解 通过NCM分类器和图片回放实现增量学习_祥瑞的技术博客-CSDN博客
差文解析 IIRC: Incremental Implicitly-Refined Classification_祥瑞的技术博客-CSDN博客
FSCIL论文详解 Few-Shot Class-Incremental Learning, CVPR2020_祥瑞的技术博客-CSDN博客
DER论文详解DER: Dynamically Expandable Representation for Class Incremental Learning, CVPR 2021_祥瑞的技术博客-CSDN博客
CEC论文详解Few Shot Incremental Learning with Continually Evolved Classifiers. CVPR2021_祥瑞的技术博客-CSDN博客
PODNet: Pooled Outputs Distillation for Small-Tasks Incremental Learning论文详解ECCV2020_祥瑞的技术博客-CSDN博客
CVPR2021论文详解Rainbow Memory: Continual Learning with a Memory of Diverse Samples_祥瑞的技术博客-CSDN博客
SDC论文详解Semantic Drift Compensation for Class-Incremental Learning. CVPR 2020_祥瑞的技术博客-CSDN博客
RKR论文详解 Rectification-based Knowledge Retention for Continual Learning. CVPR 2021 基于知识矫正的持续学习_祥瑞的技术博客-CSDN博客
基于拓扑的增量学习Topology Preserving Class-Incremental learning论文详解ECCV2020_祥瑞的技术博客-CSDN博客
增量学习任务分为,数据增量和类别增量。数据增量过程中,增量任务和原始任务之间没有新类别出现,两者具有相同的类别。
本文对广义和狭义的类别增量进行了明确的定义,对于增量任务,具有如下的定义:
广义于狭义的类别增量定义如下:
增量学习中最常见的结构,也是近两年被广泛采用的结构是,特征提取模块加上分类器模块。假定特征提取模块是hθ(), 分类器模块是gW(), 非常常见的结构就是:
这个结构对于目标检测任务同样适用,例如对于CentreNet,它的特征提取模块hθ()提取出特征之后,对应的目标检测模块可以看作gW()。
输入经过特征提取后送入分类器。同时,为了维持旧知识,避免灾难性遗忘,多种方式可以在此过程中被选择性加入。
按照近两年的论文情况,增量学习方法可以粗略分为三大类:基于模型结构的方法、基于回放的方法、基于正则化的方法。
基于模型结构的方法随着增量学习不断地对网络结构进行修改。例如对于增量任务增加新的模型结构,这样旧任务可以通过旧的模型权重进行保持,同时新增的模型结构适应了增量任务,从而达到了既适应旧任务,也适应新任务的目的。基于模型结构的方法可以分为两种:
基于回放的方法可以分为:基于样本回放的方法和基于特征回放的方法。基于样本回放的方法能够将旧任务的样本进行存储,这类方法的缺点在于直接存储样本比直接存储特征需要耗费更多的存储空间,同时需要考虑如何选取用于回放的样本。基于特征回放的方法需要将旧任务提取出的特征进行存储,同样面临考虑样本选取的问题。同时特征回放的模型结构进行了更新,那么就需要考虑特征漂移的问题。
基于正则化的方法,即知识蒸馏项作为正则化项来约束模型。此过程往往需要存储旧模型的权重,以取得知识蒸馏的来源。这种方法可以与基于回放的方法结合使用。蒸馏算法与增量学习之间面临一种天然矛盾,如果知识蒸馏的约束过强,则模型不够灵活,被限制在旧任务上;如果知识蒸馏约束较弱,模型可能发生灾难性遗忘。因此,如何设计更好的蒸馏的方法,是本方向改进的重点。目前的主流方法是:基于模型输出结果的蒸馏多采用交叉熵;基于feature和中间结果的蒸馏多采用L2范数或者余弦相似度;PodNet被提出后,一种新的基于池化蒸馏的方法值得关注。
无监督增量学习 Unsupervised Class-Incremental Learning Through Confusion.论文详解ICLR 2021
基于拓扑图的增量学习方法 论文归纳与详解
Few Shot Incremental Learning with Continually Evolved Classifiers论文详解 基于持续进化分类器的小样本类别增量学习CVPR2021
TPCIL论文详解,基于持续改进分类器的增量学习Topology-Preserving Class-Incremental Learning,ECCV2020_祥瑞的技术博客-CSDN博客
论文详解Memory Efficient Incremental learning through feature adaptation. CVPR2020 基于增量特征映射
Supervised Contrastive Replay 论文详解 通过NCM分类器和图片回放实现增量学习_祥瑞的技术博客-CSDN博客
差文解析 IIRC: Incremental Implicitly-Refined Classification_祥瑞的技术博客-CSDN博客
FSCIL论文详解 Few-Shot Class-Incremental Learning, CVPR2020_祥瑞的技术博客-CSDN博客
DER论文详解DER: Dynamically Expandable Representation for Class Incremental Learning, CVPR 2021_祥瑞的技术博客-CSDN博客
CEC论文详解Few Shot Incremental Learning with Continually Evolved Classifiers. CVPR2021_祥瑞的技术博客-CSDN博客
PODNet: Pooled Outputs Distillation for Small-Tasks Incremental Learning论文详解ECCV2020_祥瑞的技术博客-CSDN博客
CVPR2021论文详解Rainbow Memory: Continual Learning with a Memory of Diverse Samples_祥瑞的技术博客-CSDN博客
SDC论文详解Semantic Drift Compensation for Class-Incremental Learning. CVPR 2020_祥瑞的技术博客-CSDN博客
RKR论文详解 Rectification-based Knowledge Retention for Continual Learning. CVPR 2021 基于知识矫正的持续学习_祥瑞的技术博客-CSDN博客
基于拓扑的增量学习Topology Preserving Class-Incremental learning论文详解ECCV2020_祥瑞的技术博客-CSDN博客