【元学习】iTAML论文精读:持续/增量学习下与任务无关的元学习模型

论文:J. Rajasegaran, S. Khan, M. Hayat, F. S. Khan, M. Shah, itaml: An incremental task-agnostic meta-learning approach, in: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020, pp. 13588–13597.

在CVPR2020上发表的一篇结合元学习和增量学习的文章,提出模型iTAML:提出学习一个任务不可知的模型,该模型自动预测任务,并通过元更新快速适应预测的任务。

【原创,转载需标明出处】论文解析(内含论文原文、代码链接):论文笔记 iTAML: An Incremental Task-Agnostic Meta-learning Approach

总体架构

【元学习】iTAML论文精读:持续/增量学习下与任务无关的元学习模型_第1张图片

 元更新的流程

【元学习】iTAML论文精读:持续/增量学习下与任务无关的元学习模型_第2张图片

注意

Notion笔记中有关下图中红框中的箭头,部分点开会有详细的笔记信息(可能会被默认收进)

【元学习】iTAML论文精读:持续/增量学习下与任务无关的元学习模型_第3张图片

 

 

你可能感兴趣的:(元学习,增量学习,深度学习,神经网络)