Meta-learning algorithms for Few-Shot Computer Vision, YOLOMAML

论文:https://arxiv.org/abs/1909.13579

代码:https://github.com/ebennequin/FewShotVision

研究背景

在目标检测领域,YOLO等算法需要大量的基类图片作为训练支持。若部分检测目标本身就难以获得注释或较为稀缺,现有模型将出现过拟合而无法泛化。此类问题被统称为小样本学习,目前仍缺乏有效的解决方法。2018年,Chelsea Finn 提出了著名的模型无关的元学习算法(MAML),MAML基于梯度下降,具有运用在不同模型中以提升小样本学习表现的潜力(https://arxiv.org/abs/1703.03400)。 MAML的模型无关特性使得其在目标检测领域有被运用的可能。

本文解决方案

本文运用MAML算法的模型无关特性,直接将其于YOLOv3算法结合。为此,作者在元学习语境下为YOLOv3算法进行了重新定义。模型初始化方面,由于MAML训练元参数能力的限制,作者将标准YOLOv3神经网络替换为以Tiny Darket为骨架的Deep Tiny YOLO。其具有参数量较少的特性。Fast adaptation方面,MAML是基于众多的任务来决定一个统一的模型初始参数,并根据每个任务,以梯度下降的方式,从模型初始参数开始进行数次微调得到一个好的task specific的模型参数。因此,作者在YOLO任务中,将参数定义为Darknet中卷积网络的权重。数据处理方面,小样本学习(Few Shot Learning)的基本表示是 N way K shot。 一个 N way K shot的目标检测中,每class都提供Q queries 和K supports。

具体YOLO MAML结合算法如下

Meta-learning algorithms for Few-Shot Computer Vision, YOLOMAML_第1张图片

参数 sita 更新分为内外两重循环。6、7、8 内循环用于针对抽样的任务,使用该任务的support数据进行多步更新,得到 task specific 参数。5,10 外循环用于依据 task specific 模型初始参数的总体损失函数进行梯度更新,得到小样本学习后具有泛化能力的神经网络权重参数。

实验结果和分析

该论文并没有在实验中取得良好的结果,这也提示读者 MAML算法有其的局限性,过于生硬地嵌入进任何模型并不能保障能取得良好的小样本学习效果。

Meta-learning algorithms for Few-Shot Computer Vision, YOLOMAML_第2张图片Meta-learning algorithms for Few-Shot Computer Vision, YOLOMAML_第3张图片

可以看出,在经历大量迭代后,YOLOMAML的损失函数仍不能很好地收敛。具体地,与YOLO对比,该算法无法产生准确的边界框和标签。

总结

如何能像人类大脑一样利用小样本或者零样本来进行高效的学习一直是计算机视觉等机器学习领域的难点。样本的局限对于很多实验都是不可忽视的阻碍。MIT校长在一封公开信中讲到:在人工智能领域,关注的焦点将不会是进一步优化当前算法,而是开发让机器能够使用小得多的数据集来学习的新方法,这类根本性的进步将减少访问大规模数据集的需求。恰恰在这个领域,中国拥有巨大的优势。这一方面的成功将会带来双重好处:一是为美国带来经济利益,同时在获取训练数据方面存在的隐私削弱和公民自由等压力也会有所减少。

本论文中,YOLO MAML的结合没有带来好的效果,但作者在目标检测与元学习结合方面做出了第一步的探索,为后来者提供了经验与参照。

 

你可能感兴趣的:(深度学习,人工智能,大数据)