Few-shot Learning、One-shot Learning、Zero-shot Learning

机器学习任务按照对 样本量 的需求可以分为:传统监督式学习、Few-shot Learning、One-shot Learning、Zero-shot Learning。

  • 传统learning,炼丹模式。
    传统深度学习的学习速度慢,往往需要学习海量数据和反复训练后才能使网络模型具备泛化神功,传统learning可以总结为:海量数据 + 反复训练(炼丹模式)。为了 “多快好省” 地通往炼丹之路,炼丹师们开始研究 Zero-shot Learning / One-shot Learning / Few-shot Learning。

  • One-shot Learning,一次学习。
    训练集中,每个类别都有样本,但都只是少量样本

  • Zero-shot Learning,零次学习。
    成品模型对于训练集中没有出现过的类别,能自动创造出相应的映射。

  • Few-shot Learning,少量学习。
    有的l划分方法会区分one-shot与few-shot,将训练集中每个类别都只有一个样本的学习称作one-shot learning,每个类别都只有少量样本的称作few-shot Learning 。

你可能感兴趣的:(深度学习基础)