Few-Shot Learning
(1)少样本角度:
字符生成
机器人模仿(1次性模仿,多臂强盗,视觉导航,连续控制)
药物的临床效果(隐私,安全,伦理)
FSL翻译,冷启动推荐
(2)大样本角度:
减轻标签数据收集和计算负担
大样本:围棋游戏需要3000万标签数据
FSL问题分类:
(1)小样本分类
N-way-K-shot classification: N个类别,每个类K个样本
(2)小样本回归
(3)小样本强化
FSL典型应用场景:
(1)模仿人类学习
(2)罕见案例学习
(3)减少数据收集和计算成本。
先验:“学习器在看到例子之前对未知函数的所有信息"
prior:“any information the learner has about the unknown function before seeing the examples"
FSL的典型例子:贝叶斯学习
(1)弱监督学习
定义: 不完整、不准确、有噪声的监督信息
分类:
特点:
定义:从经验中学y的偏态分布
特点: 训练和测试,都要覆盖所有可能的y
定义:知识丰富的域,迁到知识匮乏的域
特点:在FSL中广泛使用
(4)元学习
定义: 跨任务提取元知识(一般、本质的信息),用于改进新任务
特点: 归纳FSL的先验
四类问题和FSL的区别与联系从各自的特点分析
经验风险最小化不可靠
(1)数据
(2)模型
多任务学习:
参数共享
参数绑定
嵌入学习:
特定任务嵌入
任务不变嵌入
混合嵌入
基于外部记忆学习:
完善表示
完善参数
生成式建模:
成分分解
分组共享先验
推断网络参数
(3)算法
完善已有参数:
通过正则化微调已有参数
聚集一系列参数
用新参数微调已有参数
完善元学习参数:
学习优化器:
分为两类:
(1)人工方法
预处理阶段
GAP:依赖领域知识,需要昂贵劳动力成本,只针对特定数据集,应用困难
本质缺陷:人类不可能枚举所有可能不变性,不能完全解决FSL的问题
数据扩充一般是为数据集量身定制的,不能用在跨域数据集上
有些类型数据(文本,音频)生成后难以评价好坏(图像这类数据人眼能够辨别)
(1)多任务学习
先验=其他任务,其他数据集
假设空间约束=参数共享/参数绑定
(2)嵌入学习
先验=从/和其他任务进行嵌入学习
假设空间约束=样本投影到更小的嵌入空间(相似,不相似的样本都更容易区分)
(3)基于外部记忆学习
先验=从/和其他任务进行嵌入学习,和内存交互
假设空间约束=通过内存中的键值对,完善样本
完善表示:
完善参数:
(4)生成建模
先验=从其他任务学习
假设空间约束=限制分布形式
成分分解:
分组共享先验:
推断网络参数:
(1)多任务学习
需要所有任务的联合训练,面对新的少样本任务需要重新训练,昂贵且缓慢,不适用。
(2)嵌入学习
要求任务间相关,在少样本任务和其他任务相关性不强时,不适用。
(3)基于外部内存学习
可以精心设计小内存网络,有额外内存和计算成本,外部内存有限,不适用。
(4)生成学习
需要从其他数据集学先验,推理成本高,比确定性模型更难推导
先验=学习初始化θ
如何搜索最优假设的θ = 利用训练数据集,细化θ
(2)完善元学习参数
先验=元学习器
(3)学习优化器
先验=元学习器
(1)参数类
参数是从不同于当前任务的其他任务中学得的,可能会牺牲精度换取速度
(2)元学习类
存在跨不同粒度学习、负迁移两方面问题
(不同粒度:动物的粗粒度,犬类的细粒度)
目前FSL使用的先验来自单一模态
灭绝动物研究:图像信息少,文本信息多
多模态信息互补
不同模式可能包含不同结构:图像需要位置,文本需要句法
不同结构的多模态设计
元学习需要任务同分布
现实中,任务数量多,但相关性未知或难以确定
目前元学习分布是静态固定的
实际上,任务分布是动态的,新任务不断到达,也应该纳入任务分布中
避免动态环境的灾难性遗忘
目前假设空间和搜索策略是认为设计的
实际上,我们期望任务感知和模型自动设计,这结合自动化特征工程,模型选择,神经结构搜索
(1)计算机视觉
字符识别,图像分类,对象识别,字体样式迁移,词组接地,图像检索,对象跟踪,特定对象计数,位置识别,手势识别,零件标注,图像生成,图像跨域翻译,3D视图重建,图像字幕,视觉问答
视频:运动预测,视频分类,动作定位,人重新识别,事件监测,对象分割
(2)机器人技术
模仿:单个演示下学习机器人手臂的运动,几个演示中学习纠正动作
互动改进自己行为:多臂抢到,视觉导航,连续控制,动态环境
(3)自然语言处理
翻译示例:解析,句子填空,情绪分类,用户意图分类,刑事指控预测,词相似任务,多标签文本分类
(4)声音信号处理
一个例子的口语单词识别,语音合成,从音频样本中克隆声音,模仿父母语音讲故事,从一个用户到另一个用户的语音转换(一次性语音或文本,跨不同语言)
(5)其他
少注射药物发现,曲线拟合,通过逻辑推理理解数字类比来计算
(1)样本复杂性理论
样本复杂性:获得具有高概率的小经验风险的模型所需的训练样本数量
FSL方法:利用先验知识,扩充数据,约束假设空间,改变搜索策略,降低所需的样本复杂度,弥补监督信息的缺失
(2)域适应问题
通过微调前馈神经网络可以获得更好的风险界限
考虑一个任务训练的模型转移到另一个任务的风险
(3)收敛性分析
梯度下降,元学习方法的充分条件
元学习器学习网络的底层,学习器学习最后一层
FSL旨在弥合人工智能和人类学习之间的差距
FSL可以通过合并历史知识,在只有几个例子下学习新任务
FSL:人工智能的试验台,罕见案例学习,工业应用中的数据负担
https://zhuanlan.zhihu.com/p/138235979utm_source=wechat_session&utm_medium=social&utm_oi=1018998695244787712