Transductive Unbiased Embedding for Zero-Shot Learning解读

今天介绍一篇关于缓解传导偏差的零样本学习文章,该论文已被CVPR2018录入。

定义

源类(source class):传统zsl中,只在训练集中被标识的类,被标记。
目标类(target class):传统zsl中,只在测试集出现的类,未被标记。(源类与目标类交集为空)
可见类(seen class):等同于source class。
不可见类(unseen class):等同于target class。
广义zsl设定(generalized zsl settings):测试集中既包含可见类,也包含不可见类。
狭义zsl设定(conventional zsl settings):测试集中只包含不可见类。

需要解决的问题

这篇文章主要解决 strong bias problem问题(不知道怎么翻译),即未知类更容易被辨认为已知类。但在混合数据集(既包含已知数据,也包含未知数据)中,过去的模型取得的效果并不太好。

作者的方法

作者提出了一个名叫Quasi-Fully Supervised Learning (QFSL)的方法。该方法假设训练集包含标记数据(labeld)和未标记数据(unlabeled)。在semantic embedding space 中,标记数据被特别映射到源类中,未被标记数据被映射到目标类中。作者分别在AwA2,CUB和SUN数据集上测试,并且基于狭义与广义zsl设定,都取得了最高正确率。

Transductive Unbiased Embedding for Zero-Shot Learning解读_第1张图片

上图中,蓝色区域内的是源类,非区域内的是目标类。图中的两条红色虚线,就是由于bias problem,所以产生的错误预测。

具体算法

在这里插入图片描述

上式是标准零样本学习预测函数。F()是一个score函数,用于获取最后每个类别的概率。格式如下图。

在这里插入图片描述

其中θ(x)代表视觉特征,φ(x)代表语义向量。最后的损失函数为:

在这里插入图片描述

其中L为分类损失(用于视觉到语义之间映射),Ω是正则化式,用于约束模型,以后会专门写一篇介绍正则式。
以上都是传统零样本学习中的一些式子,下面着重介绍一下作者的创新。

你可能感兴趣的:(Transductive Unbiased Embedding for Zero-Shot Learning解读)