论文笔记之---Learning Deep Feature Representations with Domain Guided Dropout for Person Re-identificatio

Abstract:对于针对同一问题,从来自多个域的数据中提取相关的且具有一般性以及鲁棒性的特征表示具有重大的意义,特别对于那些多重数据,因为其中仅仅单个数据集无法提供丰富变化的数据。本文就提出了利用CNN来学的深度特征表示的方法。 关键的原理在于不同神经元对不同domain所学习得到的特征表示不同 ,有些是共享特征,有些只局限于特定的domain。基于这一重要的发现,文中提出了Domain Guided Dropout算法。

一.介绍
归纳一下有一下几个重点:
1.Multi-domain的学习目的是为了通过同时使用不同domain所提供的所有的数据来解决特定问题。
2.在许多特定领域并没有大规模的单一数据集,但是可能具备许多的小的数据集。因此同时将它们共同使用来得到一般的特征表达就非常重要。
3.文中使用的CNN包含了多个 BN-Inception模型 ,这一模型比较适合混合数据。
4.Domain Guided Dropout说白了就是对某一domain抑制与其中特征非相关的神经元,这一点不同于传统的Dropout将每个神经元的概率都设置为0.5。
5.Domain Guided Dropout有两种不同的形式: 固定形式和随机形式(deterministic / stochastic scheme) 。训练过程如下:
用来自所有domain的数据集对基本模型进行联合训练--->利用固定DGD代替标准的Dropout再训练几轮--->在单个domain上利用随机DGD进行微调

二.相关工作
主要都是一些前人的研究成果。不赘述.

三.方法
1.具体阐释了训练网络的几个步骤:
a)将所有domain的data和label混合起来,从零开始训练网络。
b)在得到了一个strong的基准模型之后,开始对单个domain,利用其上的数据进行前向传播得到每个神经元对目标函数的平均影响。
c)将标准的Dropout层换成前文提出的DGD层,继续微调CNN模型。
d)根据哪些神经元在每个domain上特别有效,微调后的CNN能够从中学到更多可鉴别的特征。
e)最后如果想得到某一特定domain的特征表示,再次利用DGD对CNN进行微调。
论文笔记之---Learning Deep Feature Representations with Domain Guided Dropout for Person Re-identificatio_第1张图片
2.行人再识别问题的推导过程
a)利用多任务目标函数,也就是Softmax函数,来学得共享特征提取器g:

b)相比于多任务目标函数,文中采用的是单任务目标函数。原理就是将所有不同的人组合到一起,进行重标定得到新label。

c) 单任务学习形式相比于多任务来说使得网络具有同时从所有domain中区分人物的能力。
d)设计CNN网络对输入图片进行预处理:由三个卷积层,六个Inception层和两个全连接层组成。(在每个ReLU层之前都加了Batch Normalization层BN,为了加快收敛,避免手动修改权值等)
3.关于Domain Guided Dropout
a)对每个domain,定义一个 impact score 。它的定义是 当移除该神经元时,loss function的增益 。在一幅图片上第i个神经元的impact score表示为:

其中的第一项是将第i个神经元置零后损失函数的值。当一个domain中的所有图片都经过测试之后,最终得到一个 平均impact score
从下图中可以看出对于不同domain其对应的有效神经元是不同的。
论文笔记之---Learning Deep Feature Representations with Domain Guided Dropout for Person Re-identificatio_第2张图片
b)如果按照原始方法计算那计算量会很大。文中利用泰勒展开来近似si:

该方法在接近loss function的较高层中更加精确:
论文笔记之---Learning Deep Feature Representations with Domain Guided Dropout for Person Re-identificatio_第3张图片
c).对于属于特定domain的所有样本,根据impact score,文中提出一个叫做binary mask的东西。有两种形式:固定形式和随机形式。
固定形式:对于产生non-positive影响的神经元都被置为零。(也就是说这些神经元让损失不变或者变得更大)
论文笔记之---Learning Deep Feature Representations with Domain Guided Dropout for Person Re-identificatio_第4张图片
随机形式:mask取自伯努利分布

其中T用来控制si对概率的影响程度 。当T接近于0,或者接近于正无穷时,该等式相当于是标准Dropout。

四.实验
1.文中在七个数据集上进行了测试,分别是CUHK03,CUHK01,PRID,VIPeR,3DPeS,i-LIDS和Shinpuhkan。
论文笔记之---Learning Deep Feature Representations with Domain Guided Dropout for Person Re-identificatio_第5张图片
2.文中提出方法与其他方法的比较:
论文笔记之---Learning Deep Feature Representations with Domain Guided Dropout for Person Re-identificatio_第6张图片
3.对参数T,固定形式 / 随机形式DGD,标准Dropout / DGD的分析:
论文笔记之---Learning Deep Feature Representations with Domain Guided Dropout for Person Re-identificatio_第7张图片
论文笔记之---Learning Deep Feature Representations with Domain Guided Dropout for Person Re-identificatio_第8张图片
原文链接:https://arxiv.org/abs/1604.07528

你可能感兴趣的:(论文)