【论文1】Unsupervised Person Re-identification via Multi-label Classification

附论文下载链接:https://arxiv.org/pdf/2004.09228.pdf](https://arxiv.org/pdf/2004.09228.pdf

【课题介绍】:北大Dongkai Wang,Shiliang Zhang的工作,录用于2020CVPR,首个利用多标签分类问题做无监督方面的行人再识别问题。本博只记录论文的理论思想以及idea的创新工作,便于后期回忆,具体实验细节部分请读者参见论文。

1、介绍

在无监督工作中,一般有**三类**:**一种**是传统方法做无监督,这类方法无论是在有监督还是无监督中都存在致命缺陷,就是提取特征不充分,自DL以来,逐渐摒弃,但不否定这类方法结合DL来做工作的可行性;**第二类**是利用K-means这类聚类方法,将无标签的数据通过聚类打上伪标签,在根据有监督的reid任务来做,但是通过聚类方法设定伪标签这类形式会大大降低准确率,因为较难样本的聚类总会出现偏差,会造成大量离群点,在聚类中产生很多噪音,从而影响聚类结果,使得标签出错,影响检索结果;**第三类**方法就是比较常见的利用迁移学习,主要是解决域适应的问题,这类方法思想是利用源域有标签的数据辅助训练,还有一些无标注的目标域数据训练,最终在目标域进行测试,目前,有工作在这类无监督reid中的精度结果已经与有监督的一些工作相当,但是这类方法也有一定的缺陷:有标签的源域以及无标签的目标域之间的数据存在于偏差.

所以这篇无监督工作(MPLP+MMCL):不利用任何带有标签的数据进行训练,旨在做多标签分类问题,将每一张行人图片视作一类,最后将属于同一ID的多类标签判定类别。

如图,其核心方法主要是:

①MPLP(Memory-based Positive Label Prediction):将每一张图片视作单分类任务,为了得到的label预测更准确,考虑了相似性计算(visual similarity)以及风格一致性(cycle consistency)两部分计算label【Yi~】得分。所有的提取特征放在memory bank中,以进行相似性计算以及相似性“邻居”【指的是i的检索序列和j的检索序列存在共有邻居,则i,j极可能一类】

②MMCL(memory-based multi-label classification loss):多标签分类损失,将多标签分类以及单标签分类嵌入一个统一的架构联合训练。比较其他loss优点:去掉交叉熵损失的激活函数sigmoid的归一化操作,解决梯度消失的问题,采用L2;去掉softmax计算得分,大大减少计算量,直接利用每张图片得到的特征作为分类器,而不是经过softmax计算,简化计算过程。如:对于任意图片Xj,其多标签分类分数计算详见论文

2、核心技术

①MPLP:

MPLP首先根据Xi与其他图片的特征计算相似性得到一个排序列表,Si,j代表i与j的相似性得分:具体公式详见论文;

如果只根据排序列表做最终的标签预测,则保证不了质量,因为数据集存在遮挡,冗余,视角等等问题,不能只根据相似性考量。所以,MPLP采用两部分考量:

similarity score+cycle consistency

【similarity score】:就是直接考虑排序表靠前的几个候选者,具体的话,设置参数t阈值,进一步筛选top k的数据...

【cycle consistency】:借鉴互近邻的思想,意思是如果两张图片属于同一类,则他们的检索结果几乎是一致的;也就是说,如果两张图片的label一致,则他们会出现在各自的检索序列结果中。据此,提出根据cycle consistency在上述Pi中选择困难负样本。具体操作见论文细节(可见re-ranking以及HHL这两篇论文,加深理解)

   ②MMCL:

    Multi-Label Classification (MCL) loss计算详见论文中;其公式,引入超参数T,叫做MCL-τ损失:

    上述MCL损失存下两大问题:①梯度消失②模型崩塌

    所以引入MMCL损失:

    为解决第一个问题,即梯度消失,去除sigmoid激活函数直接拟合分数至[-1,1],公式见论文:

    为解决第二个问题,即模型崩塌,也就是正样本与负样本不均衡的问题,引入难样本来解决。


    3、实验以及参数分析

    这部分具体看论文,实验比较全,涉及:具体超参数的分析以及方法的对比。在常用三个数据集上的实验效果不错,也对比现有的无监督方法,均有显著提升!

你可能感兴趣的:(【论文1】Unsupervised Person Re-identification via Multi-label Classification)