FaceNet

  解决人脸检测的后续问题:face verification (is this the same person), recognition (who is this person) and clustering (find common people among these faces)。

一、传统的基于CNN的人脸识别方法为:

  1. 利用CNN的siamese网络来提取人脸特征
  2. 然后利用SVM等方法进行分类

二、FaceNet亮点:

  1. 利用DNN直接学习到从原始图片到欧氏距离空间的映射,从而使得在欧式空间里的距离的度量直接关联着人脸相似度;
  2. 引入triplet损失函数,使得模型的学习能力更高效。
  3. 结果示意图:



  这是一个简单的示例,其中图中的数字表示图像特征之间的欧式距离,可以看到,图像的类内距离明显的小于类间距离,阈值大约为1.1左右。

三、实现

  这篇文章中,最大的创新点应该是提出不同的损失函数,直接是优化特征本身,用特征空间上的点的距离来表示两张图像是否是同一类。网络结构如下:



  上图是文章中所采用的网络结构,上图步骤可以描述为:
  1、前面部分采用一个CNN结构提取特征
  2、CNN之后接一个L2标准化,这样图像的所有特征会被映射到一个超球面上
  3、再接入一个embedding层(嵌入函数),嵌入过程可以表达为一个函数,即把图像x通过函数f映射到d维欧式空间

  4、将嵌入层归一化到超球面上,例如可以使用:(或者用softmax也可以实现)
  5、接着,再去优化这些特征,而文章这里提出了一个新的损失函数,triplet损失函数(优化函数),而这也是文章最大的特点所在。

Triplet Loss(三元组损失函数):

  以下是Triplet损失函数的原理(Triplet翻译为三元组):
  思想:什么是Triplet Loss呢?故名思意,也就是有三张图片输入的Loss(之前的都是Double Loss或者是SingleLoss)。
  本文通过LDA思想训练分类模型,使得类内特征间隔小,类间特征间隔大。为了保证目标图像 与类内图片(正样本)特征距离小,与类间图片(负样本)特征距离大。需要Triplet损失函数来实现。



  根据上文,可以构建一个约束条件:

  其中,:所有可能的三元组集合
  公式(1)中,决定了类间距的最小值,如下图所示,我们可以看到越大,类间距越大(本文)


  把上式(1)写成损失(优化)函数,通过优化(减小)损失函数的值,来优化模型。损失函数为:

  其中,:训练集中样本的个数
  从上面的两个公式中可以看到,如果一个三元组满足公式(1),也就意味着已经分类正确,不需要训练,如果把这种样本加入到loss里面,那么对网络的收敛帮助很小。所以,我们需要找那么hard triplets(也即是不满足公式(1)的三元组)来促进模型的训练。

四、Triplet Selection

  1、问题描述:
  为了确保模型快速收敛,选择违反公式1的约束条件的三元组是至关重要的。这意味着给定,我们需要:
  (1)选择一个(hard positive),使得
  (2)选择一个(hard negtive),使得
  在整个训练集上穷举所有的三元组非常困难。而且,一些标注错误的图片和低质量的图片有可能主导hard positives和hard negatives,这反而会对训练产生不利影响。因此,我们有两种解决方案:
  2、解决方案:
  (1)离线更新三元组(每隔n步)。采用最近的网络模型的检测点 并 计算数据集的子集的argmin和argmax(局部最优)。
  (2)在线更新三元组。在mini-batch上 选择不好的正(类内)/负(类间)训练模型。
  本文采用在线的方式,采用这种方式需要较大的batch(本文为1800)。在每个batch中,首先选择40张属于同一类的图片,然后随机补充其他类的图片。
  3、实际采用的解决方案:
  (1)在实际训练中,作者选取一个batch中的所有positive的anchor对,而不是hardest positive,因为这种方式在训练中更稳定,而且训练的初始阶段收敛的也更快。(分析:单个数据更容易受到噪声和错误数据的干扰,而使用更多的数据相当于做了平滑操作,抗干扰性更强,函数的连续性更好)
  (2)虽然理论上需要选择最为困难的负样本,但是在实际中,这样会容易导致在训练中很快地陷入局部最优,或者说整个学习崩溃f(x)=0。为了避免这个问题,在选择negative的时候,我们选择满足以下公式的样本:
  我们把这种负样本叫做。为什么叫呢?我们把公式(3)和公式(1)作比较,发现只是少了一个,而代表的是最小类间距。也就是说,这个三元组的样本满足了类内距离小于类间距离得聚类要求,但是类间距离还没有足够远(应该要大于),所以叫。
  可以看出,这种方式和上面实际中选择hard positive的策略类似,不是选择单个的hardest negative的样本,而是所有满足公式(3)的样本都会被采用。

参考:https://www.cnblogs.com/lijie-blog/p/10168073.html,写的不错,所以偷个懒,本文中有些部分直接摘抄自这篇博客。

你可能感兴趣的:(FaceNet)