人脸检测技术的最新研究笔记

Fast Asymmetric Learning for Cascade Face-2008-32.pdf
快速非对称学习算法总结
1)ffs 是一种新的特征选择算法
2)将特征选择和分类器的设计解耦。非线性分类器的设计不是在选择出的特征上直接进行的,而是在经过弱分类器处理过的特征空间上进行了。也就是h(x) 特征值的取值是+-1.
3)lac和fda极其相似,不同的是,lac仅考虑了x样本(正样本)的协方差,而fda同时考虑了两个样本的协方差。
lac: w = (协方差x)的逆*(mean_x-mean_y)  参考 论文
fda: w = (协方差x+协方差y)的逆*(mean_x-mean_y) 参考 模式分类第三章 3.8节
4) s.t. 同时
   c.d.f 累计密度函数
   pr 概率的意思
5)algorithm2 the forward feature selection algorithm
   第5行 使用和adaboost一样的弱分类器算法-决策桩算法,计算每一个维度的最佳门限 。所有样本的权重一样。
   第7行,V是一个M*N的矩阵,M是维度,N是样本个数,Vij是维度i上的决策桩分类器对样本xj的分类结果-1或1。即V的所有元素的值为+1,或-1
   第11行 S是当前已选择的特征集合,hi是即将考察的第i个维度,v以及v'是个行向量,v是当前已选特征集合中特征对应V矩阵的行的和。eg S中包含第1、3个特征,那么v = V1 + V3。V1表示V的第1行
   第12行。对第i个样本xi 的判决结果是 v'i-theta, v'i是v'向量的第i个元素。
   theta的取值介于0个S集合中的特征个数之间,是个整数值。和adaboost不一样,是个float值。
   第17行。ffs算法的输出时一个S其中包含了挑选出来的维度,以及v向量。S没什么用,v是训练过程中得到的包含了选择的特征的最终结果。v也可以根据S集合V单独计算出来。但是个v相伴的theta只是在训练的过程才能得到的。不过,也可以重复挑选最后一个特征的过程,重新计算得到theta。

6)asymboost算法只是在训练过程中增大了正样本的权重,其本质仍是一个特征选择算法。只是选择出的特征和ababoost算法选择出的特征可能不太一样。

 

A component-based framework for face detection and identification
一个用于人脸检测和识别基于组件的框架
-)通过3D模型自动采集人脸样本 3D head model vetter 1998
   同样的道理,也可以写一个自动生成非人脸样本的程序。
   比如一张白纸,向上泼墨,墨的大小、灰度、位置等均是随机的。完了之后高斯模糊下就行。这样就完成了非人脸样本的采集。
-)为何要用组件?a.物体的外形表象变化太大 b.组件的变化较小(稳定性较好)相对于完整目标 c.组件抗遮挡能力较强
-)如何去诶的那个一个目标由一个组件组成?单个组件的位置大小形状如何确定?
   a.人工方式选择。
   b.自动方式选择。
    .随机的提取所有正、负样本的所有位置大小子样本,挑选mutual信息最大的那个。component类型无需事先定义?如何获取mutual信息?难不成要尝试所有可能的component类型,不如,adaboost,haar-like,svm?是需要事先定义的,比如文中用的是linear svm component
    .人工的指定mutual类型,即interest operator,很简单,很快速。
-)组合子组件的分类结果通过4种方式,投票,实值相加,。。
3)非人脸样本直接使用难以分类的样本。先使用一个很简单的粗糙的分类器分类非人脸样本误判的才进入最终的非人脸样本集。
4)子组件分类器如何训练?训练样本是通过人脸样本,给定一个参考点,在该参考点附近搜索矩形框训练,对比在哪个矩形框内的
-).该文的人脸识别训练机制需要同一个人脸的大量照片,而现实是不允许的,所以,作者通过3D人脸模型生成同一个人的多个人脸样本
   .该文的人脸识别不适用于大数据量的人脸数据库。适用于小型数量的人脸数据库。专注于对光照pos的鲁棒性。
-)文中face detection component 和 face identification component 是两个不同的component。
   face detection component 为 后者提供更准确的位置信息。
-)训练时face detection component大小的确定?
   手工标记参考点位置。对于每一个参考点,从一个小的矩形开始训练一个component,向四个方向扩展component,评估误差率是否下降,若下降,接受component的新的位置参数。误差降为0或没法再扩展了(扩展到边界)则停止扩展。
-)检测室face detection component的位置如何确定?
   a. 全局搜索
   b. 感兴趣区域搜索(即在component可能存在的区域搜索)
-)如何根据子分类器的结果判断是否人脸?
   a. 训练一个comination classifier。特征空间就是子分类器的输出信息。有不同的特征空间表示方法。
   b. 本文的分类器好像是只能寻找但人脸?考,也没个图表示下。性能上作者唧唧歪歪了那么多,也没说到底和opencv的比起来怎么样,不过我想肯定差多了。

 

Face detection with boosted Gaussian features
本文提出了一种新的Gaussian features,可以更好的捕获曲线边缘特征,这种特征对人脸的分类能力比Haar-Like特征要强,作者通过ROC曲线证明了这一点。
但是速度慢,作者通过组合5stageHF + 12stageGF 获得了和HF差不多的速度,但是提高了检测率。
[该文好像提供了裁剪好的人脸样本可以下载]

Fast training and selection of Haar features using statistics in boosting-based-face detection

High Performance Invariant Multi-View Face Detection_2007_57.pdf
1 划分MVFD为两类
  a.姿态估计和人脸检测在同一的框架内进行
    代表: Synergistic Face Detection and Pose Estimation with Energy Based Models_2004
  b.两种过程分开进行。该方法又称view-based
    代表1: parallel-cascade,
          Fast Rotation Invariant Multi-View Face Detection Based on Real Adaboost_2004
          gool effect,but unexploited correlation between faces of different view
    代表2: coarse-to-fine cascade
          a. scalar tree detector.coarse-to-fine face detection_2001
          b. pyramid. S.Z. Li. statistical Learning of Multi-view learning_2002
    代表3: decision tree method
          Fast Multi-View Face Detection_2003 Viola
2 提出WFS Tree-Structured Detector
 
也就是广度遍历 Tree-Structured Detector ,最终的结果是一个遍历了树种的所有节点,每一个叶子节点有一个输出。依赖于Vector Boosting。Vector Boosting使得输出可以不仅仅是一个类别,可能是多个类别。(这些类别之间的差别可能比较小)

  由一个可检测15种视角,支持左右45度旋转的MVFD,旋转90,180,270可检测全部视角

1
对全部特征的第一次的分类能力进行排序,取前1000名,这样可以将几十万维降低到1000维。而且我可以加入更多的比如mean特征,类人脸特征,选择haar特征,更多自创的甚至没有意义的矩形特征。Gaussian Filter,HF。

2门限次优
通过排序的方法计算出的弱分类器是最佳的维度上的最佳门限。
通过histogram的方法可以计算出某一个维度上的接近于最佳门限的近似门限,避免了排序过程。
通过statistics的方法也可以计算某一个维度上的接近于最佳门限的近似门限,也避免了排序过程。其    主要通过分析某个维度特征值的均值和方差,通过bayes方法决定两个呈高斯分布的特征分类门限。
  虽然这两种方法计算出的弱分类器都不是最佳的分类器,当弱分类器数目少的时候,分类能力不及Adaboost,但随着弱分类器的个数的增多,ROC接受率几乎媲美Adaboost

3维度次优
能否通过寻找部分维度上的最佳分类门限获取维度意义上次优的最佳门类门限。
比如,对各个类型特征的分类能力进行排序,前几个弱分类器只从分类能力最优的分类特征类型上寻找。
相同类型特征的不同尺度也具有不同的分类性能。paper[]的结果表明了前几个弱分类器总是倾向于挑选尺度较大的特征,从而决定不同类间的总体差别,后续小特征再去体现细节差异。

4
每一次
通过交替的选择不同类型的特征可以大大的降低维度,同时保留好特征的良好基因。虽然弱分类器少的时候效果差些,但随着分类器的个数的增多,效果会提升。

你可能感兴趣的:(Algorithm,算法,vector,features,statistics,人脸识别)