整理Rapid object detection using a boosted cascade of simple features论文中的要点

整理Rapid object detection using a boosted cascade of simple features论文中的要点

使用haar特征:在24*24像素的框内有180000以上不同的haar特征(怎么算的???):终于知道怎么算的了:http://blog.csdn.net/xiaowei_cqu/article/details/8216109(其实就是讲的论文An extended set of Haar-like features for rapid object detection)

使用积分图加速计算haar:道理简单

使用adaboost选取特征(怎么选的):
强分类器的诞生需要T轮的迭代,具体操作如下:
1. 给定训练样本集S,共N个样本,其中X和Y分别对应于正样本和负样本; T为训练的最大循环次数;  
2. 初始化样本权重为1/N ,即为训练样本的初始概率分布;  
3. 第一次迭代训练N个样本,得到第一个最优弱分类器,步骤见2.2.2节
4. 提高上一轮中被误判的样本的权重;
5. 将新的样本和上次本分错的样本放在一起进行新一轮的训练。
6. 循环执行4-5步骤,T轮后得到T个最优弱分类器
(http://www.cnblogs.com/ello/archive/2012/04/28/2475419.html#!comments,另外一个讲解该论文的博文,内容比较详细)

使用cascade的方法(这个还比较好理解,但是每层用几个特征又是怎么定的)
理解:第一层基本上将阈值调到极限,就是只有非常不像脸的才被排除,至少99.99%的脸还有一堆不是脸的留下来。第二层就收紧这个阈值,开始能更加剔除更多的不是脸的,依此类推。由于图像中大部分和脸没有一毛钱关系所以第一层就over的扫描很多,因此节省了大量的时间。(平均每个扫描过10层)

如何消除对同一目标的重复标记??(论文中说只要两个框有交点就剔除,现在应该不是用这样的方法)

这个论文中提到的方法的亮点:
运用瀑布结构大幅加快了检测速度

这个论文中提到的方法的缺点:
1.该识别器后面的层数不能很好的利用前面层数的结果信息。尽管在前一层可能高分通过,但仅仅因为一层表现不好就被拒绝,可能导致该分类器的稳定性不高。
2.因为必须通过所有层,意为着最后的发现率(detection rate)是各层的乘积,所以对每层的发现率都有很高的要求。(感觉和是对第一点的解释…)
3.因为该面部识别器的最终识别率基于所有层的表现,其中某一层的表现不好估计,所以想要研究该识别器运行时间和正确率之间的权衡问题时将会开销大量的时间去重新训练整个识别器。
4.因为识别器基于所有层的作用,所以很难找出一个最优的调节参数的方法(这个识别器要几层,每层要多少个特征等等),很难根据需求的正确率来调整一个该识别器。
5.为了减少false positive rate,该方法不可避免的要新训练一层,这不可逆的减少了detection rate。
6.当positive example变化过于巨大(比如识别多个角度的人脸)时该方法(指传统方法)将会非常难用。
(优缺点总结自Lubomir 和Jonathan的论文Robust Object Detection Via Soft Cascade)

你可能感兴趣的:(整理Rapid object detection using a boosted cascade of simple features论文中的要点)