Visual Tracking with Online Multiple Instance Learning读书笔记

MIL是一篇关于tracking中基于tracking-by-detection框架的文章,而且关注的是好的正样本的问题。当然之前那篇里面的struck也是关注这个问题。作者首先发现,利用当前帧的state获得的正负样本很容易混淆分类器本身。因为tracker本身稍微的误差可能将训练样本的label标错,那么训练出来的分类器也就不好了,于是对下一帧的预测很可能出问题。于是我们还是得获得好的正负样本来update appearance model啊。

我感觉作者提出multi-instance learning 来解决这个问题,说白了就是三个臭皮匠顶个诸葛亮的思想。也就是说,作者想由于无法保证每次的正样本是最好的,而如果扩充正样本的话,又会搞得分类器自己迷惑,那么干脆多找些臭皮匠样本得了。这些样本构成一个集合,给他们赋一个标签。当这个集合里面的样本存在一个正样本或以上这个标签就是正的,否则为负。如下所示:

Visual Tracking with Online Multiple Instance Learning读书笔记_第1张图片

左边是采用单个正样本update model,中间是采用多个正样本update model,右边是将正样本构造一个集合,整个集合看做是正样本。

模型的框架如下所示:

Visual Tracking with Online Multiple Instance Learning读书笔记_第2张图片

下面说说multiple instance learning(MIL).

在传统的判别式学习算法中,我们训练分类器的话,需要正负样本的集合,在这里就是从一个图像patch提取的特征。而在MIL中,形式如下:,其中X是样本的集合,bag。如果这里面至少有一个样本位置,那么bag就是看做正的。我们要做的就是训练一个instance classifer来估计出label.对于bag而言,就是。这个公式的好处就是当bag中某一个instance有很高的probability的时候,那么相应地这个bag也具有很高的probobility。

讲完了MIL,作者又引入了一个概念叫:Online boosting.Boosting的思想,应该是弱弱联合,构造一个强分类器,其中组合系数可学:

最流行的算法来求解这个系数的当属adboost.

有了这两个概念之后:

Online Multiple Instance Boosting就出来了,作者首先构造一个目标函数:

Hk-1是有前(k-1)个弱分类器组成的强分类器,在本文中作者对instance probability建模成:

,首先我们需要训练弱分类器,而弱分类器需要label,于是我们把bag的label给里面的每一个instance,然后选择K个如分类,挑选标准就是:


算法的伪代码如下:

Visual Tracking with Online Multiple Instance Learning读书笔记_第3张图片






你可能感兴趣的:(计算机视觉)