目标跟踪之CVPR_2017_Attentional Correlation Filter Network for Adaptive Visual Tracking

Attention feature:

  在13年的一篇《Attention improves or impairs visual performance by enhancing spatial resolution》文章中提到了attention feature 在视觉项目上的影响。

  文章中论述了一些假设,最终得出结论:attention feature 通过增大了空间分辨率而增强了边缘区域的performance,但是会减弱中间部分的performance。因为边缘部分的分辨率通常比较低,但是中间部分分辨率高,但attention增强了整体的分辨率,进而提高了边缘部分的performance,同时也降低了中间的performance(attention increased the mismatch between the texture scale and the size of central spatial filters, and provide strong support for the hypothesis that attention can enhance spatial resolution.)

  在以下的一篇文章中就利用了这种特征构造了一个映射图。

  在16年的一篇文章《visual tracking using attention-modulated disintegration and integration》中,应用到了这种feature

  这里仅介绍文章中提出的attention weight map

       Attention weight map由两部分构成,一个是strong attentional weight map(sAWM)weak attentional weight map(wAWM)

首先sAWM的构造过程如下:

      sAWM的每个元素都是由AWE提供的。AWEattentional weight estimator,是由若干个决策树的值取平均得到。

  由于决策树训练本身耗时,如果每帧都要训练一个决策树耗时会很大,所以文章采用了PGDT结构。PGDT结构的决策树是由一个主树和多个子树构成。主树和子树间通过主树的ambiguous leaves进行连接。Ambiguous leaves是指一个还需要进一步训练的一个粗略结果。每得到一个ambiguous leave意味着下面需要构造一个子树。主树是在第一帧训练的,并且在其后的每一帧都不再训练,仅训练子树,因而能够节省时间。

     主树和子树中每个样本的结点都通过下面的式子进行分类:

 目标跟踪之CVPR_2017_Attentional Correlation Filter Network for Adaptive Visual Tracking_第1张图片

Np是总的样本数,Xi是特征iNLNR分别是左右结点的样本集

   参数(c,T)是通过最小化下式得到:

 目标跟踪之CVPR_2017_Attentional Correlation Filter Network for Adaptive Visual Tracking_第2张图片

a=0a=1应该是两个类别(因为要分到左右孩子),nl^a=1是指属于a=1类别的样本数。

上式的分类会重复进行直到下面三个条件其中之一被满足:

      1、所有剩余的样本都归属于同一类

      2、剩下的样本不能再分

      3、剩余样本数<10

以下是ambiguous leaves的定义:

 

E是一个阈值,L^m是包含主树所有叶子的集合

叶子处的attentional weight通过下式计算得到:

 

 

sAWM构造过程:

      sAWM实际上是一个余弦窗,

 

 

sAWM能使中心聚集高权重部分,而低权重部分则被分到边界区。

因此AWM可以通过两者结合得到:

 

W^fw^sdependency,由前面帧的结果得到。

 

 

   而在17CVPR的一篇文章《attentional correlation filter network for adaptive visual tracking》中,作者稍微对上述的映射图作了一些改进。

作者认为应该用W_w来对W_s进行加权,使特征的中心部分权重更高,这样当W_s含有很多噪声且不可靠的时候会得到稍微好点的结果。


 

你可能感兴趣的:(论文笔记)