跟踪任务可以看成是分类任务与状态估计任务的结合。分类任务的目的是精确定位目标的位置,而状态估计获得目标的姿态(即目标框)。SiamFC++一文将当前的跟踪器按照不同状态估计的方法分为三类:
本文主要记录用Anchor Free的思想来解决上述目标跟踪状态估计中存在的问题。目前比较主流的都是基于FCOS和CenterNet两种无锚框方式展开的。
论文 代码
针对siam网络分析了之前的工作不合理的地方,提出了4条guidelines:
G1:decomposition of classification and state estimation:跟踪任务可以分解为分类与状态估计。分类影响鲁棒性,状态估计影响精确性。多尺度金字塔的方式忽略了状态估计所以精确性很低;
G2:non-ambiguous scoring:分类得分应该直接表示为目标在视野中存在的置信度分数,而不是像预定义的anchor那样匹配anchor和目标,这样容易产False positive;
G3:prior knowledge-free:跟踪器不应该依赖过多的先验知识(如尺度/长宽比)。现有的方法普遍存在对数据分布先验知识的依赖,阻碍了其泛化能力;
G4:estimation quality assessment:不能直接使用分类置信度来评价状态估计,需要使用独立于分类的质量评估方式。(如RPN系列直接就是选择分类置信度最高的位置进行边框预测,而ATOM,DIMP则另外加入了IOU信息来指导边框调整)
作者依据这4条guidelines设计了SiamFC++,将目标检测中的Anchor Free的FCOS应用到Siamese框架中,整体结构如下,细节部分可以去开头我在b站的专栏。
论文 代码
这一篇和SiamFC++很类似,这里仅标注一些实践细节的差异。
细节同样参照开头b站专栏。
论文 代码 解读
同样是FCOS的应用,比较insight的地方是打标签的时候使用椭圆标签,两个椭圆,小椭圆E2内的点是positive,大椭圆E1外的点是negative,两个椭圆中间的部分为ignore。椭圆标签能够更紧凑地标注正负样本,并且设置了缓冲(ignore)以忽略模棱两可的样本。
论文
将FCOS与级联结构结合,另一个就是分配GT到AFPN层时采用了FCOS一样的思路(划分[0,64], [64,128], [128,∞])
论文 代码 解读
论文
这篇将CenterNet和CornerNet结合到跟踪中,分别预测中心点和两个角点,以及运用了CBAM注意力机制强化上下文信息,应该是第一个将CenterNet/CornerNet用进来的,遗憾的是性能没有刷的很高。细节同样参照开头b站专栏。
论文
这篇就是比较典型的CenterNet模式了,预测中心点,中心偏移以及宽高。
作者另外设计了backbone,最后在VOT2018性能虽然比siamrpn++略低但是速度是它的3.9倍(136FPS v.s. 35FPS)。
论文 代码
这一篇将casscade的思想结合在centernet类的siamese跟踪器中,看上面图2结构已经很清晰了,KPN结构如下:
还有一个需要关注的就是每个stage训练的时候分类标签的高斯方差不一样,遵循的原则就是越高的stage峰值越收束。目的即随着级联的进行,监管信号越来越严格。
论文 解读
作者为了解决跟踪中回归框估计不准确的问题,引入角点检测来得到更紧致的回归框。分析了之前一些角点检测方法在目标跟踪中无法取得好性能的原因,并提出了两阶段的correlation-guided attentional corner detection (CGACD)方法。第一阶段使用siamese网络得到目标区域的粗略ROI,第二阶段通过空间和通道两个correlation-guided attention来探索模板和ROI之间的关系,突出角点区域进行检测。速度可以达到70FPS。
论文 代码 原作者解读
现有的跟踪方法往往采用矩形框或四边形来表示目标的状态(位置和大小),这种方式忽略了目标自身会变化的特点(形变、姿态变化),因此作者受启发自Reppoints检测方法,采用表示点(Representative Points)方法来描述目标的外观特征,学习表示点的特征,根据表示点的分布确定目标的状态,实现更精确的目标状态估计。
具体可以参考原作者在知乎的解读,该方法取得了VOT2020-ST的冠军。
更多Ai资讯:公主号AiCharm