论文题目:SiamRPN++: Evolution of Siamese Visual Tracking with Very Deep Networks
论文链接:论文链接
论文代码:后续会开源
该论文主要解决的问题是将深层基准网络ResNet、Inception等网络应用到基于孪生网络的跟踪网络中。在SiameseFC算法之后,尽管已经有很多的基于孪生网络的跟踪算法,但是大家可能会注意到一个问题是,这些网络都使用浅层的类AlexNet做为基准特征提取器。其实在这之前,也有学者们尝试着使用深层的网络,但是发现直接使用预训练好的深层网络反而会导致跟踪算法精度的下降,因此,这成为了一个基于孪生网络的跟踪器需要解决的一个关键问题!
siamese-fc中的相关操作可以看成是按照滑窗的形式计算每个位置的相似度,这就会带来两个具体的限制:
如果现代化网络的平移不变性被破坏以后,带来的弊端就是会学习到位置偏见:按照SiamFC的训练方法,正样本都在正中心,网络逐渐会学习到这种统计特性,学到样本中正样本分布的情况。即简而言之,网络会给图像的中心位置分配更大的权重。具体的效果如下图所示:当我们将shift设置为0时,网络只会关注图像中心的位置,对应到图中就是只有中心位置具有较大的响应值;而当我们将shift设置为16时,网络开始关注更多的图像范围,对应到图中就是响应的范围会扩大,颜色由深变浅;而当我们将shift设置为32时,网络会关注更大额图像范围,对应到图中就是响应的范围变得更大,颜色也更加多样化。
为了验证上述的猜测,文中设计了一个模拟实验。当我们像SiamFC一样训练,把正样本都放在图像中心时,网络只会对图像中心产生响应;如果我们把正样本均匀分布到某个范围内,而不是一直在中心时(所谓的范围即是指距离中心点一定距离,该距离为shift;正样本在这个范围内是均匀分布的),随着shift的不断增大,这种现象能够逐渐得到缓解。具体如下图所示:EAO是VOT比赛的一个评估指标,是将算法的鲁棒性和准确性结合起来的一个综合指标,该值越高表示算法越好。在下图中我们可以看到当shift从0变化到64的时候,跟踪算法在VOT16和VOT18数据集上面的效果都有了显著的性能提升,当shift超过64之后,提升的性能并不大,这可以从一方面说明该操作可以在一定程度上缓解上述这个问题。
具体的实施过程如下所示:
我们按照这个思想进行了实际的实验验证,在训练过程中,我们不再把正样本块放在图像正中心,而是按照均匀分布的采样方式让目标在中心点附近进行偏移。由上图可以看出,随着偏移的范围增大,深度网络可以由刚开始的完全没有效果逐渐变好。
所以说,通过均匀分布的采样方式让目标在中心点附近进行偏移,可以缓解网络因为破坏了严格平移不变性带来的影响,即消除了位置偏见,让现代化网络可以应用于跟踪算法中。
因为对于物体检测和语义分割而言,训练过程中,物体本身就是在全图的每个位置较为均匀的分布。我们可以很容易的验证,如果在物体检测网络只训练标注在图像中心的样本,而边缘的样本都不进行训练,那么显然,这样训练的网络只会对图像的中心位置产生高响应,边缘位置就随缘了,不难想象这种时候边缘位置的性能显然会大幅衰减。而更为致命的是,按照SiamFC的训练方式,中心位置为正样本,边缘位置为负样本。那么网络只会记录下边缘永远为负,不管表观是什么样子了。这完全背离了我们训练的初衷。
我们主要的实验实在ResNet-50上做的。现代化网络一般都是stride32,但跟踪为了定位的准确性,一般stride都比较小(Siamese系列一般都为8),所以我们把ResNet最后两个block的stride去掉了,同时增加了dilated convolution,一是为了增加感受野,二是为了能利用上预训练参数。论文中提到的MobileNet等现代化网络也是进行了这样的改动。如上图所示,改过之后,后面三个block的分辨率就一致了。
在训练过程中采用了新的采样策略后,我们可以训练ResNet网络了,并且能够正常跟踪一些视频了。(之前跟踪过程中一直聚集在中心,根本无法正常跟踪目标)。对backbone进行finetune以后,又能够进一步得到一些性能提升。
如上图所示,由于深层网络中的层数比较多,网络的不同block块能够获取的特征也具有很大的差别,浅层网络特征更关注于提取一些颜色、边缘等信息,而深层网络特征则更关注于目标的语义特征,因此将深层网络的多层特征进行融合是一个值得去研究的工作。论文中选择了网络最后三个block的输出进行融合(由于之前对网络的改动,所以分辨率一致,融合时实现起来简单)。对于融合方式上我们并没有做过多的探究,而是直接做了线性加权。其实,如何做加权也是一个值得研究的事情,本文并没有在这里深究,这里可以进行更加深入的研究。
如创新点2中的图所示,我们会观察到作者分别在conv3_3、conv4_6和conv5_3的分支上使用siamrpn网络,并将前面siamrpn的结果输入到后面的siamrpn网络中,该思路类似于cvpr2019值的C-RPN算法,通过多级级联具有两个优点:
为了验证本文提出的SiamRPN++的性能,我们在六个数据集上进行了实验。首先是比较重要的两个数据集,VOT和OTB,然后添加了UAV123,同时在两个比较大的数据集LaSOT,TrackingNet上也进行了实验。最后我们又将算法应用于longterm,在VOT18-LT上进行了实验。我们新提出的算法在这些数据集上都取得了非常好的效果。具体的效果如下所示:
上图展示该算法在OTB15数据集上面的测试效果,我们可以观察到该算法在成功率上超过了ECO算法,而在精确率曲线上排名第三,主要的原因是该准确率的评估指标不是很好,仅仅通过中心点的位置来计算。
上图展示了该算法在VOT18数据集上面的测试结果,纵轴表示的是EAO,我们可以观察到该算法获得了最高的精度0.414,将第二名的LADCF算法拉开了较大的差距。
上图表示了该算法在VOT18-LT数据集上面的测试结果,所谓的long-term跟踪和普通的跟踪的不同之处在于,首先,该任务中的数据集的每一个视频具有更长的视频帧,一般超过2000帧;其次,待测试的跟踪算法需要具备检测待跟踪目标是否出现在图像中的能力。我们可以看到在这个新的任务上面该算法也获得了最好的成绩,大幅度超过了第二名的MBMD算法。
上图展示了该算法在UAV123数据集上面的测试效果,该数据集是用无人机拍摄的视频,具有不同的角度。我们可以看到该算法在该数据集中也获得了最好的成绩,远远超过了第二名的DaSiamRPN算法。
上图表示了该算法在一个新发布的跟踪数据集LaSOT上面的测试效果。我们可以观察到该算法同样取得了最好的成绩,并且和第二名的DaSiamRPN之间拉开了较大的差距。
上表展示了该算法在TrackingNet数据上的测试结果,我们可以观察到该算法同样获得了最好的成绩,在AUC、P等多个指标上面都远远超过了第二名的DaSiamRPN。
上表的主要目的是为了验证本文提出的每一个改进方案的有效性,具体包括使用不同的BackBone网络、是否使用网络层融合、是否进行网络微调操作、是否使用DW卷积等。具体的分析如下所示:
如果你一直在做视觉目标跟踪,你一定会感觉这篇文章真的很厉害,不愧CVPR2019的Oral。也许你也会有一种感觉感觉自己能做的全被王强大佬做啦,那你自己还做什么呢的疑惑,其实静下心来仔细琢磨这篇论文你肯定会获得不少的改进思路的,快快行动起来吧,也许你就是视觉目标跟踪领域的下一个大佬!
深层网络在孪生网络框架中的使用一直是Siamese系列的一个关键问题,本文通过简单的调整训练过程中正样本的采样方式让深层网络可以在跟踪中发挥作用,同时通过多层聚合的方式更大程度的发挥深层网络的作用。除此之外,新的轻量级的DW卷积在减少参数量的同时,也增加了跟踪算法的性能。除此之外,本文提出的算法可以在多个数据集上达到state of the art的性能。
[1] 该博客是本人原创博客,如果您对该博客感兴趣,想要转载该博客,请与我联系(qq邮箱:[email protected]),我会在第一时间回复大家,谢谢大家的关注。
[2] 由于个人能力有限,该博客可能存在很多的问题,希望大家能够提出改进意见。
[3] 如果您在阅读本博客时遇到不理解的地方,希望您可以联系我,我会及时的回复您,和您交流想法和意见,谢谢。
[4] 本文内容中的大部分内容都摘自该博客,本来打算按照自己的思路去写,不过想来想去还是绝对这篇博客说的更好一点,为了让读者们能够更好地了解该论文,还是引用了该博客的内容。
[5] 本人业余时间承接各种本科毕设设计和各种小项目,包括图像处理(数据挖掘、机器学习、深度学习等)、matlab仿真、python算法及仿真等,有需要的请加QQ:1575262785详聊!!!
1、https://zhuanlan.zhihu.com/p/56254712