利用基于收缩损失的深度回归做跟踪算法

简称:DSLT(deep shrinkage loss Tracker)

论文地址:http://faculty.ucmerced.edu/mhyang/papers/eccv2018_rtsl.pdf

先看本文的效果


红色框是本文结果,可以看到本文结果最贴合。鲁棒性也较好


创新点:

   1    提出shrinkage loss 来解决样本极度不均衡的问题。实验表明,本loss不仅提升性能,而且还加速收敛。作者声称本 loss效果比预值为0.01的OHNM好

        原理上讲:简单样本的loss被大量压缩了.所以叫压缩loss

      shrinkage loss 实际上由 l2 loss和 l3 loss(Facal loss)启发,


a=10,c=0.2,当lc时,Ls大大小于l2, 这些简单样本的loss被大量压缩了.所以叫压缩loss

   2    利用残差的方式连接多层卷积。这种残差连接方案的效果通过消融实验有证实。在论文的5.3节


dslt红色是用了残差连接方案,DSLT_m是没有用,DSLT_34,DSLT_35是另外两种不同的连接方案


实现细节:

caffe toolbox in Matlab

i7 4.0GHz CPU

NVIDIA TITAN X GPU

VGG-16 backbone

1x1 convoluting layer to reduce the channels from 512 to 128(on conv5 3 and conv4 3)

 训练:adam

lr=8e-7 conv53

lr=2e-8 conv43,

when update, the lr is set to 2e-7 and 5e-9,

T=7,用前面7帧去预测后一帧图像得位置

标注用一个核大小为目标变长为0.1的2纬高斯函数生成

尺度方面, ratio=1.03,pyramid levels = 3,

5.7frames per second.

source code is :https://github.com/chaoma99/DSLT.

个人点评

复现思路:VGG 16做backbone,conv53与conv43做一些将channel然后做一个残差连接方案

标注的生成就用二维高斯模型来生成所谓的软标注

因为作者很巧妙的改动了loss和一个残差连接方案,改动量很小,这里除了可用matlab来实现,还可以用其他框架快速的做实验。

你可能感兴趣的:(利用基于收缩损失的深度回归做跟踪算法)