https://github.com/vision4robotics/DCFTracking4UAV
待复现网址:
21. https://github.com/594422814/MCCT
https://github.com/52CV/CVPR-2022-Papers
https://hub.xn–p8jhe.tw/DWCTOD/CVPR2022-Papers-with-Code-Demo
https://zhuanlan.zhihu.com/p/394007579
作者团队:华侨大学&中科院&哈工大&鹏城实验室&厦门大学等
论文链接:https://arxiv.org/abs/2003.06761
代码链接:https://github.com/hqucv/siamban
注:表现SOTA!速度高达40 FPS!性能优于DiMP、SiamRPN++和ATOM等网络。
大多数现有的跟踪器通常依赖于多尺度搜索方案或预定义的anchor boxes来准确估计目标的尺度和长宽比。不幸的是,它们通常要求启发式的配置。为解决此问题,我们通过利用全卷积网络(FCN)的表征能力,提出了一个简单而有效的视觉跟踪框架(名为Siamese Box Adaptive Network,SiamBAN)。SiamBAN将视觉跟踪问题视为并行分类和回归问题,因此可以直接对对象进行分类,并在统一的FCN中对它们的边界框进行回归。无先验box 设计避免了与候选box 相关的超参数,从而使SiamBAN更加灵活和通用。在包括VOT2018,VOT2019,OTB100,NFS,UAV123和LaSOT在内的视觉跟踪基准上进行的大量实验表明,SiamBAN具有最先进的性能并以40 FPS的速度运行,证实了其有效性和效率。
这个图很有意思!
作者团队:牛津大学VGG组
论文链接:https://arxiv.org/abs/2002.07793
代码链接:https://github.com/zlai0/MAST
注:自监督目标跟踪新网络,表现SOTA!性能优于UVC、CorrFlow和CycleTime等网络,且接近监督类跟踪网络。
最近自监督密集跟踪的工作已取得了快速的进展,但是性能仍然远远达不到监督方法。我们提出了一种在视频上训练的密集跟踪模型,该视频模型没有任何标注,可以在现有基准上大大超过以前的自监督方法(+15%),并且可以达到与监督方法相当的性能。在本文中,我们首先通过进行彻底的实验,最终阐明最佳选择,来重新评估用于自监督训练和重建损失的传统选择。其次,我们通过使用关键的内存组件扩展我们的体系结构,进一步改进了现有方法。第三,我们以大规模的半监督视频对象分割(也称为密集跟踪)为基准,并提出了一个新的度量标准:generalizability。
作者团队:苏黎世联邦理工学院
论文链接:https://arxiv.org/abs/2003.12565
代码链接:https://github.com/visionml/pytracking
注:在六大数据集上,表现SOTA!性能优于DiMP、ATOM和SiamRPN++等网络,代码现已开源!
从根本上说,视觉跟踪是在每个视频帧中使目标状态回归的问题。尽管已经取得了重大进展,但跟踪器仍然容易出现故障和不准确之处。因此,至关重要的是在目标估算中表示不确定性。尽管当前的主要范式依赖于估计与状态有关的置信度得分,但是该值缺乏明确的概率解释,使它的使用变得复杂。因此,在这项工作中,我们提出了概率回归(probabilistic regression)公式,并将其应用于跟踪。我们的网络会根据输入图像预测目标状态的条件概率密度。至关重要的是,我们的方法能够对由于任务中不正确的标注和歧义而产生的标签噪声进行建模。通过最小化Kullback-Leibler散度来训练回归网络。当应用于跟踪时,我们的公式不仅允许输出的概率表示,而且还可以显着提高性能。我们的跟踪器在六个数据集上设置了最新的技术,在LaSOT上实现了59.8%的AUC,在TrackingNet上实现了75.8%的成功。
作者团队:同济大学&新加坡国立大学&清华大学
论文链接:https://arxiv.org/abs/2003.12949
代码链接:https://github.com/vision4robotics/AutoTrack
注:无人机目标跟踪新网络,在CPU上高达 60 FPS!性能优于ECO-HC、ARCF-HC等网络
现有的大多数基于判别相关滤波器(DCF)的跟踪器试图引入预定义的正则化项以改善目标对象的学习,例如,通过抑制背景学习或通过限制相关滤波器的变化率。但是,预定义的参数在调整它们时会花费很多精力,并且它们仍然无法适应设计人员没有想到的新情况。在这项工作中,提出了一种新颖的方法来自动在线自适应地学习时空正则项。引入空间局部响应图变化作为空间正则化,以使DCF专注于对象的可信赖部分的学习,而全局响应图变化确定滤波器的更新率。与基于CPU和GPU的最新跟踪器相比,在四个UAV基准上进行的广泛实验证明了我们方法的优越性,在单个CPU上每秒可运行约60帧。我们的跟踪器还被建议用于无人机定位。在室内实际场景中进行的大量测试证明了我们的定位方法的有效性和多功能性。
作者团队:大连理工大学(卢湖川组)&鹏城实验室等
论文链接:https://arxiv.org/abs/2004.00305
代码链接:https://github.com/Daikenan/LTMU
注:表现SOTA!性能优于SiamRPN++、SPLT和MBMD等网络中文解读:CVPR 2020(Oral) | LTMU:给跟踪器学习一个长时更新控制器
长时(Long-term)视觉跟踪引起了越来越多的关注,因为它比短时跟踪更接近实际应用。大多数排名靠前的长时跟踪器采用离线训练的Siamese 体系结构,因此,他们无法从在线更新的短时跟踪器的巨大进步中受益。但是,由于长时的不确定性和嘈杂的观察,直接引入基于在线更新的跟踪器来解决长时问题是非常冒险的。在这项工作中,我们提出了一种新颖的离线训练型Meta-Updater,以解决一个重要但尚未解决的问题:跟踪器是否准备好在当前框架中进行更新?提出的Meta-Updater可以按顺序有效地集成几何,判别和外观提示,然后使用设计的级联LSTM模块挖掘顺序信息。我们的Meta-Updater学习二进制输出以指导跟踪器的更新,并且可以轻松地嵌入到不同的跟踪器中。这项工作还介绍了一个长时跟踪框架,该框架由在线本地跟踪器,在线验证器,基于SiamRPN的重新检测器和我们的元更新器组成。在VOT2018LT,VOT2019LT,OxUvALT,TLP和LaSOT基准测试中的大量实验结果表明,我们的跟踪器的性能明显优于其他竞争算法。
作者团队:大连理工大学(卢湖川组)&鹏城实验室等
论文链接:https://arxiv.org/abs/2003.09595
代码链接:https://github.com/MasterBin-IIAU/CSA
注:本文提出一种针对 SiamRPN++ 的对抗攻击算法,可以使SiamRPN++跟踪器的性能大幅度下降。
这攻击的酸爽
作者团队:亚琛工业大学(RWTH)&牛津大学
主页链接:https://www.vision.rwth-aachen.de/page/siamrcnn论文链接:https://arxiv.org/abs/1911.12836
代码链接:https://github.com/VisualComputingInstitute/SiamR-CNN
注:Siam R-CNN性能优于 SiamRPN++、DiMP和SiamFC等网络
作者团队:腾讯AI Lab&香港城市大学&滴滴出行论文链接:https://arxiv.org/abs/1907.12006
代码链接:https://github.com/skyoung/ROAM
注:在OTB、VOT等数据集上,表现SOTA!性能优于MetaTracker、DaSiamRPN和MDNet等网络
在本文中,我们设计了一个由响应生成和边界框回归组成的跟踪模型,其中第一个组件产生一个热图,以指示物体在不同位置的存在,第二部分将相对边界框位移回归到在其上的anchor滑动窗口位置。由于两个组件都使用了可调整大小的卷积filter来适应对象的形状变化,因此我们的跟踪模型无需枚举大小不同的anchor,从而节省了模型参数。为了有效地使模型适应外观变化,我们建议离线训练循环神经优化器以在元学习设置中更新跟踪模型,这可以在几个梯度步骤中使模型收敛。这提高了更新跟踪模型的收敛速度,同时获得了更好的性能。我们在OTB,VOT,LaSOT,GOT-10K和TrackingNet基准测试中对我们的跟踪器ROAM和ROAM++进行了广泛的评估,并且我们的方法相对于最新的算法表现良好。
ROAM++
作者团队:卢布尔雅那大学等
论文链接:https://arxiv.org/abs/1911.08862
代码链接:https://github.com/alanlukezic/d3s
注:性能优于SiamRPN++、ATOM和SiamMask等网络,速度可达25 FPS!
基于模板的判别式跟踪器由于其健壮性目前是主要的跟踪范例,但仅限于边界框跟踪和有限范围的转换模型,这降低了其定位精度。我们提出了一种判别式的single-shot分割跟踪器-D3S,它缩小了视觉对象跟踪和视频对象分割之间的差距。Single-shot网络应用两个具有互补几何特性的目标模型,一个对广泛的变换(包括非刚性变形)保持不变,另一个模型则假定为刚性对象,以同时实现高鲁棒性和在线目标分割。D3S无需按数据集进行微调,并且仅针对分割进行训练作为主要输出,因此在VOT2016,VOT2018和GOT-10k基准测试中,其性能均优于所有跟踪器,并且在TrackingNet上的性能接近最先进的跟踪器。D3S在视频对象分割基准上胜过领先的分割跟踪器SiamMask,并且与顶级视频对象分割算法表现相当,同时运行速度快了一个数量级,接近实时。