视觉目标跟踪算法收集-实时更新

目标跟踪

  • 视觉目标跟踪算法
  • 2022年CVPR论文整理网址:
  • 2021 CVPR 目标跟踪 论文
  • 2020CVPR 目标跟踪 论文

视觉目标跟踪算法

https://github.com/vision4robotics/DCFTracking4UAV

  1. 目标跟踪方法总结 https://blog.csdn.net/u013187057/article/details/83866127
  2. 目标跟踪介绍(单目标) https://blog.csdn.net/aaaaaaabmm/article/details/93164447
  3. 目标跟踪简介 https://www.cnblogs.com/jjwu/p/8512730.html
  4. 计算机视觉目标跟踪的算法分类 https://www.cnblogs.com/wyuzl/p/6863784.html
  5. 计算机视觉中,目前有哪些经典的目标跟踪算法?(这个写的很好,一定要看)https://www.zhihu.com/question/26493945
  6. 深度学习中的快速目标跟踪 https://zhuanlan.zhihu.com/p/32489557
  7. 目标跟踪算法汇总(这个总结的很全面,实时更新)https://zhuanlan.zhihu.com/p/138321796
  8. Visual Tracking Paper List(晓~分享https://github.com/foolwood/benchmark_results
  9. computer vision笔记:目标跟踪的小总结https://gsy00517.github.io/computer-vision20200215214240/
  10. 目标跟踪检测算法(一)——传统方法 (这里介绍静态背景和动态背景中的传统目标跟踪方法(2010年以前)) https://blog.csdn.net/qq_34919792/article/details/89893214
  11. 目标跟踪检测算法(二)——检测与跟踪 (该阶段(2010-2012年)出现检测与跟踪相结合的算法,并出现了两种比较公认的分类,生成类和判别类,第一阶段方法属于生成类,经典的判别类方法有Struck和TLD)https://blog.csdn.net/qq_34919792/article/details/89893249
  12. 目标跟踪检测算法(三)——相关滤波与深度学习应用 (这里面主要讲述的是2012-至今(2019年)期间经典的目标跟踪算法,主要涉及相关滤波和深度学习算法,以及深度学习与相关滤波相结合算法的介绍)https://blog.csdn.net/qq_34919792/article/details/89893433
  13. 几篇目标跟踪论文http://www.cvl.isy.liu.se/research/objrec/visualtracking/
  14. WIN叔链接(NaiYan Wang)https://www.zhihu.com/people/naiyan-wang/posts http://www.winsty.net/
  15. 目标跟踪领域研究(一)Benchmark https://blog.csdn.net/weixin_44371785/article/details/106146586
  16. 当码网http://www.downma.com/article/291742210930190.html
  17. 目标跟踪CVPR,ICCV,ECCV文章及代码实时更新 https://blog.csdn.net/qq_17783559/article/details/82020940
  18. 大合集!近两年目标跟踪资源全汇总(论文、模型代码、优秀实验室) https://blog.csdn.net/weixin_47196664/article/details/108031055
  19. CVPR 2021 结果出炉!最新400篇CVPR’21论文分方向汇总(更新中)
    https://zhuanlan.zhihu.com/p/354043252
  20. computer vision笔记:目标跟踪的小总结 https://gsy00517.github.io/computer-vision20200215214240/

待复现网址:
21. https://github.com/594422814/MCCT

2022年CVPR论文整理网址:

https://github.com/52CV/CVPR-2022-Papers

https://hub.xn–p8jhe.tw/DWCTOD/CVPR2022-Papers-with-Code-Demo

2021 CVPR 目标跟踪 论文

https://zhuanlan.zhihu.com/p/394007579

2020CVPR 目标跟踪 论文

  1. SiamBAN:面向目标跟踪的Siamese Box自适应网络

作者团队:华侨大学&中科院&哈工大&鹏城实验室&厦门大学等

论文链接:https://arxiv.org/abs/2003.06761

代码链接:https://github.com/hqucv/siamban

注:表现SOTA!速度高达40 FPS!性能优于DiMP、SiamRPN++和ATOM等网络。

大多数现有的跟踪器通常依赖于多尺度搜索方案或预定义的anchor boxes来准确估计目标的尺度和长宽比。不幸的是,它们通常要求启发式的配置。为解决此问题,我们通过利用全卷积网络(FCN)的表征能力,提出了一个简单而有效的视觉跟踪框架(名为Siamese Box Adaptive Network,SiamBAN)。SiamBAN将视觉跟踪问题视为并行分类和回归问题,因此可以直接对对象进行分类,并在统一的FCN中对它们的边界框进行回归。无先验box 设计避免了与候选box 相关的超参数,从而使SiamBAN更加灵活和通用。在包括VOT2018,VOT2019,OTB100,NFS,UAV123和LaSOT在内的视觉跟踪基准上进行的大量实验表明,SiamBAN具有最先进的性能并以40 FPS的速度运行,证实了其有效性和效率。

这个图很有意思!

  1. MAST:具有记忆增强功能的自监督目标跟踪器

作者团队:牛津大学VGG组

论文链接:https://arxiv.org/abs/2002.07793

代码链接:https://github.com/zlai0/MAST

注:自监督目标跟踪新网络,表现SOTA!性能优于UVC、CorrFlow和CycleTime等网络,且接近监督类跟踪网络。

最近自监督密集跟踪的工作已取得了快速的进展,但是性能仍然远远达不到监督方法。我们提出了一种在视频上训练的密集跟踪模型,该视频模型没有任何标注,可以在现有基准上大大超过以前的自监督方法(+15%),并且可以达到与监督方法相当的性能。在本文中,我们首先通过进行彻底的实验,最终阐明最佳选择,来重新评估用于自监督训练和重建损失的传统选择。其次,我们通过使用关键的内存组件扩展我们的体系结构,进一步改进了现有方法。第三,我们以大规模的半监督视频对象分割(也称为密集跟踪)为基准,并提出了一个新的度量标准:generalizability。

  1. PrDiMP:目标跟踪的概率回归

作者团队:苏黎世联邦理工学院

论文链接:https://arxiv.org/abs/2003.12565

代码链接:https://github.com/visionml/pytracking

注:在六大数据集上,表现SOTA!性能优于DiMP、ATOM和SiamRPN++等网络,代码现已开源!

从根本上说,视觉跟踪是在每个视频帧中使目标状态回归的问题。尽管已经取得了重大进展,但跟踪器仍然容易出现故障和不准确之处。因此,至关重要的是在目标估算中表示不确定性。尽管当前的主要范式依赖于估计与状态有关的置信度得分,但是该值缺乏明确的概率解释,使它的使用变得复杂。因此,在这项工作中,我们提出了概率回归(probabilistic regression)公式,并将其应用于跟踪。我们的网络会根据输入图像预测目标状态的条件概率密度。至关重要的是,我们的方法能够对由于任务中不正确的标注和歧义而产生的标签噪声进行建模。通过最小化Kullback-Leibler散度来训练回归网络。当应用于跟踪时,我们的公式不仅允许输出的概率表示,而且还可以显着提高性能。我们的跟踪器在六个数据集上设置了最新的技术,在LaSOT上实现了59.8%的AUC,在TrackingNet上实现了75.8%的成功。

  1. AutoTrack:通过自动时空正则化实现无人机目标跟踪

作者团队:同济大学&新加坡国立大学&清华大学

论文链接:https://arxiv.org/abs/2003.12949

代码链接:https://github.com/vision4robotics/AutoTrack

注:无人机目标跟踪新网络,在CPU上高达 60 FPS!性能优于ECO-HC、ARCF-HC等网络

现有的大多数基于判别相关滤波器(DCF)的跟踪器试图引入预定义的正则化项以改善目标对象的学习,例如,通过抑制背景学习或通过限制相关滤波器的变化率。但是,预定义的参数在调整它们时会花费很多精力,并且它们仍然无法适应设计人员没有想到的新情况。在这项工作中,提出了一种新颖的方法来自动在线自适应地学习时空正则项。引入空间局部响应图变化作为空间正则化,以使DCF专注于对象的可信赖部分的学习,而全局响应图变化确定滤波器的更新率。与基于CPU和GPU的最新跟踪器相比,在四个UAV基准上进行的广泛实验证明了我们方法的优越性,在单个CPU上每秒可运行约60帧。我们的跟踪器还被建议用于无人机定位。在室内实际场景中进行的大量测试证明了我们的定位方法的有效性和多功能性。

  1. LTMU:使用Meta-Updater进行高性能的长时跟踪

作者团队:大连理工大学(卢湖川组)&鹏城实验室等

论文链接:https://arxiv.org/abs/2004.00305

代码链接:https://github.com/Daikenan/LTMU

注:表现SOTA!性能优于SiamRPN++、SPLT和MBMD等网络中文解读:CVPR 2020(Oral) | LTMU:给跟踪器学习一个长时更新控制器

长时(Long-term)视觉跟踪引起了越来越多的关注,因为它比短时跟踪更接近实际应用。大多数排名靠前的长时跟踪器采用离线训练的Siamese 体系结构,因此,他们无法从在线更新的短时跟踪器的巨大进步中受益。但是,由于长时的不确定性和嘈杂的观察,直接引入基于在线更新的跟踪器来解决长时问题是非常冒险的。在这项工作中,我们提出了一种新颖的离线训练型Meta-Updater,以解决一个重要但尚未解决的问题:跟踪器是否准备好在当前框架中进行更新?提出的Meta-Updater可以按顺序有效地集成几何,判别和外观提示,然后使用设计的级联LSTM模块挖掘顺序信息。我们的Meta-Updater学习二进制输出以指导跟踪器的更新,并且可以轻松地嵌入到不同的跟踪器中。这项工作还介绍了一个长时跟踪框架,该框架由在线本地跟踪器,在线验证器,基于SiamRPN的重新检测器和我们的元更新器组成。在VOT2018LT,VOT2019LT,OxUvALT,TLP和LaSOT基准测试中的大量实验结果表明,我们的跟踪器的性能明显优于其他竞争算法。

  1. Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises

作者团队:大连理工大学(卢湖川组)&鹏城实验室等

论文链接:https://arxiv.org/abs/2003.09595

代码链接:https://github.com/MasterBin-IIAU/CSA

注:本文提出一种针对 SiamRPN++ 的对抗攻击算法,可以使SiamRPN++跟踪器的性能大幅度下降。

这攻击的酸爽

  1. Siam R-CNN:通过重新检测进行视觉跟踪

作者团队:亚琛工业大学(RWTH)&牛津大学

主页链接:https://www.vision.rwth-aachen.de/page/siamrcnn论文链接:https://arxiv.org/abs/1911.12836

代码链接:https://github.com/VisualComputingInstitute/SiamR-CNN

注:Siam R-CNN性能优于 SiamRPN++、DiMP和SiamFC等网络

  1. ROAM:循环优化目标跟踪模型

作者团队:腾讯AI Lab&香港城市大学&滴滴出行论文链接:https://arxiv.org/abs/1907.12006

代码链接:https://github.com/skyoung/ROAM

注:在OTB、VOT等数据集上,表现SOTA!性能优于MetaTracker、DaSiamRPN和MDNet等网络

在本文中,我们设计了一个由响应生成和边界框回归组成的跟踪模型,其中第一个组件产生一个热图,以指示物体在不同位置的存在,第二部分将相对边界框位移回归到在其上的anchor滑动窗口位置。由于两个组件都使用了可调整大小的卷积filter来适应对象的形状变化,因此我们的跟踪模型无需枚举大小不同的anchor,从而节省了模型参数。为了有效地使模型适应外观变化,我们建议离线训练循环神经优化器以在元学习设置中更新跟踪模型,这可以在几个梯度步骤中使模型收敛。这提高了更新跟踪模型的收敛速度,同时获得了更好的性能。我们在OTB,VOT,LaSOT,GOT-10K和TrackingNet基准测试中对我们的跟踪器ROAM和ROAM++进行了广泛的评估,并且我们的方法相对于最新的算法表现良好。

ROAM++

  1. D3S:判别式Single Shot分割目标跟踪器

作者团队:卢布尔雅那大学等

论文链接:https://arxiv.org/abs/1911.08862

代码链接:https://github.com/alanlukezic/d3s

注:性能优于SiamRPN++、ATOM和SiamMask等网络,速度可达25 FPS!

基于模板的判别式跟踪器由于其健壮性目前是主要的跟踪范例,但仅限于边界框跟踪和有限范围的转换模型,这降低了其定位精度。我们提出了一种判别式的single-shot分割跟踪器-D3S,它缩小了视觉对象跟踪和视频对象分割之间的差距。Single-shot网络应用两个具有互补几何特性的目标模型,一个对广泛的变换(包括非刚性变形)保持不变,另一个模型则假定为刚性对象,以同时实现高鲁棒性和在线目标分割。D3S无需按数据集进行微调,并且仅针对分割进行训练作为主要输出,因此在VOT2016,VOT2018和GOT-10k基准测试中,其性能均优于所有跟踪器,并且在TrackingNet上的性能接近最先进的跟踪器。D3S在视频对象分割基准上胜过领先的分割跟踪器SiamMask,并且与顶级视频对象分割算法表现相当,同时运行速度快了一个数量级,接近实时。

你可能感兴趣的:(深度学习,自动驾驶,目标跟踪)