©作者 | 孙培泽
学校 | 香港大学
研究方向 | 计算机视觉
沿着多目标跟踪(MOT)中 tracking-by-detection 的范式,我们提出了一种简单高效的数据关联方法 BYTE。利用检测框和跟踪轨迹之间的相似性,在保留高分检测结果的同时,从低分检测结果中去除背景,挖掘出真正的物体(遮挡、模糊等困难样本),从而降低漏检并提高轨迹的连贯性。
BYTE 能轻松应用到 9 种state-of-the-art 的 MOT 方法中,并取得 1-10 个点不等的 IDF1 指标的提升。基于 BYTE 我们提出了一个跟踪方法 ByteTrack,首次以 30 FPS 的运行速度在MOT17 上取得 80.3 MOTA,77.3 IDF1 和 63.1 HOTA,目前位居 MOTChallenge 榜单第一。我们还在开源代码中加入了将 BYTE 应用到不同 MOT 方法中的教程以及 ByteTrack 的部署代码。
论文链接:
https://arxiv.org/abs/2110.06864
代码链接:
https://github.com/ifzhang/ByteTrack
▲ 纵轴是 MOTA,横轴是 FPS,圆的半径代表 IDF1 的相对大小
Tracking-by-detection 是 MOT 中的一个经典高效的流派,通过相似度(位置、外观、运动等信息)来关联检测框得到跟踪轨迹。由于视频中场景的复杂性,检测器无法得到完美的检测结果。
为了处理 true positive/false positive 的 trade-off,目前大部分 MOT 方法会选择一个阈值,只保留高于这个阈值的检测结果来做关联得到跟踪结果,低于这个阈值的检测结果直接丢弃。但是这样做合理吗?答案是否定的。黑格尔说过:“存在即合理。”低分检测框往往预示着物体的存在(例如遮挡严重的物体)。简单地把这些物体丢弃会给 MOT 带来不可逆转的错误,包括大量的漏检和轨迹中断,降低整体跟踪性能。
为了解决之前方法丢弃低分检测框的不合理性,我们提出了一种简单、高效、通用的数据关联方法 BYTE(each detection box is a basic unit of the tracklet, as byte in computer program)。直接地将低分框和高分框放在一起与轨迹关联显然是不可取的,会带来很多的背景(false positive)。
BYTE 将高分框和低分框分开处理,利用低分检测框和跟踪轨迹之间的相似性,从低分框中挖掘出真正的物体,过滤掉背景。整个流程如下图所示:
(1)BYTE 会将每个检测框根据得分分成两类,高分框和低分框,总共进行两次匹配。
(2)第一次使用高分框和之前的跟踪轨迹进行匹配。
(3)第二次使用低分框和第一次没有匹配上高分框的跟踪轨迹(例如在当前帧受到严重遮挡导致得分下降的物体)进行匹配。
(4)对于没有匹配上跟踪轨迹,得分又足够高的检测框,我们对其新建一个跟踪轨迹。对于没有匹配上检测框的跟踪轨迹,我们会保留 30 帧,在其再次出现时再进行匹配。
我们认为,BYTE 能 work 的原因是遮挡往往伴随着检测得分由高到低的缓慢降低:被遮挡物体在被遮挡之前是可视物体,检测分数较高,建立轨迹;当物体被遮挡时,通过检测框与轨迹的位置重合度就能把遮挡的物体从低分框中挖掘出来,保持轨迹的连贯性。
ByteTrack 使用当前性能非常优秀的检测器 YOLOX 得到检测结果。在数据关联的过程中,和 SORT 一样,只使用卡尔曼滤波来预测当前帧的跟踪轨迹在下一帧的位置,预测的框和实际的检测框之间的 IoU 作为两次匹配时的相似度,通过匈牙利算法完成匹配。这里值得注意的是我们没有使用 ReID 特征来计算外观相似度:
(1)第一点是为了尽可能做到简单高速,第二点是我们发现在检测结果足够好的情况下,卡尔曼滤波的预测准确性非常高,能够代替ReID进行物体间的长时刻关联。实验中也发现加入 ReID 对跟踪结果没有提升。
(2)如果需要引入 ReID 特征来计算外观相似度,可以参考我们开源代码中将 BYTE 应用到 JDE,FairMOT 等 joint-detection-and-embedding 方法中的教程。
(3)ByteTrack 只使用运动模型没有使用外观相似度能在 MOT17,20 取得高性能的本质原因是 MOT 数据集的运动模式比较单一(于是,我们提出了一个新数据 DanceTrack,彩蛋!)
ByteTrack 在 MOT 17 and MOT20 challenge 的效果:
ByteTrack 在故宫游玩时拍摄视频的效果(侵权删):
首先,我们使用 YOLOX 的检测结果,发现 BYTE 能够大幅领先 SORT,DeepSORT,MOTDT 等经典热门关联方法,对超参数也更加鲁棒,结果如下所示:
其次,我们将 BYTE 应用到了 ECCV20 之后的 9 种 SOTA tracker 上,其中包括基于 ReID, motion 和 attention 的方法,都得到了稳定的 MOTA 和 IDF1 指标的提升,结果如下表所示:
最后,ByteTrack 在 MOT17 和 MOT20 上都达到了榜单第一,并且速度在当前所有方法中也达到第一(30 FPS)。
多目标追踪场景中,大部分遮挡物体的检测结果都是低分框,ByteTrack 非常简洁的从低分检测框中寻找遮挡的物体,对遮挡非常鲁棒。ByteTrack 同时也为如何最大程度利用检测结果来帮助 MOT 提供了启发。我们也提供了 ByteTrack 的部署代码和模型,希望它的高精度、高速度能够对实际应用带来帮助。
ByteTrack 在 MOT17,20 的表现启发我们重新思考多目标追踪中的运动模型与 re-ID 模型。当前众多跟踪模型强依赖于提取物体的外观特征,那如果追踪物体的外观基本一致时,现有模型的的表现如何?当前主流多目标跟踪数据集中物体的运动模式非常简单,近乎匀速直线运动,如果物体的运动模式非常复杂,多个物体互相来回穿梭,现有模型的的表现如何?我们提出了一个数据集:
DanceTrack: tracking multiple objects in uniform appearance and diverse motion
正在准备中,欢迎大家届时关注。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
投稿通道:
• 投稿邮箱:[email protected]
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
·