单目标跟踪常用的数据集有两个:OTB、VOT
两个数据集的评价指标不同。先大概介绍下两个数据集,再介绍评价指标。
Online Object Tracking Benckmark
官网:Visual Tracker Benchmark
分为OTB50和OTB100,表示数据集里的视频数量分别为50个和100个(OTB100包括OTB50)
特点:
关于该数据集的两篇论文 :
Online Object Tracking:A Benchmark
Object Tracking Benchmark
链接: https://pan.baidu.com/s/18TnATmYtM_jESa8TNHgqKA
密码: 92nj
Online Object Tracking : A Benchmark 翻译
Visual Object Tracking
数据集网址:VOT2021 Challenge |Dataset
数据集的使用:VOT Challenge| Setting up VOT workspace
特点:
精确度图反映:中心位置误差小于给定阈值的视频帧的百分比曲线。
中心位置误差:跟踪的中心位置(bounding box)和准确的中心位置(ground-truth)之间的平均欧氏距离。
横坐标:给定阈值
纵坐标:百分比
Precision:精度图中阈值为20时的值
APE(平均像素误差 Average Pixel Error):中心位置误差按帧取平均
成功率图反映:边框重叠率大于给定阈值的视频帧的百分比曲线。
边界框的重叠率(Overlap Score,OS):S = |γt∩γa | / |γt∪γa |,γt为跟踪的边界框,γa为准确的边界框,| · |指区域内的像素点个数。即:重叠率=两个边界框交集内的像素点个数/两个边界框并集内的像素点个数。
横坐标:给定阈值
纵坐标:百分比
AUC:成功率图的曲线下面积
AOR(平均重叠率 Average Overlap Rate):边界框的重叠率按帧取平均
* Precision Plot和Success Plot都是从视频第一帧开始,且用ground-truth中目标的位置初始化。这种方法被称为OPE(One-Pass Evaluation)。 以下两种均为非OPE的评价方式。
将视频序列在时间轴上平均找出20个点作为起点,终点还是原来的最后一帧。以ground-truth作为初始化位置。通过对20段视频序列运行算法,绘制平均的精确度图或成功率图。
TRE score:以上结果的平均值
从第一帧开始,以真实位置稍作偏移作为初始化位置,测试12段(8个方向,4个尺度),绘制平均的精确度图或成功率图。
SRE score:以上结果的平均值
在单个测试序列下的平均重叠率(即AOR),只考虑有效帧,即跟踪成功的帧。
在单个测试序列下的跟踪失败的次数。重叠率为0即为跟踪失败。跟丢后序列中止,5帧后重启。
用于衡量跟踪速度。为减少硬件平台和编程语言等外在因素对跟踪速度的影响,先测量在一个600*600的灰度图像上用30*30最大值滤波器进行滤波的时间,作为基准单位,再以这个基准单位衡量跟踪的速度。
EFO:speed = 跟踪算法耗时/滤波时间
反映序列长度与平均准确率的关系,同时考虑准确率和鲁棒性。将所有序列按长度分类,相同长度的序列测得的准确率取平均。以长度为横坐标,平均准确率为纵坐标绘图。
EAO(平均重叠期望 Expected Average Overlap):不同长度序列求得的准确率平均值再取平均
VOT普遍质量较高,如果只能选一个数据集,建议VOT。
如果选OTB,不同算法间比较AUC、SPEED(fps)
如果选VOT,不同算法间比较EAO、A、R、EFO