目标追踪:使用ByteTrack进行目标检测和跟踪

BYTE算法是一种简单而有效的关联方法,通过关联几乎每个检测框而不仅仅是高分的检测框来跟踪对象。这篇博客的目标是介绍ByteTrack以及多目标跟踪(MOT)的技术。我们还将介绍在样本视频上使用ByteTrack跟踪运行YOLOv8目标检测。

多目标跟踪(MOT)

你可能听说过目标检测,有许多算法如Faster RCNN、SSD和YOLO的各个版本,它们可以以很高的准确性检测物体。但有一个更新的问题是多目标跟踪。基本上,你将传递一个视频流,对于每一帧,你需要检测对象并分配一个“对象ID”,在下一帧中,如果检测到相同的对象,需要分配相同的对象ID。有许多用于MOT的算法,如SORT(简单在线和实时跟踪)、DeepSort、StrongSort等。

有各种用于目标跟踪的方法,包括:

1. 基于特征的跟踪:这涉及基于其特征(如颜色、形状、纹理等)进行跟踪。

2. 模板匹配:正如其名称所示,该方法使用预定义的模板在每个视频序列中进行匹配。

3. 相关性跟踪:该方法用于计算目标对象与后续帧中候选区域的相似性。

4. 基于深度学习的跟踪:该方法使用在大型数据集上训练的神经网络,以实时检测和跟踪对象。

在你可能对MOT有了一些基本的了解。让我们尝试进入ByteTrack并尝试理解为什么它是比DeepSort等更好的目标跟踪。

ByteSort

首先,我们将了解先前MOT算法的问题,然后理解ByteSort的逻辑。

其他MOT算法的问题:

  • 低置信度检测框:其他MOT算法的第一个问题是删除低置信度的检测框。而ByteTrack考虑了低置信度的检测框。为什么呢?

因为低置信度的检测框有时表示物体的存在,例如被遮挡的物体。过滤这些对象会在MOT中引入不可逆的错误,导致不可忽视的漏检和碎片化的轨迹。让我们通过例子来理解:

目标追踪:使用ByteTrack进行目标检测和跟踪_第1张图片

Detection boxes

 如图 t1 中所示,我们初始化三个不同的tracklet,因为它们的分数高于0.5。但在 t2 和 t3 中,分数从 0.8 下降到 0.4,然后再下降到 0.1。

目标追踪:使用ByteTrack进行目标检测和跟踪_第2张图片

Tracklets by associating high scores detection boxes

 这些检测框将通过阈值机制被消除,红色轨迹随之消失,如图 b 所示。但如果我们考虑所有的检测框,将引入更多的假阳性,例如图 a 中最右侧的框。这带来了第二个问题:

  • 假阳性边框的考虑:在这里识别到与tracklets相似性提供了在低分检测框中区分对象和背景的强关联。

目标追踪:使用ByteTrack进行目标检测和跟踪_第3张图片

Tracklets by associating every detection boxes

例如,如图 c 所示,通过运动预测的框(虚线)将两个低分检测框与tracklets匹配,从而正确恢复了对象。由于背景框没有匹配的tracklet,因此将其移除。因此,为了在匹配过程中使用高分到低分的检测框,这种简单而有效的关联方法被称为BYTE,因为每个检测框是tracklet的基本单元。

首先,它根据运动或外观相似性将高分检测框与tracklets匹配。然后,它采用卡尔曼滤波器来预测tracklets在下一帧的位置。然后,可以使用IoU或Re-ID特征距离计算预测框与检测框之间的相似性。在第二个匹配步骤中,使用相同的运动相似性匹配低分检测和未匹配的tracklets,即红框中的tracklets。让我们尝试理解数据关联,这是MOT算法的核心。

数据关联

这是多目标跟踪的核心,首先计算tracklets和检测框之间的相似性,并根据相似性应用不同的策略进行匹配。

  • 相似性度量:对于关联,位置、运动和外观是三个重要的线索。SORT以非常简单的方式使用位置和运动线索。它采用卡尔曼滤波器来预测下一帧中的tracklets,然后计算检测框和预测框之间的IoU作为相似性。但是位置和运动线索适用于短程匹配。但对于长程匹配,外观相似性是有帮助的。例如,长时间被遮挡的对象将使用外观相似性进行识别。外观相似性通过Re-ID特征的余弦相似度来计算。DeepSort使用一个独立的深度学习模型进行外观相似性。

  • 匹配策略:在相似性计算后,匹配策略用于为对象分配ID。这可以通过匈牙利算法或贪婪分配来完成。SORT通过一次匹配将检测框与tracklets匹配。而DeepSort使用级联匹配策略,首先将检测框与最近的trackers匹配,然后匹配失去的tracklets。

BYTE算法

目标追踪:使用ByteTrack进行目标检测和跟踪_第4张图片

(d)BYTETrack的伪代码。(绿色是该方法的关键)

BYTE算法的输入是视频序列和检测器。还有一个检测阈值。该算法输出视频的轨迹T,每一帧包含对象的边界框和ID。对于视频中的每一帧,首先使用检测器Det预测检测框和预测分数。然后根据检测分数阈值将检测框分为Det(high)和Det(low)两类。

在分离了检测框之后,对每个轨迹T应用卡尔曼滤波器来预测当前帧的新位置。首先,在高检测框上应用关联,然后在剩余的低检测框上应用关联。BYTE的主要亮点是,它非常灵活,可以与不同的关联方法兼容。

性能

ByteTrack优于SORT和DeepSORT算法。ByteTrack的MOTA(多目标跟踪准确性)为76.6,而SORT和DeepSort分别为74.6和75.4。现在,你可能已经理解了ByteTrack的主要概念。我想这很简单。让我们尝试在实际项目中应用它。

使用YOLOv8检测器的ByteTrack

在这里,我们将看到如何使用YOLOv8检测器跟踪道路上的车辆,并计算进出的车辆数。

目标追踪:使用ByteTrack进行目标检测和跟踪_第5张图片

如你所见,每辆新车都被分配了一个ID、一个类名和检测概率。使用in和out,你可以看到进出交通的计数。让我们看看这个实现的代码:

import supervision as sv
from ultralytics import YOLO 
from tqdm import tqdm
import argparse
import numpy as np


tracker = sv.ByteTrack() 
def process_video(
        source_weights_path: str, 
        source_video_path: str,
        target_video_path: str, 
        confidence_threshold: float = 0.3,
        iou_threshold: float = 0.7
) -> None:
    model = YOLO(source_weights_path)       # Load YOLO model 
    classes = list(model.names.values())    # Class names 
    LINE_STARTS = sv.Point(0,500)           # Line start point for count in/out vehicle
    LINE_END = sv.Point(1280, 500)          # Line end point for count in/out vehicle
    tracker = sv.ByteTrack()                # Bytetracker instance 
    box_annotator = sv.BoundingBoxAnnotator()     # BondingBox annotator instance 
    label_annotator = sv.LabelAnnotator()         # Label annotator instance 
    frame_generator = sv.get_video_frames_generator(source_path=source_video_path) # for generating frames from video
    video_info = sv.VideoInfo.from_video_path(video_path=source_video_path)
    line_counter = sv.LineZone(start=LINE_STARTS, end = LINE_END)
    line_annotator = sv.LineZoneAnnotator(thickness=2, text_thickness=2, text_scale= 0.5)


    with sv.VideoSink(target_path=target_video_path, video_info=video_info) as sink:
        for frame in tqdm(frame_generator, total= video_info.total_frames):
            # Getting result from model
            results = model(frame, verbose=False, conf= confidence_threshold, iou = iou_threshold)[0] 
            detections = sv.Detections.from_ultralytics(results)    # Getting detections
            #Filtering classes for car and truck only instead of all COCO classes.
            detections = detections[np.where((detections.class_id==2)|(detections.class_id==7))]
            detections = tracker.update_with_detections(detections)  # Updating detection to Bytetracker
            # Annotating detection boxes
            annotated_frame = box_annotator.annotate(scene = frame.copy(), detections= detections) 


            #Prepare labels
            labels = []
            for index in range(len(detections.class_id)):
                # creating labels as per required.
                labels.append("#" + str(detections.tracker_id[index]) + " " + classes[detections.class_id[index]] + " "+ str(round(detections.confidence[index],2)) )
            
            # Line counter in/out trigger
            line_counter.trigger(detections=detections)
            # Annotating labels
            annotated_label_frame = label_annotator.annotate(scene=annotated_frame, detections=detections, labels=labels)
            # Annotating line labels
            line_annotate_frame = line_annotator.annotate(frame=annotated_label_frame, line_counter=line_counter)
            sink.write_frame(frame = line_annotate_frame)


if __name__ == "__main__":
    parser = argparse.ArgumentParser("video processing with YOLO and ByteTrack") 
    parser.add_argument(
        "--source_weights_path",
        required=True,
        help="Path to the source weights file",
        type=str
    )
    parser.add_argument(
        "--source_video_path",
        required=True, 
        help="Path to the source video file",
        type = str
    )
    parser.add_argument(
        "--target_video_path",
        required=True,
        help="Path to the target video file",
        type= str
    )
    parser.add_argument(
        "--confidence_threshold",
        default = 0.3,
        help= "Confidence threshold for the model",
        type=float
    )
    parser.add_argument(
        "--iou_threshold",
        default=0.7,
        help="Iou threshold for the model",
        type= float
    )
    args = parser.parse_args() 
    process_video(
        source_weights_path=args.source_weights_path, 
        source_video_path= args.source_video_path,
        target_video_path=args.target_video_path, 
        confidence_threshold=args.confidence_threshold,
        iou_threshold=args.iou_threshold
    )

在这里,我使用了YOLOv8 Ultralytics库来加载在COCO数据集上训练的YOLO模型。Supervision库用于加载ByteTrack和其他视觉任务,如标注、车辆计数等。

你只需通过传递视频作为输入运行此命令:

python sv_bytetracker_yolo.py --source_weights_path yolov8m.pt --source_video_path test_video.mp4 --target_video_path test_pred.mp4 --confidence_threshold 0.1

如果你想跟踪其他类别,可以从代码中删除类别过滤器。

应用场景

因此,我们已经完全了解了ByteTrack。它可以在各种应用和行业中使用,例如:

1. 汽车行业:用于跟踪道路上的车辆进行交通分析,例如任何车辆是否朝错误的方向行驶,四路口的交通情况等。

2. 生产行业:可以在生产线上用于计数和跟踪生产物品。

3. 购物中的客户互动:跟踪客户的移动,了解客户对哪种产品或哪个类别更感兴趣。他们持有产品的时间有多长,最终是购买还是放回货架。

4. 增强客户体验:在客户看起来困惑或寻找产品时间过长时进行识别。

总结

1. 有各种MOT模型,如SORT、DeepSort、ByteTrack等。

2. 有各种用于对象跟踪的方法/技术,包括基于特征的跟踪、模板匹配、相关性跟踪和基于深度学习的跟踪。

3. ByteTrack算法考虑了低分检测框(与高分检测框一起)进行对象跟踪。

4. 数据关联应用于每个检测。

5. 在数据关联中,生成了tracklet和检测框之间的相似性。然后根据相似性应用不同的策略进行匹配。

6. 相似性可以通过IoU或由卡尔曼滤波器的tracklet预测的Re-ID计算。

7. 对于长距离,外观相似性是有用的。

8. 在匹配策略中使用了匈牙利算法。

9.Byte首先对高分检测框应用关联,然后对低分检测框应用关联。

·  END  ·

HAPPY LIFE

目标追踪:使用ByteTrack进行目标检测和跟踪_第6张图片

本文仅供学习交流使用,如有侵权请联系作者删除

你可能感兴趣的:(目标检测,人工智能,计算机视觉)