(16)YOLOv5应用实例之定位标识点并记录轨迹、特征匹配、计算制动距离

YOLOv5应用实例之定位标识点并记录轨迹、特征匹配、计算制动距离

  • 传统特征检测与匹配算法对相关图像的分析大都依据图像梯度获得的特征描述子,如SIFTSURFORB等,常被用于图像匹配、拼接或者光流法为基础的目标跟踪算法实现。

  • 但在一些复杂场景中,我们想要提取特定位置的特定关键点/特征点,照旧计算原始整幅图像的特征点是耗时且效果不佳的,于是深度学习中的目标检测算法给出了很好的解决方案,尤其是针对小目标检测效果较好的网络,可直接通过目标检测对感兴趣区域ROI进行定位,然后对ROI中的特征点通过图像处理方法分割、拟合算法获取

  • 本文通过YOLOv5实现对特征点的提取,然后通过其在运动过程中的轨迹来分析并计算制动距离,具体步骤如下:

      1. 模型训练:对包含标识点的区域进行标注(位置、大小尽量一致)
      1. 模型推理:导入最佳权重,yolov5检测进行封装
      1. 批量测试:读入视频,对每帧进行目标检测,对ROI区域进行阈值分割、拟合得到特征点,并记录坐标变化offset来判断速度大小,通过分析其运动轨迹得到制动位置,并进一步计算出制动距离
      1. 将以上算法集成到pyqt中

实现效果如下&#x

你可能感兴趣的:(#,运动目标检测,人工智能,计算机视觉,目标跟踪,目标检测,人工智能,yolov5)