视频分析:基于目标检测(YOLO)实现走路看手机检测、玩手机检测、跌倒检测等

文章大纲

  • 背景
  • 行为检测的定义与挑战
  • 视频分析数据集
  • 目标检测数据集
    • 自制数据集思路
    • Kaggle 数据集
    • COCO 数据集
    • Open Images Dataset V7
  • 人类行为视频分析
  • yolo 进行行为分析的检测
  • 看手机行为检测 -- 方法与数据集
    • 方法
    • 数据集
  • 跌倒行为检测 -- 方法与数据集
    • 跌倒检测 - 数据集
    • 跌倒检测 - 目标检测
    • 跌倒检测 - 姿态估计
  • 参考文献与学习路径


背景

行为检测在自动驾驶、视频监控等领域的广阔应用前景使其成为了视频分析的研究热点。近年来,基于深度学习的方法在行为检测领域取得了巨大的进展,引起了国内外研究者的关注

行为检测也是目前视频理解方向的研究主要热点,因为该任务更加贴近生活,在监控安防中有潜在的巨大价值。但是相比于行为分类,行为检测难度更高,不仅需要定位视频中可能存在行为动作的视频段,还需要将其分类。而定位存在行为动作的视频段是一个更加艰巨的任务。

因为行为检测任务有点类似于目标检测任务,都是需要先定位目标,然后识别目标。所以目前很多行为检测方法都是借鉴于目标检测,主要思想基本上是Temporal Proposal提取,然后进行分类与回归操作。这类方法包含,利用Faster R-CNN框架思路,利用SSD框架思路,还有基于TAG网络等等。还有一类方法是基于C3D做帧分类(Frame Label),然后预测存在行为的视频段并分类,例如2017年ICCV的CDC网络。

行为检测的定义与挑战

行为检测任务可以分为

  • 时序行为检测( temporal action detection)
  • 时空行为检测( spatio-temporal action detection)

你可能感兴趣的:(人工智能系统解决方案与技术架构,音视频,深度学习,人工智能)