利用人工智能分析视频行为

随着人工智能的发展,特别是越来越准确的各类行为及物品识别的发展让软件自动识别视频成为了一种可能。如行人行为分析,课堂教学分析,人流车流拥堵分析。值班人员状态分析,驾驶人员疲劳分析等。由于这些一般都是实时或以视频形式出现,所以就要利用视频处理技术和人工智能识别技术相结合的方式来解决这些问题。用的技术有opencv.ffmpeg,yolo.人脸识别,ocr等等。(全文以各种开源技术应用为主,感谢各开源作者的贡献)
  ffmpeg是视频处理的基础。opencv是处理图像的基础。yolo.人脸识别,ocr等是识别分析技术。在opencv可以直接使用dnn加载各种模型处理后。有些识别技术可以由opencv 直接来实现。下面就以一个实例来实现分析视频行为来进行视频分类。
  总体设计思路,先以指定的间隔时间提取视频图像。比如隔30秒提取一次,这个一个30分钟的视频提取图片数为60张。然后按提取顺序进行图像中行为分析。如有人正面人脸,有无人头,有无站立的人。有无教学白板。等等。(这里处理的是一个教学视频行为判断)。根据st教学法的判断方法,最后得出视频的类型。如下图。
  利用人工智能分析视频行为_第1张图片
  
  视频图像分析
  
  利用人工智能分析视频行为_第2张图片
  分析图中的听课的人,讲授的人,白板等。
  得到分析的数据,用qchart作出st图

利用人工智能分析视频行为_第3张图片
分析完的图片保存分析结果
利用人工智能分析视频行为_第4张图片
用qchart做出实时st图。
利用人工智能分析视频行为_第5张图片
用qchart做出标准st图。
利用人工智能分析视频行为_第6张图片

得出分析结果。
利用人工智能分析视频行为_第7张图片

根据以上分析的流程和原理。可以将视频分析用于行人行为分析,鉴黄分析等等应用。

你可能感兴趣的:(算法成品化,人工智能,应用解决方案,人工智能,视频行为分析,qt,opencv)