使用高斯混合模型,对视频进行背景建模

建模方法

pdf已上传


帧差法
        由于场景中的目标在运动,目标的影像在不同图像帧中的位置不同。
        时间上连续的两帧图像进行差分运算,不同帧对应的像素点相减,判断灰度差的绝对值,当绝对值超过一定阈值时,即可判断为运动目标,从而实现目标的检测功能。
         缺点:会引入噪音和空洞问题

 混合高斯模型
定义
        对背景进行训练,对图像中每个背景采用一个混合高斯模型进行模拟,每个背景的混合高斯的个数可以自适应。
        测试阶段,对新来的像素进行GMM匹配,如果该像素值能够匹配其中一个高斯,则认为是背景,否则认为是前景。
        由于整个过程GMM模型在不断更新学习中,所以对动态背景有一定的鲁棒性。
        最后通过对一个有树枝摇摆的动态背景进行前景检测,取得了较好的效果。

学习方法:
        1.初始化每个高斯模型矩阵参数。
         2.取视频中T帧数据图像用来训练高斯混合模型。来了第一个像素之后用它来当做第一个高斯分布。一般设置3-5个高斯分布
         3.后面来的像素值,与前面已有的高斯的均值比较。如果该像素点的值与其模型均值差在3倍的方差内,则属于该分布,并对其进行参数更新。
         4.如果新的像素不满足当前高斯分布,则创建一个新的高斯分布。
测试方法 
         对新来像素点的值与混合高斯模型中的每一个均值进行比较,
         差值在2倍的方差之间的话,则是背景,否则是前景。


高斯混合模型代码

import numpy as np
import cv2
cap = cv2.VideoCapture('test.2.mp4')#测试视频
#视频自己找
kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE,(3,3))
#形态学操作需要使用
fgbg = cv2.createBackgroundSubtractorMOG2()
#创建混合高斯模型用于背景建模
while:
    ret, frame = cap.read()
    fgmask = fgbg.apply(frame)
    fgmask = cv2.morphologyEx(fgmask, cv2.MORPH_OPEN, kernel)
    #形态学开运算去噪点
     #若无则有许多噪音点
    im, contours, hierarchy = cv2.findContours(fgmask, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
     #寻找视频中的轮廓
     #计算轮廓
    for c in contours:
        #计算各轮廓的周长
        perimeter = cv2.arcLength(c,True)
        if perimeter > 188:
            #找到一个直矩形(不会旋转)
            x,y,w,h = cv2.boundingRect(c)
            #画出这个矩形
            cv2.rectangle(frame,(x,y),(x+w,y+h),(0,255,0),2)  
 #           展示视频
    cv2.imshow('frame',frame)
    cv2.imshow('fgmask', fgmask)
    k = cv2.waitKey(150) & 0xff
#                    读帧速度
    if k == 27:
        break

#停止捕获视频和关闭相应的显示窗口
cap.release()
cv2.destroyAllWindows()

你可能感兴趣的:(初次学习,opencv学习笔记,opencv,python)