Opencv之二帧差法运动目标检测与轮廓提取

Opencv学习之——二帧差法运动目标检测与轮廓提取
这是我的第一篇CSDN博文。
代码是从网上摘抄学习的,加了好多注释,感觉就像边看书边做笔记一样,给人以满足的享受。Let’s do this!

#include "highgui.h"
#include "cv.h"
#include "stdio.h"
#include 
#include 
#include 

const double MHI_DURATION=0.1;//运动跟踪的最大持续时间0.1s
const double MAX_TIME_DELTA=0.5//最大时间增量0.5s
const double MIN_TIME_DELTA=0.05;//最小时间增量0.05s
const int N=3;
const int CONTOUR_MAX_AERA=16;

/*做帧差时要用到的图像缓冲*/
IplImage **buf=0;
int last=0;
/*临时图像*/
IplImage* mhi=0;//运动历史图像mhi

CvConnectedComp* cur_comp,mincomp;
/*typedef struct CvConnectedComp 
  {
  double area;   //区域的面积
  CvScalar value;  //区域颜色的平均值
  CvRect rect;  //是一个区域的外接矩形
  CvSeq * contour;   //指向另一个序列的指针
  };*/
/*定义一个内存存储器*/
CvMemStorage* storage;
/*二维坐标系下的点,类型为整型,通常以0点为原点,有x、y坐标*/
CvPoint pt[4];

/*当前画面索引*/
int nCurFrameIndex=0;

/*定义用来更新运动历史图像的函数*/
/*img-输入视频帧;dst-检测结果*/
void update(IplImage *img,IplImage *dst,int diff_threshold)
{
    /*获得当前时间,单位是秒*/
    double timestamp=clock()/100;
    /*获得输入视频帧的尺寸,用存到size中*/
    CvSize size=cvSize(img->width,img->height);
    /*做帧差要用到的中间变量*/
    int i,idx1,idx2;
    /*当前帧与上一帧做帧差之后,得到的图像数据存储在nimg中*/
    IplImage* nimg;
    /*这步暂时没看懂- -!*/
    IplImage* pyr=cvCreateImage(cvSize((size.width&-2)/2,(size.height&-2)/2),8,1);
    /*定义一个内存存储器*/
    CvMemStorage* stor;
    /*创建一个可增长的序列seq*/
    CvSeq* seq;

    /*先进行数据的初始化*/
    /*如果历史图像为空,或者历史图像尺寸与输入的当前帧尺寸不吻合(这意味着打开了新的视频?)*/
    if(!mhi||mhi->width!=size.width||mhi->height!=size.height)
    {
        /*如果buf还未初始化,则为buf分配内存*/
        if(buf==0)
        {
            /*N=3*/
            buf=(IplImage**)malloc(N*sizeof(buf[0]));
            /*将指针s所指向的某一块内存中的每个字节的内容全部设置为ch指定的ASCII值,块的大小由第三个参数指定:memset(void *s,char ch,unsigned n)。此处作用相当于将buf内的元素全部置零*/
            memset(buf,0,N*sizeof(buf[0]));
        }
        /*若buf已经初始化了,也将buf置零*/
        for(i=0;i1);
           cvZero(buf[i]);
        }
        /*重新初始化运动历史图像mhi*/
        cvReleaseImage(&mhi);
        mhi=cvCreateImage(size,IPL_DEPTH_32F,1);
        cvZero(mhi);
    }

    /*将当前要处理的帧转化为灰度图,放到buf的最后一帧*/
    cvCvtColor(img,buf[last],CV_BGR2GRAY);
    /*这三部是为了做帧差,让buf[idx1]永远保存的是上一帧,buf[idx2]保存当前帧*/
    idx1=last;
    idx2=(last+1)%N;
    last=idx2;
    /*做帧差,函数 cvAbsDiff 计算两个数组差的绝对值*/
    nimg=buf[idx2];
    cvAbsDiff(buf[idx1],buf[idx2],nimg);
    /*帧差之后,将得到的图像二值化*/
    cvThreshold(nimg,nimg,50,255,CV_THRESH_BINARY);
    /*去掉超时的影像以更新运动历史图像*/
    cvUpdateMotionHistory(nimg,mhi,timestamp,MHI_DURATION);
    cvConvert(mhi,dst);
    /*中值滤波,消除小的噪声
    函数cvPyrDown使用Gaussian金字塔分解对输入图像向下采样,去除噪声,图像是原图像的四分之一
    函数cvDialate做膨胀操作,去除目标的不连续空洞
    函数cvPyrUp使用Gaussian金字塔分解对输入图像向上采样,恢复图像,图象是原图像的四倍*/
    cvSmooth(dst,dst,CV_MEDIAN,3,0,0,0);
    cvPyrDown(dst,pyr,CV_GAUSSIAN_5x5);
    cvDilate(pyr,pyr,0,1);
    cvPyrUp(pyr,dst,CV_GAUSSIAN_5x5);

    /*创建轮廓*/
    stor=cvCreateMemStorage(0);
    seq=cvCreateSeq(CV_SEQ_ELTYPE_POINT,//从预定义的序列类型中选择一合适的类型
    sizeof(CvSeq),//此参数表示序列头部的大小;必须大于或等于sizeof(CvSeq)
    /*第三个参数是元素的大小,以字节计。这个大小必须与序列类型(由seq_flags指定)相一致,例如,对于一个点的序列,元素类型 CV_SEQ_ELTYPE_POINT应当被指定,参数elem_size必须等同于sizeof(CvPoint)。
*/
    sizeof(CvPoint),
    stor);//指向前面定义的内存存储器的指针

    /*找到所有轮廓*/
    cvFindContours(dst,//源二值图像
    stor,//返回轮廓的容器
    &seq,//输出参数,第一个外接轮廓的地址。
    sizeof(CvContour),
    CV_RETR_EXTERNAL,//mode:EXTERNAL——只查找最外的轮廓
    CV_CHAIN_APPROX_NONE,//轮廓近似的方法,具体见百度百科- -
    cvPoint(0,0));

    /*直接用CONTOUR中的矩形来画轮廓*/
    /*遍历seq序列*/
    for(;seq;seq=seq->h_next)
    {
        /*直接使用轮廓的矩形,调取rect会得到与x、y轴平行的矩形,并非最小矩形*/
        CvRect r=((CvContour*)cont)->rect;//将序列类型转换成轮廓类型的指针?
        /*矩形的面积小于轮廓面积的话,舍弃;矩形面积也不能过小*/
        if((r.height*r.width>CONTOUR_MAX_AERA)&&(r.height*r.width>2560))
        {
            /*cvRectangle函数通过对角线两个顶点,绘制矩形*/
            cvRectangle(img,//图像
            cvPoint(r.x,r.y),//一个顶点
            cvPoint(r.x + r.width, r.y + r.height),//另一个顶点
            CV_RGB(255,0,0),//线条颜色
            1,//线条粗细程度
            CV_AA,//线条类型
            0); //坐标点的小数点位数
        }
    }

    /*函数调用完毕,释放内存*/
    cvReleaseMemStorage(&stor);
    cvReleaseImage(&pyr);
}

/处理视频,主函数/
int main(int argc,char**argv)
{
    IplImage *motion=0;
    CvCapture *capture=0;
    /*读取视频帧*/
    capture=cvCaptureFromFile("D:\\视频\\01.mp4");
    if(capture)
    {
        cvNamedWindow("Motion",1);
        for(;;)
        {
            IplImage *image;
            /*使用cvGrabFrame函数抓取帧*/
            if(!cvGrabFrame(capture))
                break;
            /*使用cvRetrieveFrame函数取回被cvGrabFrame抓取的帧*/
            image=cvRetrieveFrame(capture);
            if(image)
            {
                /*如果motion并未初始化,说明这是第一帧。我们将motion初始化*/
                if(!motion)
                {
                   motion=cvCreateImage(cvSize(image->width,image->height),8,1);
                   cvZero(motion);
                   /*需要保证内存存储的顺序和取出的帧相同*/
                   motion->origin=image->origin;
                }
            }
            /*若取出了新的一帧,而且motion不为空,则更新画面*/
            update(image,motion,10);
            /*显示处理过的图像*/
            cvShowImage("Motion",image);

            /*10ms内检测到用户按了任意键,均退出*/
            if(cvWaitKey(10)>=0)
                break;
        }
        /*当上面这个for循环执行结束时,说明视频已经处理完成或者用户停止处理视频了*/
        cvReleaseCapture(&capture);
        cvDestroyWindow("Motion");
    }
    return 0;
}

经过测试,这个程序能够成功检测并用红色方框圈出移动的车辆和行人。
待改进的地方有:①视频处理速度慢,导致视频处理速度只有视频正常播放速度的二分之一。
②对于行人的检测,画出的红色方框不稳定,不是将整个行人框出,经常会分别框出一个人的几个不同部位orz。
③当两个物体稍有重叠时,会将重叠物体当作一个物体圈出。

你可能感兴趣的:(opencv)