目标检测学习_1(用opencv自带hog实现行人检测)


  本文主要介绍下opencv中怎样使用hog算法,因为在opencv中已经集成了hog这个类。其实使用起来是很简单的,从后面的代码就可以看出来。本文参考的资料为opencv自带的sample

   关于opencv中hog的源码分析,可以参考本人的另一篇博客:opencv源码解析之(6):hog源码分析

  开发环境:opencv2.4.2+Qt4.8.2+ubuntu12.04+QtCreator2.5.

 

  实验功能:

  单击Open Image按钮,选择需要进行人检测的一张图片,确定后自动显示出来。该图片的大小没限制。

  单击People Detect按钮,则程序会自动对该图片进行行人检测,且将检测到的效果显示出来,即用1个矩形框将行人框出来。

  单击Close按钮,退出程序。

 

  实验说明:

  1. hog描述子在opencv中为HOGDescriptor

  2. 可以调用该描述子setSVMDetector方法给用于对hog特征进行分类的svm模型的系数赋值,这里的参数为HOGDescriptor::getDefaultPeopleDetector()时表示采用系统默认的参数,因为这些参数是用很多图片训练而来的。  

  3. 对输入图片进行行人检测时由于图片的大小不一样,所以要用到多尺度检测。这里是用hog类的方法detectMultiScale。参数解释如下:

HOGDescriptor::detectMultiScale(const GpuMat& img, vector<Rect>& found_locations, doublehit_threshold=0, Size win_stride=Size(), Size padding=Size(), double scale0=1.05, int group_threshold=2)

  该函数表示对输入的图片img进行多尺度行人检测 img为输入待检测的图片;found_locations为检测到目标区域列表;参数3为程序内部计算为行人目标的阈值,也就是检测到的特征到SVM分类超平面的距离;参数4为滑动窗口每次移动的距离。它必须是块移动的整数倍;参数5为图像扩充的大小;参数6为比例系数,即滑动窗口每次增加的比例;参数7为组阈值,即校正系数,当一个目标被多个窗口检测出来时,该参数此时就起了调节作用,为0时表示不起调节作用。

 4. 最后对检测出来的目标矩形框,要采用一些方法处理,比如说2个目标框嵌套着,则选择最外面的那个框。

 5. 因为hog检测出的矩形框比实际人体框要稍微大些,所以需要对这些矩形框大小尺寸做一些调整。

实验结果: 图片1效果:

  目标检测学习_1(用opencv自带hog实现行人检测)



图片2效果:

  目标检测学习_1(用opencv自带hog实现行人检测)



图片3效果:

  目标检测学习_1(用opencv自带hog实现行人检测)



图片4效果:

  目标检测学习_1(用opencv自带hog实现行人检测)


实验主要部分代码(附录有工程code下载链接)
#include "dialog.h"

#include "ui_dialog.h"

#include <QtCore>

#include <QtGui>







Dialog::Dialog(QWidget *parent) :

    QDialog(parent),

    ui(new Ui::Dialog)

{

    ui->setupUi(this);

}



Dialog::~Dialog()

{

    delete ui;

}



void Dialog::on_openButton_clicked()

{

    QString img_mame = QFileDialog::getOpenFileName(this, "Open img", "../people", tr("Image Files(*.png *.jpg *.bmp *.jpeg)"));

    img = imread( img_mame.toAscii().data() );

    imwrite("../hog_test.jpg", img);

    ui->textBrowser->setFixedSize(img.cols, img.rows);

    ui->textBrowser->append("<img src=../hog_test.jpg>");

}



void Dialog::on_detectButton_clicked()

{

    vector<Rect> found, found_filtered;

    cv::HOGDescriptor people_dectect_hog;

    //采用默认的已经训练好了的svm系数作为此次检测的模型

    people_dectect_hog.setSVMDetector(cv::HOGDescriptor::getDefaultPeopleDetector());

    //对输入的图片img进行多尺度行人检测

    //img为输入待检测的图片;found为检测到目标区域列表;参数3为程序内部计算为行人目标的阈值,也就是检测到的特征到SVM分类超平面的距离;

    //参数4为滑动窗口每次移动的距离。它必须是块移动的整数倍;参数5为图像扩充的大小;参数6为比例系数,即测试图片每次尺寸缩放增加的比例;

    //参数7为组阈值,即校正系数,当一个目标被多个窗口检测出来时,该参数此时就起了调节作用,为0时表示不起调节作用。

    people_dectect_hog.detectMultiScale(img, found, 0, Size(8, 8), Size(32, 32), 1.05, 2);



    //从源码中可以看出:

    //#define __SIZE_TYPE__ long unsigned int

    //typedef __SIZE_TYPE__ size_t;

    //因此,size_t是一个long unsigned int类型

    size_t i, j;

    for (i = 0; i < found.size(); i++ )

        {

            Rect r = found[i];



            //下面的这个for语句是找出所有没有嵌套的矩形框r,并放入found_filtered中,如果有嵌套的

           //话,则取外面最大的那个矩形框放入found_filtered中

            for(j = 0; j <found.size(); j++)

                if(j != i && (r&found[j])==r)

                    break;

            if(j == found.size())

               found_filtered.push_back(r);

        }



    //在图片img上画出矩形框,因为hog检测出的矩形框比实际人体框要稍微大些,所以这里需要

    //做一些调整

    for(i = 0; i <found_filtered.size(); i++)

        {

            Rect r = found_filtered[i];

            r.x += cvRound(r.width*0.1);

            r.width = cvRound(r.width*0.8);

            r.y += cvRound(r.height*0.07);

            r.height = cvRound(r.height*0.8);

            rectangle(img, r.tl(), r.br(), Scalar(0, 255, 0), 3);

        }

    imwrite("../hog_test_result.jpg", img);

    ui->textBrowser->clear();

    ui->textBrowser->append("<img src=../hog_test_result.jpg>");



}



void Dialog::on_closeButton_clicked()

{

    close();

}

实验总结:
从实验的结果来看,图片检测的准确率一般,当人体遮挡情况比较严重,且背景比较复杂时,有些误检和漏检。不过程序的检查速度还行,因为源码中用做了些优化处理。

 附:工程code下载

 

 

 

 

你可能感兴趣的:(opencv)