基于DirectShow视频及图片捕获软件的开发(写的非常详细)在后几篇博客 我会更新

我们知道目前很多工业相机的图像数据采集都是基于DirectShow的,常见的有映美精等。DirectShow是微软公司提供的一套在Windows平台上进行流媒体处理的开发包,与DirectX开发包一起发布。DirectShow多媒体流的捕捉和回放提供了强有力的支持。运用DirectShow,我们可以很方便地从支持WDM驱动模型的采集卡上捕获数据,并且进行相应的后期处理乃至存储到文件中。它广泛地支持各种媒体格式,包括AsfMpegAviDvMp3Wave等等,使得多媒体数据的回放变得轻而易举。另外,DirectShow还集成了DirectX其它部分(比如DirectDrawDirectSound)的技术,直接支持DVD的播放,视频的非线性编辑,以及与数字摄像机的数据交换。更值得一提的是,DirectShow提供的是一种开放式的开发环境,我们可以根据自己的需要定制自己的组件。

笔者使用visual studio 2005 来开发了基于DirectShow的视频捕获软件,并用开发的软件对映美精相机进行了测试。本软件不但可以实现对相机的视频捕获,而且还可以抓取图像帧。软件运行时自动搜索所连接的相机,预览后可以对相机参数进行设置。下面是软件的主界面。

 

   预览视频后可以对视频格式和图像参数进行设置。开始预览时,捕获的视频是黑白的,我们将颜色空间设置为UYVY即可捕获彩色视频。

下面是捕获的一帧图像,图像质量虽然没有映美精自带的软件效果好,但已经实现了所需各项基本功能,接下来的工作将会进一步提高软件性能。

 

另外我们还可以捕获视频,点击“捕获视频”按钮,输入要保持的文件名,注意要以.avi后缀结尾,点确定就开始捕获视频。

从我们开发的软件可以看到,映美精的相机能够很好的支持DirectShow的驱动,我们的软件对映美精相机的识别是如此的容易。接下来我们将继续开发基于其它驱动的图像捕获软件,为最终实现在一个软件中识别各种相机而努力。我们将逐步开放我们的源代码,以便更多的同行一起来探讨相机的图像采集技术。

 

下面是详细的软件开发过程。

一、安装DirectShowvisual studio 2005

首先我们安装DirectShow SDK,它有许多版本,作者使用的是2003年发布的dx90bsdk.exe,安装在D盘的DXSDK下。软件下载地址为http://download.microsoft.com/download/b/6/a/b6ab32f3-39e8-4096-9445-d38e6675de85/dx90bsdk.exe

然后安装好visual studio 2005。安装完以后我们将进行开发环境的配置。

 

二、开发环境配置

开发环境的配置主要有两个工作要做:一是在使用Directshow SDK开发自己的程序时需要的DirectShow的有关静态库的配置,二是visual C++开发环境的配置。

1、 生成DirectShow SDK开发库

使用DirectShow SDK开发用户自己的程序需要几个静态链接库:quartz.libstrmbasd.libSTRMBASE.libstrmiids.lib。中间两个lib需要用户自己编译生成,而其他两个微软已经提供。下表列出了使用DirectShow SDK开发程序所有要使用的库。

 库名  功能说明
 Strmiids.lib 定义了DirectShow标准的输出类标识(CLSID)和接口标识(IID
Strmbasd.lib 流媒体开发用到的库,DebugDebug_Unicode版本
Strmbase.lib 流媒体开发用到的库,ReleaseRelease_Unicode版本
Quartz.lib 定义了导出函数AMGetErrorText
Winmm.lib 使用Windows多媒体编程用到的库

 

基于VC++2005开发软件使用DirectShow SDK,首先需要用户编译DirectShow自带的源代码工程baseclasses,以生成DirectShow SDK的不同版本的库。同时由于DirectShow SDK是早期的VC开发软件,所以使用VC++2005编译DirectShow SDK会出现很多编译问题。下面列出了详细的编译过程和问题分析、解决方法。

 

1.1 编译工程baseclasses工程

启动VS2005,选择“文件”→“打开”→“项目/解决方案”命令,在弹出的对话框中打开“BaseClasses”项目。

打开“baseclasses.sln”项目。如果VS2005有提问,则默认同意或确定。现在就开始编译该项目。按“F7”快捷键可以编译生成项目。初次编译VS2005会报很多错误或者警告,有的需要我们手工修改程序,或者修改VS2005环境配置或编译选项;有的是一类问题,解决方法也有很多种。具体解决方法请参考路锦正的Visual C++音频/视频处理技术及工程实践》第225-229页。

 

1.2 Visual C++开发环境配置

有了DirectShow SDK库,用户就可以使用这些库来开发自己的程序了。为了能让VC++自动搜寻到SDK库和头文件,还需要对VC++的开发环境进行配置。添加库或路径的时候,根据你的要求添加DebugReleaseDebug_UnicodeRelease_Unicode版本的库所在路径。下面假定添加非Unicode版本的库或路径。

首先确定VC2005是否已经包含了库和头文件所在的路径,因为在安装VC2005时,它会自动添加该目录。如果没有,则需要用户手工添加。

1.      更改添加的include内容:

D:/DXSDK/Include

D:/DXSDK/Samples/C++/DirectShow/BaseClasses

D:/DXSDK/Samples/C++/Common/Include

添加过程如下。选择“工具”→“选项”命令,在“项目和解决方案下”选择“VC++目录”,在下拉框中选择“包含文件”选项,将上面的三个Include内容添加进去。

2.      更改添加lib路径

要添加的lib内容:

D:/DXSDK/Lib

D:/DXSDK/ Samples/C++/DirectShow/BaseClasses/Debug

D:/DXSDK/ Samples/C++/DirectShow/BaseClasses/Debug_Unicode

D:/DXSDK/ Samples/C++/DirectShow/BaseClasses/Release

D:/DXSDK/ Samples/C++/DirectShow/BaseClasses/Release_Unicode

添加过程和Include内容相似,只是在下拉框中选择“库文件”选项。

3.      添加链接库支持

上面的设置是在VC2005的开发环境的目录(Directories)中,添加用户在开发中可能用到的库或头文件“路径”,需要明确的事文件夹,而不是具体的文件。所以,要使用相关的库支持,还要用户明确地把要使用的库包含、添加到开发环境中。

基于DirectShow SDK开发流媒体应用程序,一般需要链接strmiids.libquartz.lib,前者定义了DirectShow标准的类标识符CLSID和接口标识IID,后者定义了导出函数AMGetErrorText(如果应用程序中没有使用这个函数,也可以不链接这个库)

在编译生成DirectShowBaseClassesstrmbasd.libSTRMBASE.lib时,由于该工程是生成库而不是应用程序,所以在编译该项目时VC++2005没有“链接器”选项。但是在开发其他应用可执行程序时,需要添加DirectShow SDK库的支持。添加路径:项目→属性→配置属性→链接器→输入→附加依赖项,输入strmiids.lib quartz.lib,库名之间用空格分开。另外,在程序中使用DirectShow SDK类或接口的代码程序中,还要添加#include<dshow.h>

在添加链接库时,除了以上配置VC的开发环境外,也可以在源程序文件开头部分,直接语句编程引入#pragma comment(lib,”strmiids.lib”)

如果程序中没有使用dshow.h,而是包含了stream.h,则库文件需要链接strmbased.libwinmm.lib,在源程序文件开头添加:

#pragma comment(lib,”strmbasd.lib”)

#pragma comment(lib,”winmm.lib”)

#include <streams.h>

不过,编译器会报出以下的错误。

error C2146:语法错误为缺少“;”(在标识符“m_pString”的前面)。

问题定位在wxdebug.h(329)中。经分析得知,由于某种原因,编译器认为PTCHAR没有定义,那用户可以在类外定义:typedef WCHAR *PTCHAR; 再编译项目。

 

三、开发过程

DirectShow SDK的视频采集经典技术是使用ICaptureGraphBuilder2标准接口,利用其方法RenderStream自动建立、连接滤波器链表。RenderStream方法在预览、捕获视频时引脚的类型分为PIN_CATEGORY_PREVIEWPIN_CATEGORY_CAPTURE,媒体类型均为MEDIATYPE_Video。此实例要完成的目的有两个:一是实时预览采集的视频数据;二是在预览图像的同时,实时地把捕获数据保存到文件中。首先我们使用GraphEdit模拟实现该过程。

1、 GraphEdit模拟实现

步骤一、添加"Video Capture Sources"视频捕获设备,如图1所示。

 

 

1、添加视频捕获设备

步骤二、视频捕获滤波器只有一个Pin,而我们要求在预览数据的同时还能够保存数据,即需要一个组件把捕获的流分成两个。DirectShow SDK为此提供了Smart Tee滤波器,把捕捉的视频流分成两个流供使用。在GraphEdit中单击"DirectShow Filters"按钮,插入"Smart Tee"滤波器,如图2所示

 

2添加Smart Tee滤波器

步骤三、采集捕捉的视频数据保存到文件,以AVI格式写文件。插入"AVI Mux"滤波器,如图3所示。

 

 

3添加AVI Mux滤波器

在调用该函数前,需要把应用程序的显示窗口句柄传入以初始化m_hWnd。首先视频窗口不可见,捆绑传入的窗口句柄为视频窗口,设置窗口类型。ResizeVideoWindow函数获取显示窗口的客户区域,利用视频窗口接口的方法SetWindowPosition设置视频显示窗口的位置。

4)预览采集到的视频数据

使用上述有关的类成员函数初始化滤波器链表管理器,把指定采集设备的滤波器添加到链表中,然后渲染RenderStream方法把所有的滤波器链接起来,最后根据设定的显示窗口预览采集到的视频数据,具体实现过程如下。

/*开始预览视频数据*/
HRESULT CCaptureClass::PreviewImages(int iDeviceID, HWND hWnd)
{
     HRESULT hr;

    

     // 初始化视频捕获滤波器链表管理器

     hr = InitCaptureGraphBuilder();

     if (FAILED(hr))

     {

         AfxMessageBox(_T("Failed to get video interfaces!"));

         return hr;

     }

 

     // 把指定采集设备与滤波器捆绑

     if(!BindFilter(iDeviceID, &m_pBF))

         return S_FALSE;

     // 把滤波器添加到滤波器链表中

     hr = m_pGB->AddFilter(m_pBF, L"Capture Filter");

     if( FAILED( hr ) )

     {

         AfxMessageBox(_T("Cant add the capture filter"));

         return hr;

     }

    // Create the Sample Grabber.

    hr = CoCreateInstance(CLSID_SampleGrabber,NULL, CLSCTX_INPROC_SERVER,

         IID_IBaseFilter, (void**)&pGrabberF);

     if( FAILED( hr ) )

     {

         AfxMessageBox(_T("Cant create the grabber"));

         return hr;

     }

    hr = pGrabberF->QueryInterface(IID_ISampleGrabber, (void**)&pGrabber);

 

     // 把滤波器添加到滤波器链表中

 

     hr = m_pGB->AddFilter(pGrabberF, L"Sample Grabber");

     if( FAILED( hr ) )

     {

         AfxMessageBox(_T("Cant add the grabber"));

         return hr;

     }

    // Add the Null Renderer filter to the graph.

    hr = CoCreateInstance(CLSID_VideoRenderer, NULL, CLSCTX_INPROC_SERVER, 

         IID_IBaseFilter, (void**)&pNull);

    hr = m_pGB->AddFilter(pNull, L"VideoRender");

     if( FAILED( hr ) )

     {

         AfxMessageBox(_T("Cant add the VideoRender"));

         return hr;

     }

     // 渲染媒体,把链表中滤波器连接起来

    hr = m_pCapture->RenderStream( &PIN_CATEGORY_PREVIEW, &MEDIATYPE_Video, m_pBF, pGrabberF, pNull);

     if( FAILED( hr ) )

     {

         AfxMessageBox(_T("Cant build the graph"));

         return hr;

}
//
设置视频显示窗口
m_hWnd = hWnd;         //
初始化窗口句柄
SetupVideoWindow();   //
设置显示窗口
hr = m_pMC->Run();   //
开始采集、预览视频,在指定窗口显示视频
if(FAILED(hr)) {
AfxMessageBox(_T("Couldn't run the graph!"));
return hr;
}
return S_OK;
}

上述程序从最初的创建滤波器链表管理器、枚举系统视频采集设备、把采集设备与捕获滤波器捆绑,到添加滤波器到滤波器链表、设置视频显示窗口,最后开始运行媒体:采集、预览视频,包含了使用DirectShow SDK开发视频采集、预览的整个技术过程。函数功能独立而又完整。

5)保存采集到的数据

把捕获的视频以AVI格式写文件。注意设置前停止调用滤波器链表,设置完成后再运行链表。

 /*设置捕获视频的文件,开始捕捉视频数据写文件*/
HRESULT CCaptureClass::CaptureImages(CString inFileName)
{

HRESULT hr=0;
m_pMC->Stop();      //
先停止视频
//
设置文件名,注意第二个参数的类型
hr = m_pCapture->SetOutputFileName( &MEDIASUBTYPE_Avi,

inFileName.AllocSysString(), &pMux, NULL );
//
渲染媒体,链接所有滤波器
hr = m_pCapture->RenderStream( &PIN_CATEGORY_CAPTURE,

&MEDIATYPE_Video, m_pBF, NULL, pMux );
pMux->Release();
m_pMC->Run();     //
回复视频
return hr;
}

预览视频后,用户可以使用该函数存储捕获的视频数据。首先停止视频媒体,利用ICaptureGraphBuilder2的方法SetOutputFileName设置存储捕获数据的文件名,然后渲染视频媒体,RenderStream方法自动链接图表中的滤波器,最后开始运行视频媒体。

6)捕获图片

把捕获的视频以bmp格式写文件。我们使用使用Sample Grabber filter抓取图像。sample Grabber使用两种模式抓取图像:缓冲模式和回调模式,缓冲模式向下传递采样时拷贝每个采样,而回调模式对于每个采样调用程序定义的回调函数。我们采用缓冲模式。

BOOL CCaptureClass::CaptureBitmap(const char * outFile)//const char * outFile)

{

     HRESULT hr=0;

    //取得当前所连接媒体的类型

    AM_MEDIA_TYPE mt;

    hr = pGrabber->GetConnectedMediaType(&mt);

    // Examine the format block.

    VIDEOINFOHEADER *pVih;

    if ((mt.formattype == FORMAT_VideoInfo) &&

    (mt.cbFormat >= sizeof(VIDEOINFOHEADER)) &&

    (mt.pbFormat != NULL) )

    {

    pVih = (VIDEOINFOHEADER*)mt.pbFormat;

    }

    else

    {

    // Wrong format. Free the format block and return an error.

    return VFW_E_INVALIDMEDIATYPE;

    }

    // Set one-shot mode and buffering.

    hr = pGrabber->SetOneShot(TRUE);

 if (SUCCEEDED(pGrabber->SetBufferSamples(TRUE)))

     {

        bool pass = false;

        m_pMC->Run();

        long EvCode=0;

        hr = pEvent->WaitForCompletion( INFINITE, &EvCode );

        //find the required buffer size

        long cbBuffer = 0;

        if (SUCCEEDED(pGrabber->GetCurrentBuffer(&cbBuffer, NULL)))

         {

            //Allocate the array and call the method a second time to copy the buffer:

            char *pBuffer = new char[cbBuffer];

            if (!pBuffer)

         {

            // Out of memory. Return an error code.

             AfxMessageBox(_T("Out of Memory"));

            }

            hr = pGrabber->GetCurrentBuffer(&cbBuffer, (long*)(pBuffer));

            //写到BMP文件中

            HANDLE hf = CreateFile(LPCTSTR(outFile), GENERIC_WRITE, FILE_SHARE_WRITE, NULL, CREATE_ALWAYS, 0, NULL);

            if (hf == INVALID_HANDLE_VALUE)

            {

             return 0;

            }

 

            // Write the file header.

            BITMAPFILEHEADER bfh;

            ZeroMemory(&bfh, sizeof(bfh));

            bfh.bfType = 'MB';  // Little-endian for "MB".

            bfh.bfSize = sizeof( bfh ) + cbBuffer + sizeof(BITMAPINFOHEADER);

            bfh.bfOffBits = sizeof( BITMAPFILEHEADER ) + sizeof(BITMAPINFOHEADER);

            DWORD dwWritten = 0;

            WriteFile( hf, &bfh, sizeof( bfh ), &dwWritten, NULL );

 

            // Write the bitmap format

            BITMAPINFOHEADER bih;

            ZeroMemory(&bih, sizeof(bih));

            bih.biSize = sizeof( bih );

   bih.biWidth = pVih->bmiHeader.biWidth;

            bih.biHeight = pVih->bmiHeader.biHeight;

            bih.biPlanes = pVih->bmiHeader.biPlanes;

            bih.biBitCount = pVih->bmiHeader.biBitCount;

            dwWritten = 0;

            WriteFile(hf, &bih, sizeof(bih), &dwWritten, NULL);       

 

            //write the bitmap bits

            dwWritten = 0;

            WriteFile( hf, pBuffer, cbBuffer, &dwWritten, NULL );

            CloseHandle( hf );

            pass = true;

    }

 

               return pass;

 

     }    

     hr = pGrabber->SetOneShot(FALSE);

 

}

预览视频后,用户可以使用该函数捕获图像。这个函数自动为捕获的图片命名并保存。

3界面设计

本案例使用VC++ 2005的对话框应用程序框架设计视频捕获应用程序。 

步骤一、应用VC++ 2005应用程序向导建立对话框程序框架,项目名称为CaptureVideo

步骤二、在项目CaptureVideo的主界面中添加控件:9Button1Combo Box2Picture Control,如表1所示。根据其功能修改所有控件的ID

控件功能列表

名称  说明
ID_PREVIEW 视频预览
ID_PAUSEPLAY 暂停预览
ID_PLAY 继续预览
ID_GRABIMAGE 捕获图片
ID_CAPTURE 捕获视频
ID_VIDEO_FORMAT 视频格式
ID_IMAGE_PARAMETER 图像参数
ID_SAVEGRAPH 保存图表
ID_EXIT 退出程序(终止预览捕获)
IDC_DEVICE_LISTER 设备列表组合框
IDC_VIDEO_WINDOW 显示捕获的视频图像
IDC_LOGO 显示公司LOGO

              

                       图7 软件界面                 控件右键菜单内容

   

添加控件变量后的CCaptureVideoDlg类的代码如下。

//显示捕获的图像
CStatic m_videoWindow;
//
组合框列表,显示设备名称
CComboBox m_listCtrl;

 

步骤五、添加按钮在线提示ToolTip

首先在类CCaptureVideoDlg定义中声明tooltip控件。

CToolTipCtrl m_tooltip;

接着在类CCaptureVideoDlg实现文件的对话框初始化函数OnInitDialog中添加:

m_tooltip.Create(this);
m_tooltip.Activate(TRUE);
m_tooltip.AddTool(GetDlgItem(ID_PREVIEW), _T("
开始预览视频"));
//
添加其他按钮的tooltip

 

PreTranslateMessage消息处理函数中添加如下代码,如果程序中没有该消息处理函数,则需要用户自己添加。

m_tooltip.RelayEvent(pMsg);

 

步骤六、功能按钮的消息响应,即单击按钮的事件处理。

双击某按钮,实现单击按钮事件处理函数的添加。为了使用类CCaptureClass的变量和函数,在CCaptureVideoDlg类中引入头文件并定义视频捕获类的对象。

首先引入头文件:

#include "CaptureClass.h"

 

接着在CCaptureVideoDlg类中定义视频捕获类的对象:

CCaptureClass m_cap;

双击"视频预览"按钮,添加事件处理代码:

 

获取视频显示窗口的句柄,根据程序最初枚举到的所有采集设备,选择用户选中的采集设备。调用视频捕获类的成员函数PreviewImages完成整个视频的采集、显示任务。

双击"视频捕获"按钮,添加事件处理代码。

 

存储捕获的视频,这里采用AVI格式,视频数据未经压缩。调用视频捕获类CCaptureClass的成员函数CaptureImages完成视频的捕获、存储任务。本案例需要先预览视频,然后再开始捕获、存储视频,不能直接捕获、存储视频。

双击"视频格式"按钮,添加事件处理代码。

void CCaptureVideoDlg::OnBnClickedVideoFormat()
{
//TODO:
在此添加控件通知处理程序代码
m_cap.ConfigCameraPin(this->m_hWnd);
}

void CCaptureVideoDlg::OnBnClickedPreview()
{
//TODO:
在此添加控件通知处理程序代码
HWND hVWindow = m_videoWindow.GetSafeHwnd();  //
获取视频显示窗口的句柄
int id = m_listCtrl.GetCurSel();          //
获取当前选中的视频设备
m_cap.PreviewImages(id , hVWindow);     //
开始预览视频
}

 

void CCaptureVideoDlg::OnBnClickedCapture()
{
//TODO:
在此添加控件通知处理程序代码
CString strFilter = _T("AVI File (*.avi) | *.avi|"); //
文件类型过滤器
strFilter += "All File (*.*) | *.*|";
CFileDialog dlg(TRUE, NULL, NULL,        //
打开另存为文件对话框
OFN_PATHMUSTEXIST|
OFN_HIDEREADONLY, strFilter, this);
if (dlg.DoModal() == IDOK) {
CString m_sourceFile = dlg.GetPathName(); //
获取用户输入的文件路径名
m_cap.CaptureImages(m_sourceFile);      //
开始捕获、存储视频
}
}
 

设置视频格式前,首先启动"预览视频",然后再配置视频的格式。视频格式包括帧率、颜色空间、视频分辨率等,该功能的效果如图9所示。

 

 

视频格式配置属性页

void CCaptureVideoDlg::OnBnClickedImageParameter()
{
//TODO:
在此添加控件通知处理程序代码
m_cap.ConfigCameraFilter(this->m_hWnd); 
}

双击"视频参数"按钮,添加事件处理代码。

 

设置视频图像参数前,首先启动"预览视频",然后配置图像参数。图像参数包括图像、白平衡、模式控制和去抖动等,该功能的效果如图10所示。并且该功能调整的参数马上起作用。

 

10  图像参数配置属性页

双击"捕获图片"按钮,添加事件处理代码。

void CCaptureVideoDlg::OnBnClickedGrabimage()

{

     // TODO: 在此添加控件通知处理程序代码

     static int c = 0;

     TCHAR szFilename[MAX_PATH];

     DWORD   dwPathLen  = 0;  

     if((dwPathLen = ::GetModuleFileName(::AfxGetInstanceHandle(),szFilename, MAX_PATH ))== 0)

     {  

         return;  

     }  

     for( int i=dwPathLen-1;  i>=0; i--)

     {  

         if(('//' == szFilename[i])  ||  ('/' == szFilename[i]))

         {  

              break;  

         } else {  

              szFilename[i]   =   '/0';  

         }  

     }  

    

     CString str;

     str.Format(_T("%s"),szFilename);

 

     CString strTemp;

     strTemp.Format(_T("%d"),c);

     str += strTemp + _T(".bmp");

c++;

    

     TCHAR *p=str.GetBuffer(str.GetLength());

     str.ReleaseBuffer();

 

 

         if (m_cap.CaptureBitmap((const char *)p))

         {

         }else

              MessageBox(_T("抓图失败!"));

}

本功能将自动给图片命名并设置保存路径。

双击"保存图表"按钮,添加事件处理代码。

void CCaptureVideoDlg::OnBnClickedSavegraph()
{
//TODO:
在此添加控件通知处理程序代码
CFileDialog dlg(TRUE);
if (dlg.DoModal()==IDOK) {
CString str=dlg.GetPathName();       //
要保存的Graph文件名
TCHAR *inFileName = str.GetBuffer(str.GetLength());//
获取字符串指针
str.ReleaseBuffer();       //
切记要释放Buffer
m_cap.SaveGraph(inFileName);        //
保存Graph
}
}

本功能存储的Graph文件可以使用程序GraphEdit播放。

双击"退出程序"按钮,添加事件处理代码。程序隐含调用了类CCaptureClass的析构函数,释放资源和COM库。

 

void CCaptureVideoDlg::OnBnClickedExit()
{
//TODO:
在此添加控件通知处理程序代码
CDialog::OnOK();
}

退出本程序时,由于视频捕获类CCaptureClass的析构函数已经包含了释放资源、指针的工作,所以退出应用程序时不用释放任何资源,只是关闭应用程序。

其他工作

在对话框的初始化OnInitDialog中枚举本系统的视频采集设备,添加到列表框并默认显示第一个设备。

m_cap.EnumDevices(m_listCtrl.GetSafeHwnd());
m_listCtrl.SetCurSel (0);

至此我们详细介绍了软件的开发过程。在开发过程中我们遇到了许多问题,如对于图片捕获有很多种方法,不同的方法将在很大程度上影响软件的稳定性和捕获图片的效果。

步骤四、插入"File writer"滤波器,保存文件命名为"a.avi"。如图4所示

 

4插入File writer

步骤五、插入"SampleGrabber""Video Renderer"滤波器,如图5所示

 

 

 5插入SampleGrabberVideo Renderer滤波器6视频预览、保存滤波器链表

 

步骤六、最后把所有的滤波器用鼠标连接起来,完成构建滤波器链表,如图6所示

 

步骤七、运行滤波器链表,单击"Graph"→"Play"按钮执行视频数据的预览、保存。

 

1、 视频捕获类CCaptureClass的实现

 

详细讲述CCaptureClass类的成员变量和其他成员方法的实现,剖析其完成视频采集、保存的技术过程。

1)定义CCaptureClass

 

 

 

 

 

 

该函数的传入参数是采集设备的索引号和捕获设备的滤波器。根据索引号查询系统中的视频捕获设备。以友好名字(FriendlyName)的方式获取所选设备的信息,然后把查询成功的设备与传入的滤波器捆绑,返回捕获设备的滤波器。

3)设置视频显示窗口

DirectShow的显示窗口与IVideoWindow接口的设置基本相同,把传入的显示窗口的句柄捆绑到IvideoWindow接口上。

/*设置视频显示窗口的特性*/
HRESULT CCaptureClass::SetupVideoWindow()
{
HRESULT hr;
//m_hWnd
为类CCaptureClass的成员变量,在使用该函数前须初始化
hr = m_pVW->put_Visible(OAFALSE);                  //
视频窗口不可见
hr = m_pVW->put_Owner((OAHWND)m_hWnd);      //
窗口所有者:传入的窗口句柄
if (FAILED(hr)) return hr;
hr = m_pVW->put_WindowStyle(WS_CHILD | WS_CLIPCHILDREN);//
设置窗口类型
if (FAILED(hr)) return hr;
ResizeVideoWindow();                           //
更改窗口大小
hr = m_pVW->put_Visible(OATRUE);              //
视频窗口可见
return hr;
}
/*
更改视频窗口大小*/
void CCaptureClass::ResizeVideoWindow()
{
if (m_pVW) {
//
让图像充满整个指定窗口
CRect rc;
::GetClientRect(m_hWnd,&rc);    //
获取显示窗口的客户区
m_pVW->SetWindowPosition(0, 0, rc.right, rc.bottom);
//
设置视频显示窗口的位置
}
}

 class CCaptureClass
{
public:
CCaptureClass();          //
类构造器
virtual ~CCaptureClass(); //
类析构器

 

int EnumDevices(HWND hList);
void SaveGraph(TCHAR *wFileName);            //
保存滤波器链表
void ConfigCameraPin(HWND hwndParent);       //
配置摄像头的视频格式 

void ConfigCameraFilter(HWND hwndParent);     //配置摄像头的图像参数

BOOL Pause();             //暂停

BOOL Play();              //播放

BOOL Stop();              //停止

HRESULT CaptureImages(CString inFileName);    //捕获保存视频

BOOL CaptureBitmap(const char * outFile);        //捕获图片

 

HRESULT PreviewImages(int iDeviceID, HWND hWnd); //采集预览视频
private:
HWND       m_hWnd;          //
视频显示窗口的句柄
IGraphBuilder    *m_pGB;          //
滤波器链表管理器
ICaptureGraphBuilder2  *m_pCapture;  //
增强型捕获滤波器链表管理器
IBaseFilter     *m_pBF;   //
捕获滤波器IBaseFilter     *pNull;   //渲染滤波器                         IBasicVideo       *pBasicVideo;//视频基本接口  

IBaseFilter        *pGrabberF;//采样滤波器

ISampleGrabber     *pGrabber;//采样滤波器接口
IMediaControl    *m_pMC;   //
媒体控制接口   

IMediaEventEx     *pEvent;  //媒体事件接口
IVideoWindow     *m_pVW;   //
视频显示窗口接口
IBaseFilter     *pMux;   //
写文件滤波器
protected:
bool BindFilter(int deviceId, IBaseFilter **pFilter);   
//
把指定的设备滤波器捆绑到链表中
void ResizeVideoWindow();               //
更改视频显示窗口
HRESULT SetupVideoWindow();             //
设置视频显示窗口的特性
HRESULT InitCaptureGraphBuilder();     //
创建滤波器链表
管理器,查询其各种控制接口

 

上述代码是类CCaptureClass的成员变量和成员函数,成员变量包括DirectShow 开发流媒体播放应用程序需要的各种接口指针变量。成员函数实现创建滤波器链表管理器、配置视频采集格式、配置图像参数和保存滤波器链表等。

在类的构造器和析构器中完成对

 *定义的资源释放操作宏*/
#ifndef srelease
#define srelease(x)

if ( NULL != x )
{
x->Release( );
x = NULL;
}
#endif
/*
类构造函数实现*/
CCaptureClass::CCaptureClass()
{
CoInitialize(NULL);  //COM
库初始化
m_hWnd = NULL;    //
视频显示窗口的句柄
m_pVW = NULL;    //
视频窗口接口指针清空
m_pMC = NULL;    //
媒体控制接口指针清空
m_pGB = NULL;   //
滤波器链表管理器接口指针清空
m_pBF = NULL;     //
捕获滤波器接口指针清空   

pBasicVideo = NULL;//基类视频接口指针清空

pGrabberF = NULL;  //采样滤波器接口指针清空

pNull = NULL;      //渲染滤波器接口清空

pGrabber = NULL;   //

pEvent = NULL;     //媒体事件接口指针清空
m_pCapture = NULL;   //
增强型捕获滤波器链表管理器接口指针清空
}
/*
析构函数实现*/
CCaptureClass::~CCaptureClass()
{
if (m_pMC)  m_pMC->Stop();   //
首先停止媒体
if (m_pVW) {
m_pVW->put_Visible(OAFALSE); //
视频窗口不可见
m_pVW->put_Owner(NULL);  //
视频窗口的父窗口清空
}
srelease(m_pCapture);       //
释放增强型捕获滤波器链表管理器接口srelease(pBasicVideo);

srelease(pGrabber);

srelease(pGrabberF);

srelease(pNull);

srelease(pEvent);
srelease(m_pMC);       //
释放媒体控制接口
srelease(m_pGB);       //
释放滤波器链表管理器接口
srelease(m_pBF);      //
释放捕获滤波器接口
CoUninitialize();     //
卸载COM

 

在类构造函数中,清空所有指针以便于清楚其后续操作的状态。析构函数释放各种资源、指针并清空指针,最后卸载COM库。

2)根据指定的设备ID,把基本滤波器与设备捆绑

首先枚举系统所有采集设备,直到列举的ID相同为止,最后BindToObject完成捆绑。

//把指定采集设备与滤波器捆绑
bool CCaptureClass::BindFilter(int deviceId, IBaseFilter **pFilter)
{
if (deviceId < 0) return false;
//
枚举所有的视频捕获设备
ICreateDevEnum *pCreateDevEnum;
//
生成设备枚举器pCreateDevEnum
HRESULT hr = CoCreateInstance(CLSID_SystemDeviceEnum, NULL,
CLSCTX_INPROC_SERVER,
IID_ICreateDevEnum,
(void**)&pCreateDevEnum);
if (hr != NOERROR)  return false;
IEnumMoniker *pEm;
//
创建视频输入设备类枚举器
hr = pCreateDevEnum->CreateClassEnumerator
(CLSID_VideoInputDeviceCategory,
&pEm, 0);
if (hr != NOERROR) return false;
pEm->Reset();         //
复位该设备
ULONG cFetched;
IMoniker *pM;
int index = 0;
//
获取设备
while(hr = pEm->Next(1, &pM, &cFetched), hr==S_OK, index <= deviceId)
{
IPropertyBag *pBag;
//
获取该设备的属性集
hr = pM->BindToStorage(0, 0, IID_IPropertyBag, (void **)&pBag);
if(SUCCEEDED(hr))
{
VARIANT var;
var.vt = VT_BSTR;     //
保存的是二进制的数据
hr = pBag->Read(L"FriendlyName", &var, NULL);
         //
获取FriendlyName形式的信息
if (hr == NOERROR)
{
//
采集设备与捕获滤波器捆绑
if (index == deviceId) pM->BindToObject(0, 0,
IID_IBaseFilter,         (void**)pFilter);
SysFreeString(var.bstrVal); //
释放二进制数据资源,必须释放


}   
pBag->Release();
}
pM->Release();
index++;
}
return true;
}
 

你可能感兴趣的:(基于DirectShow视频及图片捕获软件的开发(写的非常详细)在后几篇博客 我会更新)