1. 项目源码详见:http://www.opencv.org.cn/forum.php?mod=viewthread&tid=13042&extra= (2014-05-21 更新链接)
2. 已更新了 OpenGL 部分的代码,实现了点云数据的三角化。
3. 关于“Can not open a capture object”问题,我机子上运行没遇到,不过大家可以尝试以下方案:
按照下文改写好代码并重新用Cmake和VS2008编译好后,在当前项目的 project->properties->Configuration Properties中的C/C++ -> additional Library directories 和 Linker -> additional Include directories 分别添加上OpenNI 的include 和 lib 。
参考自项目源码发布帖中 silan 童鞋的回复。谢谢!
=============================================================
前几天刚入手了期待已久的 Kinect ,用于实验室机器人项目的视觉导航与环境理解。
首先要做的是破解-->连接PC-->获取深度数据和图像数据-->三维点云显示 这么几项基本工作。
开始仿照的是 饮水思源 博客的方法(使用VS2008在windows平台上试用Kinect ),利用 CL-NUI-Platform 来破解,它的最新版是1.0.0.1210,但我在XP上用会当机,后来换 1.0.0.1121 版的就可以用了。CL NUI 提供了十分简便易用的接口,在OpenCV 上调用很简单,另外它还提供了 Kinect 底座马达的控制接口和 LED 灯颜色的选择接口,其例程中可以操控 Kinect 上下摆动。如果只需要获取深度数据和图像数据,CL NUI 就够用了。不过要做深入的应用,比如人体姿态识别、骨架提取、深度数据与图像数据的合并等等,就该用到 OpenNI 了。
国内的 CNKINECT 是个不错的 Kinect 开发论坛,版块丰富,有很多资料可供借鉴。我通过论坛介绍的 方法 成功配置了 OpenNI + Kinect,先是用最新版的 OpenNI+SensorKinect+NITE ,但在 XP 下不能正常运行,可能跟 .net 平台有关,老实按上面论坛的方法装就成功了。另外用 CMake + VS2008 装了最新的 OpenCV_SVN,开始试过在 CMake 里选择 With TBB,但诡异的是 TBB 似乎只适用于VS2005,在 VS2008 编译后试用里面的 samples 老是提示报错找不到msvcp80.dll,重新用 CMake 配置取消了 With TBB,就一切正常了。
一、深度摄像机的视角调整 与 深度/彩色图像的合并
通过研究 OpenCV_SVN 与 OpenNI 相关的代码(cap_openni.cpp)发现,OpenCV 目前只支持对Kinect的深度图、视差图和彩色/灰度图及相关属性的读取,更进一步的设置还没有实现。参考台湾 Heresy’space 的博客文章《透過 OpneNI 合併 Kinect 深度以及彩色影像資料》,想把深度图和彩色图合并显示,但是由于 Kinect 的深度摄像机和彩色摄像机是在不同的位置,而且镜头本身的参数也不完全相同,所以两个摄像机所取得的画面会有些微的差异(如图1 左下角子图OpenGL三维点云显示窗口所示,天花板的两个日光灯对应深度图和彩色图的区域并没有重合,而是错位了)。
图1
根据 Heresy 的分析,需要对深度摄像机的视角进行修正,在 OpenNI 下只需要一行代码就可以实现:
-
- mDepthGenerator.GetAlternativeViewPointCap().SetViewPoint( mImageGenerator );
不过在 OpenCV 中并没有提供这一项设置,其源代码 modules/highgui/src/cap_openni.cpp 中 setDepthGeneratorProperty 并没有任何实质的属性设置。为此,需要改写该函数,并且要在相应的头文件 modules/highgui/include/opencv2/highgui/highgui_c.h 中添加新的参数 id,具体如下:
1、将 cap_openni.cpp 第 344 行的 setDepthGeneratorProperty 改写如下:
- bool CvCapture_OpenNI::setDepthGeneratorProperty( int propIdx, double propValue )
- {
- bool res = false;
- CV_Assert( depthGenerator.IsValid() );
- switch( propIdx )
- {
- case CV_CAP_PROP_OPENNI_VIEW_POINT :
- depthGenerator.GetAlternativeViewPointCap().SetViewPoint( imageGenerator );
- res = true;
- break;
- default :
- CV_Error( CV_StsBadArg, "Depth generator does not support such parameter for setting./n");
- res = false;
- }
- return res;
- }
2、在 highgui_c.h 的第 348 行下添加改变视角的参数 ID 号:
- CV_CAP_PROP_OPENNI_VIEW_POINT = 24,
然后在第 352 行下添加:
- CV_CAP_OPENNI_DEPTH_GENERATOR_VIEW_POINT = CV_CAP_OPENNI_DEPTH_GENERATOR + CV_CAP_PROP_OPENNI_VIEW_POINT
从而使得 OpenCV 的 VideoCapture 属性关于 OpenNI 的如下所示:
-
- CV_CAP_OPENNI_DEPTH_GENERATOR = 0,
- CV_CAP_OPENNI_IMAGE_GENERATOR = 1 << 31,
- CV_CAP_OPENNI_GENERATORS_MASK = 1 << 31,
-
- CV_CAP_PROP_OPENNI_OUTPUT_MODE = 20,
- CV_CAP_PROP_OPENNI_FRAME_MAX_DEPTH = 21,
- CV_CAP_PROP_OPENNI_BASELINE = 22,
- CV_CAP_PROP_OPENNI_FOCAL_LENGTH = 23,
- CV_CAP_PROP_OPENNI_VIEW_POINT = 24,
- CV_CAP_OPENNI_IMAGE_GENERATOR_OUTPUT_MODE = CV_CAP_OPENNI_IMAGE_GENERATOR + CV_CAP_PROP_OPENNI_OUTPUT_MODE,
- CV_CAP_OPENNI_DEPTH_GENERATOR_BASELINE = CV_CAP_OPENNI_DEPTH_GENERATOR + CV_CAP_PROP_OPENNI_BASELINE,
- CV_CAP_OPENNI_DEPTH_GENERATOR_FOCAL_LENGTH = CV_CAP_OPENNI_DEPTH_GENERATOR + CV_CAP_PROP_OPENNI_FOCAL_LENGTH,
- CV_CAP_OPENNI_DEPTH_GENERATOR_VIEW_POINT = CV_CAP_OPENNI_DEPTH_GENERATOR + CV_CAP_PROP_OPENNI_VIEW_POINT
改写完上述源代码后保存,并且用 CMake 和 VS2008 重新编译一次 OpenCV,我们就可以用 OpenCV 的接口来控制 Kinect 深度摄像头的视角,使其深度数据和图像数据能够很好的重合起来,如图2所示,注意与图1相比,右上角的伪彩色视差图四周出现了黑边,这就是视角调整后的效果:
图2
二、三维点云坐标的计算
在 OpenCV 中实际上已经提供了三维点云坐标计算的接口,通过 Kinect 的深度数据可以很快换算出三维点云坐标,cap_openni.cpp 中这部分代码具体如下:
- IplImage* CvCapture_OpenNI::retrievePointCloudMap()
- {
- int cols = depthMetaData.XRes(), rows = depthMetaData.YRes();
- if( cols <= 0 || rows <= 0 )
- return 0;
- cv::Mat depth;
- getDepthMapFromMetaData( depthMetaData, depth, noSampleValue, shadowValue );
- const float badPoint = 0;
- cv::Mat pointCloud_XYZ( rows, cols, CV_32FC3, cv::Scalar::all(badPoint) );
- for( int y = 0; y < rows; y++ )
- {
- for( int x = 0; x < cols; x++ )
- {
- unsigned short d = depth.at(y, x);
-
- if( d == CvCapture_OpenNI::INVALID_PIXEL_VAL )
- continue;
- XnPoint3D proj, real;
- proj.X = x;
- proj.Y = y;
- proj.Z = d;
- depthGenerator.ConvertProjectiveToRealWorld(1, &proj, &real);
- pointCloud_XYZ.at(y,x) = cv::Point3f( real.X*0.001f, real.Y*0.001f, real.Z*0.001f);
- }
- }
- outputMaps[CV_CAP_OPENNI_POINT_CLOUD_MAP].mat = pointCloud_XYZ;
- return outputMaps[CV_CAP_OPENNI_POINT_CLOUD_MAP].getIplImagePtr();
- }
不过可以看到上面核心的代码就一行:
- depthGenerator.ConvertProjectiveToRealWorld(1, &proj, &real);
具体是怎样实现的呢?我们可以进一步找 OpenNI 的源代码来分析。不过这里我是从原来双目视觉的经验上自己编写代码来实现三维点云坐标的计算。实际上 Kinect 的深度摄像头成像也类似于普通的双目立体视觉,只要获取了两个摄像头之间的基线(baseline)和焦距(focal length)、以及视差数据,通过构造矩阵 Q,利用 OpenCV 的 reprojectimageTo3D 函数,也可以计算出三维坐标。
下面我们通过以下代码看看矩阵 Q 的构造过程:
- capture.set(CV_CAP_OPENNI_DEPTH_GENERATOR_VIEW_POINT, 1.0);
- double b = capture.get( CV_CAP_OPENNI_DEPTH_GENERATOR_BASELINE );
- double F = capture.get( CV_CAP_OPENNI_DEPTH_GENERATOR_FOCAL_LENGTH );
- double q[] =
- {
- 1, 0, 0, -320.0,
- 0, 1, 0, -240.0,
- 0, 0, 0, F,
- 0, 0, 1./b, 0
- };
- Mat matQ(4, 4, CV_64F, q);
而三维点云坐标的计算,以及深度、视差、彩色图像的读取,则如下所示:
-
- if( !capture.grab() )
- {
- cout << "Can not grab images." << endl;
- return -1;
- }
-
- capture.retrieve( depthMap, CV_CAP_OPENNI_DEPTH_MAP );
- minMaxLoc( depthMap, &mindepth, &maxdepth );
-
- capture.retrieve( disparityMap, CV_CAP_OPENNI_DISPARITY_MAP_32F );
- colorizeDisparity( disparityMap, colorDisparityMap, maxDisparity );
- colorDisparityMap.copyTo( validColorDisparityMap, disparityMap != 0 );
- imshow( "colorized disparity map", validColorDisparityMap );
-
- capture.retrieve( bgrImage, CV_CAP_OPENNI_BGR_IMAGE );
- imshow( "Color image", bgrImage );
-
- cv::reprojectImageTo3D(disparityMap, xyzMap, matQ, true);
这里值得注意的是,在计算视差时,如果视差图是采用默认的 CV_8UC1 格式(参数ID是CV_CAP_OPENNI_DISPARITY_MAP),由于视差被限制在[0-255]整数范围内,造成一定的误差,所得到的三维坐标数据会出现分层,如图3和图4所示:
图3 Matlab绘制的三维点云,不同深度上有明显分层
图4 左为直接得到的深度数据Mesh图,中为由8位视差数据计算得到的深度数据,右为对应的视差数据
而采用 32 位浮点格式来获取视差数据(参数ID:CV_CAP_OPENNI_DISPARITY_MAP_32F),则消除了这种因视差误差造成深度数值分层的现象,如图5、6所示:
图5 深度数值的分层现象基本消除
图6 两种方式得到的深度数据一致
三、利用OpenGL显示三维点云数据
这方面主要是基于 学习笔记(15) 的内容,不过当时是通过另设 OpenCV 窗口设置 Trackbar 来调整 OpenGL 的视点位置和摄像机位置。在这里则主要参考了 OpenCV 论坛的帖子《[HQ] OpenCV和OpenGL编程:关于显示点云数据-Stereo Vision源码分享》中 villager5 提供的方法来调整摄像机位置,做了一定的修改,使得鼠标左键拖曳能够实现对上下左右的视角变换,鼠标右键拖曳能够实现视距远近的变换,不再需要用 Trackbar 来调整。下面是相关的代码:
- #define SIGN(x) ( (x)<0 ? -1:((x)>0?1:0 ) )
-
-
-
- float xyzdata[480][640][3];
- float texture[480][640][3];
- int glWinWidth = 640, glWinHeight = 480;
- int width=640, height=480;
- double eyex, eyey, eyez, atx, aty, atz;
- bool leftClickHold = false, rightClickHold = false;
- int mx,my;
- int ry = 90, rx = 90;
- double mindepth, maxdepth;
- double radius = 6000.0;
-
-
-
-
-
-
- void mouse(int button, int state, int x, int y)
- {
- if(button == GLUT_LEFT_BUTTON)
- {
- if(state == GLUT_DOWN)
- {
- leftClickHold=true;
- }
- else
- {
- leftClickHold=false;
- }
- }
- if (button== GLUT_RIGHT_BUTTON)
- {
- if(state == GLUT_DOWN)
- {
- rightClickHold=true;
- }
- else
- {
- rightClickHold=false;
- }
- }
- }
-
-
- void motion(int x, int y)
- {
- int rstep = 5;
- if(leftClickHold==true)
- {
- if( abs(x-mx) > abs(y-my) )
- {
- rx += SIGN(x-mx)*rstep;
- }
- else
- {
- ry -= SIGN(y-my)*rstep;
- }
-
- mx=x;
- my=y;
- glutPostRedisplay();
- }
- if(rightClickHold==true)
- {
- if( y-my > 0 )
- {
- radius += 100.0;
- }
- else if( y-my < 0 )
- {
- radius -= 100.0;
- }
- radius = std::max( radius, 100.0 );
- mx=x;
- my=y;
- glutPostRedisplay();
- }
- }
-
-
- void renderScene(void)
- {
-
- glClear ( GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT );
-
- glLoadIdentity();
-
- atx = 0.0f;
- aty = 0.0f;
- atz = ( mindepth - maxdepth ) / 2.0f;
- eyex = atx + radius * sin( CV_PI * ry / 180.0f ) * cos( CV_PI * rx/ 180.0f );
- eyey = aty + radius * cos( CV_PI * ry/ 180.0f );
- eyez = atz + radius * sin( CV_PI * ry / 180.0f ) * sin( CV_PI * rx/ 180.0f );
- gluLookAt (eyex, eyey, eyez, atx, aty, atz, 0.0, 1.0, 0.0);
- glRotatef(0,0,1,0);
- glRotatef(-180,1,0,0);
-
-
-
-
-
- for (int i = 0; i < height; i++)
- {
- glBegin(GL_TRIANGLE_STRIP);
- for (int j = 0; j < width; j++)
- {
-
-
-
-
-
-
-
-
-
-
-
-
- glTexCoord2f(0.0f, 0.0f);
- glColor3f(texture[i][j][0]/255.0f, texture[i][j][1]/255.0f, texture[i][j][2]/255.0f);
- glVertex3f(xyzdata[i][j][0], xyzdata[i][j][1], xyzdata[i][j][2]);
-
- glTexCoord2f(1.0f, 0.0f);
- glColor3f(texture[i+1][j][0]/255.0f, texture[i+1][j][1]/255.0f, texture[i+1][j][2]/255.0f);
- glVertex3f(xyzdata[i+1][j][0], xyzdata[i+1][j][1], xyzdata[i+1][j][2]);
-
- glTexCoord2f(0.0f, 1.0f);
- glColor3f(texture[i][j+1][0]/255.0f, texture[i][j+1][1]/255.0f, texture[i][j+1][2]/255.0f);
- glVertex3f(xyzdata[i][j+1][0], xyzdata[i][j+1][1], xyzdata[i][j+1][2]);
-
- glTexCoord2f(1.0f, 1.0f);
- glColor3f(texture[i+1][j+1][0]/255.0f, texture[i+1][j+1][1]/255.0f, texture[i+1][j+1][2]/255.0f);
- glVertex3f(xyzdata[i+1][j+1][0], xyzdata[i+1][j+1][1], xyzdata[i+1][j+1][2]);
- }
- glEnd();
- }
-
- glEnable(GL_BLEND);
-
- glDepthMask(GL_FALSE);
-
- glBlendFunc(GL_SRC_ALPHA, GL_ONE);
-
- glDepthMask(GL_TRUE);
-
- glDisable(GL_BLEND);
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
- glFlush();
- glutSwapBuffers();
- }
-
-
- void reshape (int w, int h)
- {
- glWinWidth = w;
- glWinHeight = h;
- glViewport (0, 0, (GLsizei)w, (GLsizei)h);
- glMatrixMode (GL_PROJECTION);
- glLoadIdentity ();
- gluPerspective (45, (GLfloat)w / (GLfloat)h, 1.0, 15000.0);
- glMatrixMode (GL_MODELVIEW);
- }
-
-
- void load3dDataToGL(IplImage* xyz)
- {
- CvScalar s;
-
- for (int i=0;i<height;i++)
- {
- for (int j=0;j<width;j++)
- {
- s=cvGet2D(xyz,i,j);
- xyzdata[i][j][0] = s.val[0];
- xyzdata[i][j][1] = s.val[1];
- xyzdata[i][j][2] = s.val[2];
- }
- }
- }
-
-
- void loadTextureToGL(IplImage* img)
- {
- CvScalar ss;
-
- for (int i=0;i<height;i++)
- {
- for (int j=0;j<width;j++)
- {
- ss=cvGet2D(img,i,j);
- texture[i][j][2] = ss.val[0];
- texture[i][j][1] = ss.val[1];
- texture[i][j][0] = ss.val[2];
- }
- }
- }