刚好有一台现成的Kinect V1相机,所以就拿过来学习一下它的数据读取方式和编程方法,毕竟它还能用于跑RGBD-SLAM。Kinect V1,没错就是微软早就停产的那个相机,它仍然能战斗!下面对相机进行简单的介绍。
Kinect V1相机的长相如下:
Kinect V1由彩色摄像头,深度传感器,和用于语音识别的多点阵列麦克风组成。它本来是给Xbox的体感游戏游戏服务的,但由于它能获得深度图和RGB图,所以它也被研究员拿来做RGBD-SLAM的研究。关于Kinect V1的发展和更详细的介绍,大家可以参考百度百科的内容。
微软为了方便研究人员对Kinect V1进行开发,提供了专门的Kinect for Windows SDK。这个SDK主要是针对Windows7设计(Windows10也能用),内含驱动程序、丰富的原始感测数据流程式开发接口(RawSensorStreamsAPI)、自然用户接口、安装文件以及参考数据。Kinect for Windows SDK可让使用C++、C#或VisualBasic语言搭配MicrosoftVisualStudio2010(VS2019也可使用)工具的程序设计师轻易开发使用。
所以想要开发Kinect V1程序就需要找到对应的SDK和DeveloperToolkit,我使用的是V1.7的版本(SDK下载和DeveloperToolkit下载)。这两个开发工具的选择一定要根据你实际使用的机器型号来选,Kinect V1就选择V1.X版本,Kinect V2则是V2.X,不然驱动对不上。
下面介绍一些我自己总结的Kinect V1的图像数据读取的代码流程:
(1)先定义一个能指向Kinect对象的指针(好像只能通过指针的形式调用Kinect中的参数),并通过SDK中的函数为指针创建一个Kinect实例对象,帮助代码中的对象能够和现实设备联系上;
(2)然后就能够通过指针调用对象内置的函数,完成初始化,并在初始化时设置你准备初始化Kinect的哪些功能。实验中我初始化了RGB图和深度图两个功能;
(3)完成设备的初始化后,我们通过打开数据流通道(Kinect V1采用的是数据流的形式来传输、读取数据)的方式,开启RGB图和深度图的数据流通道,以便之后的数据获取。在开启数据流通道时,还需要使用一些句柄和事件对象来共同完成对数据流通道的配置;
(4)此时可以从开通的数据流通道中获取数据,并将此数据锁住,防止Kinect修改此数据。获取的数据会被放在一个数组中,需要一个一个地将它们赋值给OpenCV的Mat对象。这时图像就已经被提取出来了;
(5)使用完数据后,一定要记住将数据解锁,否则Kinect会卡住(因为它不能移除掉当前数据),无法传输下一个数据;
(如果还要进行RGB图和深度图的对齐,则再可以先不解锁数据)
上述就是Kinect V1读取数据的大致流程,下面来看具体实现代码。
此代码是在Windows上运行的。因为SDK提供的主要是一些头文件,所以还是用C++实现起来方便些。
#include
#include
//windows的头文件,必须要,不然NuiApi.h用不了
#include
//Kinect for windows 的一些头文件
#include
#include
//要注意头文件的打开顺序。Windows要放在NuiApi前面。因为NuiApi会用到Windows中的一部分信息
//硬记
#define KEY_DOWN(VK_NONAME) ((GetAsyncKeyState(VK_NONAME) & 0x8000) ? 1:0) //主要是用来实现按键退出的功能,不需要的话可以不写
using namespace cv;
using namespace std;
//深度相机能够探测到的
//最远距离(mm)
const int MAX_DISTANCE = 3500;
//最近距离(mm)
const int MIN_DISTANCE = 200;
//彩图和深度图的图像大小
const LONG m_depthWidth = 640;
const LONG m_depthHeight = 480;
const LONG m_colorWidth = 640;
const LONG m_colorHeight = 480;
const LONG cBytesPerPixel = 4;
int main(int argc,char** argv)
{
Mat image_rgb;
Mat image_depth;
image_rgb.create(480, 640, CV_8UC3);
image_depth.create(480, 640, CV_8UC1);
//一个Kinect实例指针,专门指向一个Kinect类对象
INuiSensor* m_pNuiSensor = NULL;
//记录当前连接KINECT的数量。也可以不写
int iSensorCount=-1;
//获得当前KINECT的数量,数量值保存在iSensorCount变量中
//返回的hr应该是某中状态变量,用于判断相关函数是否运行出错
HRESULT hr = NuiGetSensorCount(&iSensorCount);//给函数传指针
std::cout << "The number of Kinects are " << iSensorCount << endl;
//按照序列(0开始)创建一系列KINETC实例
//函数参数:初始化的Kinect的编号,将要指向该编号的实例的指针的地址!二维指针
hr = NuiCreateSensorByIndex(iSensorCount - 1, &m_pNuiSensor);
//初始化,让其可以接收彩色和深度数据流(即函数传递过去的那个参数)
//对每个创建的实例,使用其自带的初始化函数完成初始化
hr = m_pNuiSensor->NuiInitialize(NUI_INITIALIZE_FLAG_USES_COLOR | NUI_INITIALIZE_FLAG_USES_DEPTH);
//判断是否出错。所以hr应该是用来判断函数运行情况的变量类型
if (FAILED(hr))//主要是Debug时使用,自信的人从不Debug!!!!!!!!!!!!!!!!!!!!!!!!!
{
std::cout << "NuiInitialize failed" << endl;
return hr;
}
//创建彩色图像获取下一帧事件.创建事件的函数,返回的是事件的句柄!
//CreateEvent的参数可以按照下面这个作为标准
HANDLE nextColorFrameEvent = CreateEvent(NULL, TRUE, FALSE, NULL);//这个事件句柄是构建数据流通道时的输入,可以用来判断相应事件是否发生
//彩色图像数据流通道的事件句柄
HANDLE colorStreamHandle = NULL;//这个事件更像是一种指针,即在构建好数据流通道后,该指针直接关联上了数据流通道
//创建(是否获取到了下一帧深度图)事件
HANDLE nextDepthFrameEvent = CreateEvent(NULL, TRUE, FALSE, NULL);
//深度图像数据流的事件句柄
HANDLE depthStreamHandle = NULL;
//为实例构建其与现实设备的数据流通道,这里NUI_IMAGE_TYPE_COLOR表示彩色图像(即构建的是彩图数据流通道)。
hr = m_pNuiSensor->NuiImageStreamOpen(NUI_IMAGE_TYPE_COLOR, NUI_IMAGE_RESOLUTION_640x480
, 0, 2, nextColorFrameEvent, &colorStreamHandle);//colorStreamHandle句柄会和这个构建好的流通道相关联
//Kinect实例构建与现实设备间深度图像的数据流通道
hr = m_pNuiSensor->NuiImageStreamOpen(NUI_IMAGE_TYPE_DEPTH, NUI_IMAGE_RESOLUTION_640x480
, 0, 2, nextDepthFrameEvent, &depthStreamHandle);
//设置用OpenCV的窗口来显示图像
cv::namedWindow("colorImage", CV_WINDOW_AUTOSIZE);
cv::moveWindow("colorImage", 300, 600);
cv::namedWindow("depthImage", CV_WINDOW_AUTOSIZE);
cv::moveWindow("depthImage", 0, 200);
//循环读取图像并显示
while (1)
{
//这个用来保存Kinect数据流中的某一时刻的数据
NUI_IMAGE_FRAME pImageFrame_rgb;
NUI_IMAGE_FRAME pImageFrame_depth;
//WaitForSingleObject是一种Windows API函数,接受(事件句柄,等待时间ms)两个参数
//该函数会在指定等待时间内,查看事件是否发生。在时间内事件发生,返回0;否则返回其他状态值(依情况而定)
if (WaitForSingleObject(nextColorFrameEvent, 0) == 0)
{
//从指定的数据流通道(由句柄给定)中得到数据,用指针指向获得的数据。0表示等待多久后再获取数据(注意此时获得的数据不只有帧数据)
hr = m_pNuiSensor->NuiImageStreamGetNextFrame(colorStreamHandle, 0, &pImageFrame_rgb);
if (FAILED(hr))
{
std::cout << "Could not get color image" << endl;
m_pNuiSensor->NuiShutdown();
return -1;
}
//INuiFrameTexture一个容纳图像帧数据的对象(帧数据)
INuiFrameTexture* pTexture = pImageFrame_rgb.pFrameTexture;
NUI_LOCKED_RECT lockedRect;
//提取数据帧到LockedRect,它包括两个数据对象:pitch每行字节数,pBits第一个字节地址
//锁定数据,这样当我们读数据的时候,kinect就不会去修改它。之后要记住解锁
pTexture->LockRect(0, &lockedRect, NULL, 0);
//确认获得的数据是否有效:字节数不为0
if (lockedRect.Pitch != 0)
{
//将数据转换成为OpenCV的Mat格式
//转换的方式可以用扫描来形容,即把相应位置的数据给Mat中相应像素点赋值
for (int i = 0; i < image_rgb.rows; i++)
{
//第i行指针
uchar* ptr = image_rgb.ptr(i);
//每个字节代表一个颜色信息,直接使用uchar
uchar* pBuffer = (uchar*)(lockedRect.pBits) + i * lockedRect.Pitch;
for (int j = 0; j < image_rgb.cols; j++)
{
//读到的图像数据是4个字节,0-1-2是BGR,第4个现在未使用
ptr[3*j] = pBuffer[4*j];
ptr[3 * j + 1] = pBuffer[4 * j + 1];
ptr[3 * j + 2] = pBuffer[4 * j + 2];
}
}
imshow("colorImage", image_rgb);
//waitKey(1);
//搞定后记得要给数据解除锁定:
pTexture->UnlockRect(0);
//此外还要把获取到的帧释放掉。因为pImage是指针,实际数据还是在那个流通道内。不释放可能会造成通道阻塞吧
m_pNuiSensor->NuiImageStreamReleaseFrame(colorStreamHandle, &pImageFrame_rgb);
}
else
{
cout << "Buffer length of received texture is bogus\r\n" << endl;
}
//这两个变量是在进行深度图--彩图对齐时会使用
//如果要对齐的话,对齐部分的操作最好和深度图处理放在一起进行,不然会出现一些奇怪的问题
BOOL nearMode;
INuiFrameTexture* pColorToDepthTexture;
//下面是如何获得深度图
if (WaitForSingleObject(nextDepthFrameEvent, 0) == 0)
{
//从指定的数据流通道内得到数据,pImageFrame指向读取到的数据
hr = m_pNuiSensor->NuiImageStreamGetNextFrame(depthStreamHandle, 0, &pImageFrame_depth);
//这句话主要是为了之后进行彩图--深度图对齐时使用。如果只是为了获得深度图可以不写这句话
//pColorToDepthTexture应该是彩图和深度图之间像素的偏移度的值。
hr = m_pNuiSensor->NuiImageFrameGetDepthImagePixelFrameTexture(
depthStreamHandle, &pImageFrame_depth, &nearMode, &pColorToDepthTexture
);
//以下部分和处理彩图差不多
INuiFrameTexture* pTexture = pImageFrame_depth.pFrameTexture;
NUI_LOCKED_RECT lockedRect;
NUI_LOCKED_RECT ColorToDepthLockRect;
pTexture->LockRect(0, &lockedRect, NULL, 0);
pColorToDepthTexture->LockRect(0, &ColorToDepthLockRect, NULL, 0);
for (int i = 0; i < image_depth.rows; i++)
{
uchar* prt = image_depth.ptr<uchar>(i);
uchar* pBuffer = (uchar*)(lockedRect.pBits) + i * lockedRect.Pitch;
//这里需要转换,因为每个深度数据是2个字节,应将BYTE转成USHORT
USHORT* pBufferRun = (USHORT*)pBuffer;
for (int j = 0; j < image_depth.cols; j++)
{
//先向,将数据归一化处理,对深度距离在300mm-3500mm范围内的像素,映射到【0—255】内,
//超出范围的,都去做是边缘像素
if (pBufferRun[j] << 3 > MAX_DISTANCE) prt[j] = 255;//这里的左移3不知道是为什么??
else if (pBufferRun[j] << 3 < MIN_DISTANCE) prt[j] = 0;
else prt[j] = (BYTE)(256 * (pBufferRun[j] << 3) / MAX_DISTANCE);
}
}
imshow("depthImage", image_depth);
//waitKey(1);
//接下来是对齐部分,将前景抠出来
//存放深度点的参数
NUI_DEPTH_IMAGE_POINT* depthPoints = new NUI_DEPTH_IMAGE_POINT[640 * 480];
if (ColorToDepthLockRect.Pitch != 0)
{
HRESULT hrState = S_OK;
//一个能在不同空间坐标转变的类(包括:深度,彩色,骨骼)
INuiCoordinateMapper* pMapper;
//设置KINECT实例的空间坐标系
hrState = m_pNuiSensor->NuiGetCoordinateMapper(&pMapper);
if (FAILED(hrState))
{
return hrState;
}
//重要的一步:从颜色空间映射到深度空间。参数说明:
//【参数1】:彩色图像的类型
//【参数2】:彩色图像的分辨率
//【参数3】:深度图像的分辨率
//【参数4】:深度图像像素点的个数
//【参数5】:深度图所有的像素点
//【参数6】:取内存的大小,个数。类型为NUI_DEPTH_IMAGE_PIXEL
//【参数7】:存放映射结果点的参数
hrState = pMapper->MapColorFrameToDepthFrame(NUI_IMAGE_TYPE_COLOR, NUI_IMAGE_RESOLUTION_640x480, NUI_IMAGE_RESOLUTION_640x480,
640 * 480, (NUI_DEPTH_IMAGE_PIXEL*)ColorToDepthLockRect.pBits, 640 * 480, depthPoints);
//该函数根据之前获得的位移图像(彩图和深度图间偏移量),将彩图上的像素依次投影到深度图上。
//depthPoints保存了彩图中某像素在深度图上的坐标,以及相应的深度值。
if (FAILED(hrState))
{
return hrState;
}
//显示的图像
Mat show;
show.create(480, 640, CV_8UC3);
show = 0;
//在知道彩图中各像素点的深度值情况下,只显示深度小于一定范围的点
for (int i = 0; i < image_rgb.rows; i++)
{
for (int j = 0; j < image_rgb.cols; j++)
{
uchar* prt_rgb = image_rgb.ptr(i);
uchar* prt_show = show.ptr(i);
//在内存中偏移量
long index = i * 640 + j;
//从保存了映射坐标的数组中获取点
NUI_DEPTH_IMAGE_POINT depthPointAtIndex = depthPoints[index];
//边界判断
if (depthPointAtIndex.x >= 0 && depthPointAtIndex.x < image_depth.cols &&
depthPointAtIndex.y >= 0 && depthPointAtIndex.y < image_depth.rows)
{
//深度判断,在MIN_DISTANCE与MAX_DISTANCE之间的当成前景,显示出来
//这个使用也很重要,当使用真正的深度像素点再在深度图像中获取深度值来判断的时候,会出错
if (depthPointAtIndex.depth >= MIN_DISTANCE && depthPointAtIndex.depth <= MAX_DISTANCE)
{
prt_show[3 * j] = prt_rgb[j * 3];
prt_show[3 * j + 1] = prt_rgb[j * 3 + 1];
prt_show[3 * j + 2] = prt_rgb[j * 3 + 2];
}
}
}
}
imshow("show", show);
}
delete[]depthPoints;
pTexture->UnlockRect(0);
m_pNuiSensor->NuiImageStreamReleaseFrame(depthStreamHandle, &pImageFrame_depth);
}
else
{
//这里是获得的深度图数据不好时的情况
cout << "Buffer length of received texture is bogus\r\n" << endl;
}
}
if (cvWaitKey(20) == 27)
break;
if (KEY_DOWN('Q'))//如果键盘输入流'Q'则推出循环
break;
}
m_pNuiSensor->NuiShutdown();
destroyAllWindows();
return 0;
}
在知道Kinect V1的基础使用后,就能自己编写一些Demo来玩,比如通过OpenCV自带人脸识别工具和Kinect相机,完成摄像头人脸检测跟踪功能等。但这些都是在Windows上实现的,而SLAM在Ubuntu这类Linux系统上运行会更方便一些。所以下一步就是学习如何在Ubuntu和ROS上使用Kinect。