Kinect2 v2.0 是一款深度相机,笔者想用它来测量距离信息,是在ROS系统下进行的,用鼠标去点击图片就能显示该位置的物体的距离和坐标相对于相机来说。
首先要知道相机坐标系,Kinect使用以Kinect的IR传感器为中心的直角坐标系。Y轴正指向上方,Z轴正指向Kinect指向的位置,X轴正向左侧。此坐标系中的一个单位等于一米。
为了实现这个功能,资料很少,并且没有给出源码链接,为了避免后面的人走弯路。所以我这里给出了github链接,直接使用就可以。kinect v2详细参数和原理介绍_别人论文里和自己整理出来的一些内容_kinect v2参数-CSDN博客
https://github.com/JackJu-HIT/kinect-v2.0
参考了博客ROS下Kinect2的驱动安装及简单应用_ros2 kinect-CSDN博客
运行效果如下图所示:
因为我也刚接触视觉和PCL点云,我只说明输出部分,我最终要用他的输出数据进行导航。
下面的就是输出的数据要显示在屏幕上。
double distance=sqrt(ptMsg.point.x*ptMsg.point.x+ptMsg.point.y*ptMsg.point.y+ptMsg.point.z*ptMsg.point.z);
cv::putText(color, oss.str(), pos, font, sizeText, colorText, lineText, CV_AA);
ossXYZ.str("");
ossXYZ <<"Distance"<
20200724
----------------------------------------------------------------------------分割线-------------------------------------------------------------------------------
今天重新分析了 其中的源码,大概说说我对他的理解。如果有问题请指出。
因为这里ROS订阅了RGB图像话题和深度话题 ,要满足实时性,你需要让这两个话题同步的去接收这样才能对其,当你点击RGB图像会调用深度图像解算出位置信息。那么如何通过深度信息解算出信息?
一、如何通过深度信息解算出信息?
所谓深度图像(depth image)也被称为距离影像(range image),是指将从图像采集器到场景中各点的距离(深度)作为像素值的图像,就是把像素点的像素值改成深度信息.
像素坐标到世界坐标系转换:
像素坐标:[u,v,d]------>世界坐标[x,y,z]
// 相机内参
const double camera_factor=1000;
const double cx=325.5;
const double cy=253.5;
const double fx=518.0;
const double fy=519.0;
z=d/camera_factor
camera_factor通常为1000。
那我们来看看viewer.cpp相关代码
void createLookup(size_t width, size_t height)这里的求求x和y没有乘上d,严格意义上式x一部分,下一段才是真正求解x和y
void createLookup(size_t width, size_t height)
{
/**内参长成这样
*
* #[fx 0 cx]#K
[0 fy cy]
[0 0 1]
*
* *****/
const float fx = 1.0f / cameraMatrixColor.at(0, 0);
const float fy = 1.0f / cameraMatrixColor.at(1, 1);
const float cx = cameraMatrixColor.at(0, 2);
const float cy = cameraMatrixColor.at(1, 2);
float *it;
lookupY = cv::Mat(1, height, CV_32F);
it = lookupY.ptr();
for(size_t r = 0; r < height; ++r, ++it)
{
*it = (r - cy) * fy;
}
lookupX = cv::Mat(1, width, CV_32F);
it = lookupX.ptr();
for(size_t c = 0; c < width; ++c, ++it)
{
*it = (c - cx) * fx;
}
}
};
这一段,就是真正的求解xy坐标的,你会发现,它把数值存到点云中了,后面也乘上了depthValue。
itP->z = depthValue;
itP->x = *itX * depthValue;//妙啊
itP->y = y * depthValue;
itP->b = itC->val[0];
itP->g = itC->val[1];
itP->r = itC->val[2];
itP->a = 255;
void createCloud(const cv::Mat &depth, const cv::Mat &color, pcl::PointCloud::Ptr &cloud) const
{
const float badPoint = std::numeric_limits::quiet_NaN();
#pragma omp parallel for
for(int r = 0; r < depth.rows; ++r)
{
pcl::PointXYZRGBA *itP = &cloud->points[r * depth.cols];
const uint16_t *itD = depth.ptr(r);
const cv::Vec3b *itC = color.ptr(r);
const float y = lookupY.at(0, r);
const float *itX = lookupX.ptr();
for(size_t c = 0; c < (size_t)depth.cols; ++c, ++itP, ++itD, ++itC, ++itX)
{
register const float depthValue = *itD / 1000.0f;
// Check for invalid measurements
if(*itD == 0)
{
// not valid
itP->x = itP->y = itP->z = badPoint;
itP->rgba = 0;
continue;
}
itP->z = depthValue;
itP->x = *itX * depthValue;//妙啊
itP->y = y * depthValue;
itP->b = itC->val[0];
itP->g = itC->val[1];
itP->r = itC->val[2];
itP->a = 255;
}
}
}
我们实际上是根据像素来匹配点云,进而得到世界坐标系的xyz,点云的xyz信息。具体代码看如下:
最关键的部分,你通过(img_x,img_y)匹配points,进而得到坐标。 const pcl::PointXYZRGBA& pt = cloud->points[img_y * depth.cols + img_x];//创建点云并赋值
ptMsg.point.x = pt.x;
ptMsg.point.y = pt.y;
ptMsg.point.z = pt.z;
基于此原理,我们可以写一个在你的屏幕中间提取一条竖线的障碍物距离信息并返回最小距离,代码如下
/***实现屏幕中央一条竖线返回最小距离值***/ 这是代码的关键部分,主要解释了如何实现坐标的提取,其中还有很多的同步时间订阅(meaasge_filters)、传感器信息预处理等等。 如果觉得文章还不错,可以关注下我的微信公众号: 鞠春宇于研究室
double min_distance=1000000000;
double middle_distance;
for(int i=0;i<217;i++)
{
const pcl::PointXYZRGBA& gt = cloud->points[905 * depth.cols + i];//创建点云并赋值
middle_distance=sqrt(gt.x*gt.x+gt.y*gt.y+gt.z*gt.z);
if(middle_distance
}
cout<<"相机正前方最短距离为:"<
cout<<"相机正前方的物体小于1米,请避开障碍物!"<void cloudViewer() {
cv::Mat color, depth;
std::chrono::time_point
20200728