将TUM数据集制作成BundleFusion数据集

在上一篇文章中,我写到了如何将TUM数据生成BundleFusion所需要的数据集,生成的数据集如下图中所示.并且是将每一组数据的groundtruth.txt中的位姿数据写如到这里的pose文件中,作为每一帧图像的先验位姿.将TUM数据集制作成BundleFusion数据集_第1张图片

今天我便将生成的数据集转换为了.sens格式,然后运行bundlefusion算法,第一次尝试很失败,1400张图像,最后只重建出了花瓶的一半,还有几片叶子,我不知道哪里出了问题,首先是检查一下数据格式是不是正确,图像的名称, 还有每一组数据集最后的info.txt文件的内容,检查并没有发现明显的错误.然后我又调解了两个配置文件中的一些参数,但是并不知道有可能是什么原因.最后我把目光停留在数据集的info.txt文件上,之前使用kinect相机,经过手动标定相机可以标定得到depthShift这个数据,但是现在我并不知道,也不知道TUM数据集的这个数值,然后我在代码中搜索这个m_depthShift的用途,代码是如下

for (unsigned int i = 0; i < getDepthWidth()*getDepthHeight(); i++) {
			const auto* d = getDepthFloat();
			std::cout << "d[" << i << "]: " << d[i] << std::endl;
			depth[i] = (unsigned short)ml::math::round((m_recordedData->m_depthShift * d[i]));
		}

读取深度图的深度数据,然后乘上 m_depthShift,我大致猜出来,他的作用了,

将TUM数据集制作成BundleFusion数据集_第2张图片

在最初的info.txt文件中我将m_depthShift设置为1000,  但是重建不成功,我突然想到,我要查看一下,深度图像的数值,于是我用imageJ来查看一下深度图.

这是BundleFusion使用的SUN3D数据集中的一组数据的一对彩色图和深度图,当我把鼠标点在最左侧的垃圾桶的上边缘时,imgJ显示1328,而根据彩色图,目测也是1米多的样子,所以也验证了,该组数据集中的info.txt中的m_depthShift=1000.

将TUM数据集制作成BundleFusion数据集_第3张图片

 

 而对于TUM数据集,当我将鼠标放在图片最前端的花盆上时,根据彩色图,目测只有30cm的距离,但是imageJ上显示的是2930,所以我感觉应该将info.txt中的m_depthShift设置为1000.

将TUM数据集制作成BundleFusion数据集_第4张图片

我将m_depthShift设置为10000后,重新生成 .sens数据集,这次就可以重建成功了.重建效果如下.

 

你可能感兴趣的:(机器视觉)