BOP数据集格式说明

BOP数据集的格式

本文章描述BOP数据集的通用格式[1].

目录结构

数据集具有以下结构:

  • models[_MODELTYPE] —物体的3D模型
    例如:lm_models:指lm数据集的3D模型
  • models[_MODELTYPE]_eval - 用来进行对物体位姿估计误差的三维模型,这些是通过一致采样和抽取的三维物体模型.
    例如:tless_models_eval—tless来进行对物体位姿估计误差的三维模型
  • train[_TRAINTYPE]/X (optional) - 物体X的训练图像
    例如:icbin_train:icbin的训练集
  • val[_VALTYPE]/Y (optional) - 场景Y的验证图像
    例如:itodd_val:itodd的验证数据集
  • test[_TESTTYPE]/Y - 场景Y的测试数据集
  • camera.json - 相机参数(仅用于传感器模拟;每张图像相机参数位于“ scene_camera.json”中—见下文)。
  • dataset_info.md - 数据集的一些特定的信息
  • test_targets_bop19.json - 2019/2020年国际BOP挑战赛中用于评估的测试目标清单。ECCV 2018论文中也使用了相同的列表, T-LESS除外, 它在 test_targets_bop18.json 被使用.

MODELTYPE, TRAINTYPE, VALTYPE and TESTTYPE 如果有更多数据类型是可用的就可以选择使用这些参数 (e.g. 来自不同传感器的参数).

trainvaltest这些文件夹中的子文件夹如下:

  • rgb/gray - 彩色/灰度图.
  • depth - 深度图 (saved as 16-bit unsigned short).
  • mask (optional) - 物体轮廓的mask.
  • mask_visib (optional) - 物体轮廓可见部分的mask.

各个子文件夹下相对应的图像具有相同的ID, e.g. rgb/000000.pngdepth/000000.png 是同一个RGB-D框架(frame)下的彩色图和深度图。 mask的约定名称为“IMID_GTID.png”,其中 IMID 是图像的 ID 、 GTID 是真实标注的索引(保存在scene_gt.json文件中).

训练, 验证和测试图像

如果验证和测试图像都可用于数据集,则真值的标注仅对验证图像公开。同时,在BOP评估系统中,可以计算具有私有真值标注的测试图像的性能分数。

相机参数

每个数据集带有一个“scene_camera.json”文件,其中包含每张图像的以下信息:

  • cam_K - 3x3 矩阵K,相机内参 (按行保存).
  • depth_scale - 将深度图像与此因子相乘,得到以mm为单位的深度
  • cam_R_w2c (optional) - 3x3 的旋转矩阵R_w2c (按行保存).
  • cam_t_w2c (optional) - 3x1 的平移向量t_w2c.
  • view_level (optional) - 视点细分级别, 详情见下面.

对于每个图像,矩阵K可能不同。举个例子,对于T-LESS数据集来说,the principal point不是一个常数,由于此数据集中的图像是通过裁剪世界坐标系原点投影周围的区域获得的(简单来说就是对图片进行了裁剪)。

请注意,在数据集的根文件夹中的“camera.json”文件中也存放有相机的内参。这些参数仅用于渲染训练图像时所用传感器的模拟。

P_w2i = K * [R_w2c, t_w2c] 此相机矩阵 可以将世界坐标系下的3D 点p_w = [x, y, z, 1]’ 转化为图片坐标系上2D 点坐标 p_i =[u, v, 1]’ ,两者间的关系为: s * p_i = P_w2i * p_w。

真值标注

文件“scene_gt.json”中提供物体的真是位姿,对于每个标注的物体实例含有以下信息:

  • obj_id - 物体ID.
  • cam_R_m2c - 3x3 旋转矩阵R_m2c (按行保存).
  • cam_t_m2c - 3x1 平移向量t_m2c.

P_m2i = K * [R_m2c, t_m2c] 此相机矩阵 可以将模型(model)坐标系下的3D 点 p_m = [x, y, z, 1]’ 转化为相机坐标系下的 2D 点 p_i = [u, v, 1]’ ,两者间通过: s * p_i = P_m2i * p_m转化。

关于位姿真值的Meta信息

在文件"scene_gt_info.json"中提供以下meta信息(使用脚本“scripts/calc_gt_info.py”进行计算,对于ITODD数据集来说,delta=5mm,对于其他数据集,delta=15mm;对于BOP Challenge 2020提供的所有照片级真实感训练图像,delta=5mm):

  • bbox_obj - 物体轮廓的二维边界框由(x,y,width,height)给定,其中(x,y)是边界框的左上角。
  • bbox_visib - 物体轮廓可见部分的二维边界框。
  • px_count_all - 物体轮廓中的像素数。
  • px_count_valid - 有效深度测量(即深度图像中的非零值)的对象轮廓中的像素数。
  • px_count_visib - 物体轮廓可见部分的像素数。
  • visib_fract - 对象轮廓的可见部分的百分比(= px_count_visib/px_count_all)。

训练图像的获取

大多数的数据集都包含训练图像,这些图像是通过从不同的视点捕捉真实的物体或通过渲染三维物体模型(通过使用脚本scripts/render_train_imgs.py)获得的。

通过递归细分二十面体,从[2]中的视图球体中对渲染对象的视点进行采样渲染得到的。对于添加的每一个视点的细分级别保存在scene_camera.json中作为作为视图级别——view_level(与二十面体顶点相对应的视点具有view_level=0,在第一细分步骤中获得的视点具有view_level=1,等等。){(我的理解就是说每个视点获得一张图片这是view级别,所有视点组成的叫scene级别)}。为了减少视点的数量,同时保持视点在球面上的“均匀”分布,我们可以考虑view_level

对于渲染,将视图球体的半径设置为所有测试图像上被标注物体实例上出现的最近的距离。这个距离指:从相机中心到模型坐标系原点的距离。

物体3D模型

提供物体的PLY(ascii)格式的3D模型,所有的模型都包含顶点法线。大多数模型还包括顶点颜色或顶点纹理坐标,纹理保存为单独的图像。使用MeshLab来计算顶点法线作为入射到顶点的面法线的角度加权和[4]

每个带有物体模型的文件夹都包含文件“models_info.json”,其中包括每个物体模型的三维边界框和直径。此直径为计算模型上相距最远顶点之间的距离。

坐标系

所有的坐标系(模型(model)、相机(camera)、世界(world))都是右手坐标系。在模型坐标系中,Z轴指向上(当对象“自然向上向右”站立时),原点与对象模型的三维边界框的中心重合。相机坐标系与OpenCV中的一样,相机沿Z轴查看。

Units(单位)

  • 深度图: 在每个独立的数据集中查看文件 camera.json/scene_camera.json .
  • 物体3D模型: 1 mm
  • 平移向量: 1 mm

参考文献

[1] Hodan, Michel et al. “BOP: Benchmark for 6D Object Pose Estimation” ECCV’18.

[2] Hinterstoisser et al. “Model based training, detection and pose estimation of texture-less 3d objects in heavily cluttered scenes” ACCV’12.

[3] Thurrner and Wuthrich “Computing vertex normals from polygonal facets” Journal of Graphics Tools 3.1 (1998).

BOP数据集思维导图:

BOP数据集格式说明_第1张图片

你可能感兴趣的:(估计位姿,计算机视觉,深度学习)