Cooperative Driving Dataset (CODD)

协同驾驶数据集 (CODD) 是使用 CARLA 生成的合成数据集,包含来自多个车辆在不同的驾驶场景中行驶的激光雷达数据,每一帧都标有真实传感器姿态(sensor pose)和 真实的目标的3D边界框。

CARLA 是一款开源自动驾驶模拟器,利用虚拟引擎生成高质量的场景渲染和传感器建模,其可扩展架构,允许将计算分配到多个节点。

数据结构

数据集由多个片段(snippets)组成,每个片段包含一个驾驶环境中的一系列时间帧。 每一帧都包含来自该环境中所有车辆的传感器数据(激光雷达),以及传感器的绝对姿势以及车辆和行人的 3D 边界框的真实标注。 每个片段都保存为包含以下4个数组(HDF5 数据集)的 HDF5 文件:

  • pointcloud,大小为 [frames, vehicle, points_per_cloud, 4] ,其中最后一个维度表示局部传感器坐标系中激光雷达点的 X、Y、Z 和强度。
  • lidar_pose,尺寸为 [frames, vehicle, 6] ,其中最后一个维度表示全局传感器姿态的 X、Y、Z、俯仰、偏航、滚动。可用于计算从局部传感器坐标系映射到全局坐标系的变换。
  • vehicle_boundingbox,尺寸为 [frames, Vehicles, 8] ,其中最后一个维度表示车辆3D边界框的 X、Y、Z、偏航、俯仰、宽、长、高。X、Y、Z 对应于在全局坐标系中3D边界框的中心。滚动角被忽略 (roll=0)。
  • pedestrian_boundingbox ,尺寸为 [frames, pedestrians, 8],其中最后一个维度用来表示行人的3D边界框。

Notes

  • 点云位于每个传感器的局部坐标系中,其中从局部坐标系到全局坐标系的转换是使用lidar_pose 计算的。
  • 角度以度为单位。
  • pose使用 UnrealEngine4 左侧坐标系表示。 vis.py 中提供了一个从局部 -> 全局重构变换矩阵的示例,该矩阵用于将所有局部激光雷达点云聚合到全局参考系统中。
  • vehicle索引在pointcloud、lidar_pose 和 vehicle_boundingbox 之间共享,即索引 [frame,i] 处的点云对应于边界框位于 [frame,i] 的车辆。
  • vehicle和pedestrians索引在每个帧之间是一致的,可用于确定给定车辆/行人的轨迹。
  • 给定帧的所有点云在时间上是同步的——它们是在完全相同的时刻被捕获的。

Details

提供了生成数据集的工具(Generating your own data),该数据集的官方版本包含 108 个片段(每个片段的包含的时间序列为125帧,frames=125)。车辆和行人的数量因片段而异,请参阅下面的详细信息。
这个官方数据集是使用以下设置生成的:

  • 5 帧/秒
  • 125 帧(对应于每个片段 25 秒的模拟时间)
  • 每个点云 50k 个点
  • 100m 激光雷达范围
  • 30帧烧毁(模拟开始时丢弃的帧数)
  • 从均值为 10 和 方差为 5 的二项分布中采样的n vehicles
  • 从均值为 5 和 方差为 2 的二项分布中采样的 n pedestrians

有关如何使用和可视化该数据集的更多信息,参见 github repository。

你可能感兴趣的:(#,数据集,协同感知,database)