自动驾驶相关数据集汇总

不定期更新…反正看论文见到就记下来就对了。话说自动驾驶领域论文里带数据集是不是就比较容易被引用……

所有数据集都是计算机视觉相关的。基于图像做的各种事情。

 

常用数据集:

KITTI数据集,包含双目图像、激光雷达点云、导航信息以及2D、3D物体边框、光流场景流、深度和物体跟踪等各类标注。

Cityscapes,包含城市场景下双目图像及像素级语义分割标注。

comma2k19,包含单目图像、控制信息、手机和车载GPS信息。

牛津数据集,包含全景图像、激光雷达点云、导航信息

Berkeley的BDDV,包含单目图像、GPS信息以及2D边框、实例级像素语义分割、可通行区域、地面标线等标注。

Udacity,包含前左右图像、GPS信息、控制信息以及2D物体边框标注。

GTA游戏,最大的优点是可以获得各场景物体距离车体的精确距离以及可任意更改的视角。还可获得控制量。

nuScenes,包括全景图像、激光雷达、雷达等信息及3D物体边框标注

Waymo数据集,目前尚未开放但可预约提醒。包括5个激光雷达、全景图像及大量2D、3D物体边框标注,据说数据集多样性也比KITTI有很大提升。

Carla城市驾驶模拟器,包括各类天气、场景下的模拟数据集。

 

端到端控制(+理解):

ETH的全景相机数据集,包含全景图像、控制信息、路径规划图像或路点、GPS、相机相对车体位置。

Berkeley的端到端控制结果及相应文字原因数据集,包含视觉图像、控制信息、基于注意力模型的行为解释标注。

 

定位相关:

Nexar的城市环境中视频流+手机定位结果数据集。目标是用视觉提高定位精度。

 

 

你可能感兴趣的:(自动驾驶)