目前关于自动驾驶数据集你想知道的,应该都在这里了,这是「整数智能」自动驾驶数据集八大系列分享之系列五:
「本期划重点」
不同城市不同时段收集的复杂路况真实数据的数据集:Complex Urban, ApolloScape, Elektra (CVC-13), KITTI Stereo 2015, Oxford RobotCar, Málaga Stereo and Urban
Complex Urban为机器人操作系统环境中提供了开发工具
ApolloScape促进感知、导航和控制等方面的创新
Oxford RobotCar收集了同一条路线所有天气情况和几乎所有道路场景
自动驾驶数据集分享是整数智能推出的一个全新分享系列,在这个系列中,我们将介绍目前为止各大科研机构和企业推出的所有公开自动驾驶数据集。数据集主要分为八个系列:
系列一:目标检测数据集
系列二:语义分割数据集
系列三:车道线检测数据集
系列四:光流数据集
系列五:全景数据集
系列六:定位与地图数据集
系列七:驾驶行为数据集
系列八:仿真数据集
下面共包括8个数据集:
发布方:韩国科学技术院
下载地址: http://irap.kaist.ac.kr/dataset
论文地址: https://ieeexplore.ieee.org/document/8460834
发布时间:2018年
简介:该数据集提供光探测和测距(激光雷达)数据和立体图像与各种位置传感器目标高度复杂的城市环境。所提供的数据集捕捉了城市环境(例如大都市地区、复杂建筑和居住区)的特征。给出了二维和三维激光雷达的数据,这是典型的激光雷达传感器。用于车辆导航的原始传感器数据以文件格式提供。为了方便开发,在机器人操作系统(ROS)环境中提供了开发工具
特征
提供来自不同环境的数据,如复杂的大都市地区、住宅区和公寓楼群
提供具有两个级别精度的传感器数据(普通低精度传感器和昂贵的高精度传感器)
通过使用高精度导航传感器的SLAM算法和人工迭代最接近点(ICP)提供基线
通过ROS为普通机器人社区提供开发工具
针对不同的机器人应用使用WebGL提供原始数据和3D预览
发布方:百度
下载地址: http://apolloscape.auto/stereo.html#to_data_href
官网地址: http://apolloscape.auto/index.html
发布时间:2018年
简介:ApolloScape是Apollo自动驾驶项目的一部分,是一个以研究为导向的项目,旨在促进自动驾驶各个方面的创新,包括感知、导航和控制。它提供了对语义注释(像素级)街景图像和模拟工具的公开访问,支持用户定义的政策。这是一个不断发展的项目,新的数据集和新的能力将被定期添加
特征
由5165个图像对和相应的差异图,其中4156个图像对用于训练,1009个图像对用于测试
通过积累来自激光雷达的三维点云和将三维CAD模型拟合到单独移动的汽车上获得真实值
包含不同的交通状况和严重的遮挡
发布方:巴塞罗那自治大学
下载地址: http://adas.cvc.uab.es/elektra/enigma-portfolio/cvc-13-multimodal-stereo-dataset/
官网地址: http://adas.cvc.uab.es/elektra/
发布时间:2016年
简介:该数据集由三个多模态立体图像子集组成,每个子集都包含不同的场景系列:道路、外墙和平滑表面。每个子集包含在不同条件和日期拍摄的图像。对于每对多模态立体图像,都会给出一个真实的或合成的深度图,用作ground truth。此外该数据集还提供了相应的校准集
特征
所有图像使用彩色相机和红外相机拍摄记录
所有图像均以PPM和BMP格式提供
发布方:德国卡尔斯鲁厄理工学院
下载地址: http://www.cvlibs.net/datasets/kitti/eval_scene_flow.php?benchmark=stereo
官网地址: http://www.cvlibs.net/datasets/kitti/index.php
发布时间:2015年
简介:KITTI是面向自动驾驶的标准测试数据集,主要关注其中双目数据,KITTI使用4个相机采集图像数据,两个为灰度相机,另外两个为彩色相机
特征
由200个训练场景和200个测试场景组成(每个场景4张彩色图像,使用png格式保存来减少损失)
包含动态场景,在半自动过程中已为其建立了ground truth
其评估服务器计算出所有200张测试图像的所有ground truth像素的平均不良像素百分比,如果一个像素的差异或流量端点误差<3px或<5%,则认为该像素被正确估计
发布方:牛津大学
下载地址: https://robotcar-dataset.robots.ox.ac.uk/downloads/
论文地址: https://robotcar-dataset.robots.ox.ac.uk/documentation/
发布时间:2015年
简介:通过长时间在不同条件下行驶同一条路线,该数据集收集了由于光照、天气、动态物体、季节影响和施工等因素导致的场景外观和结构的大范围变化
特征
近2000万张图像
数据集被分为单独的路径,每个路径对应一次单程traversal,为了减少下载文件的大小,又进一步将每个traversal划分为块,其中每个块对应于大约6分钟的路径片段,在一次traversal中,来自不同传感器的块将在时间上重叠;但是,块在不同traversal之间不对应。每个区块都被打包为tar归档文件,以便下载
拥有所有天气条件下收集的数据(大雨、夜间、阳光直射和降雪等)
拥有不同的道路场景外观(动态物体、施工等因素的影响)
数据集中来自不同地区的样本3D地图
发布方:马拉加大学
下载地址: http://www.mrpt.org/MalagaUrbanDataset
论文地址: https://www.researchgate.net/publication/261960230_The_Malaga_urban_dataset_High-rate_stereo_and_LiDAR_in_a_realistic_urban_scenario
发布时间:2013年
简介:该数据集是在Málaga不同城市地区的汽车旅行中记录的单个序列,总持续时间为93分钟。所有传感器的观测都以其最大额定速率记录
特征
指向不同方向的多个激光扫描仪
高速率(20帧/秒)和高分辨率(1024*768)立体图像的质量良好
反映了现实交通的动态环境
数据集视频索引的视图,左上为原始视频帧,左下为车辆在城市地图上的当前位置,右下为激光扫描仪获得的本地3D点云
发布方:来福车交通网络公司
下载地址: https://level-5.global/register/
论文地址: https://arxiv.org/pdf/2006.14480v2.pdf
发布时间:2013年
简介:该数据集作者认为自动驾驶更适合于服务单一的、高需求的路线,而不是服务于一个广泛的区域。所以在四个月的时间里由20辆汽车组成的车队沿着加州帕洛阿尔托的固定路线收集了1000小时的数据,由17万个场景组成,其中每个场景长25秒,捕获了自动驾驶系统的感知输出,它编码了附近车辆、骑自行车的人和行人在一段时间内的精确位置和运动。在此基础上,该数据集包含一个有15,242个标记元素的高清语义地图和一个该地区的高清鸟瞰图
特征
包含1000小时的交通场景,捕捉了20辆自驾车周围的交通参与者的运动,总里程26,000公里
高清(HD)语义地图,总计15000多个注释,包括8500个车道段
该地区的高分辨率航空图像,横跨74平方公里,每个像素的分辨率为6cm,提供关于环境的进一步空间背景
数据集的概述,包括在火车站和办公室之间6.8英里的路线上记录的1118小时的感知数据(红色)。左下角的例子显示了在高清语义地图之上发布的场景,这些场景捕捉了道路的集合形状和该地区的鸟瞰图
发布方:华为
下载地址:https://once-for-auto-driving.github.io/download.html#downloads
论文地址: https://arxiv.org/abs/2106.11037
发布时间:2021年
简介:为了解决数据不足的问题,ONCE(One millionN sCenEs)数据集包含100万个三维场景和700万个相应的二维图像,从数量上看比最大的Waymo Open数据集多5倍,而且三维场景的记录时间为144个驾驶小时,比现有数据集长20倍,涵盖了更多不同的天气条件、交通条件、时间段和地区
特征
200平方公里的驾驶区域,144小时驾驶时间
15000个完全注释的场景,有5个类别(汽车、公共汽车、卡车、行人、自行车)
多样的环境(白天/夜晚,晴天/雨天,城市/郊区)
ONCE中图片和点云图像