希望有包含建筑物的数据集这是我在找寻带框标注的三维点云建筑物数据集过程中发现的一些数据集,我是奔着找建筑物去的,还有很多关于室内场景和自动驾驶车前场景的数据集在此就不列出了。
欢迎补充和交流!!!
Legend: red — ground, black — building, navy — car, green — tree, cyan — low-vegetation.
链接:点云分类
大规模点云分类基准,它提供了一个带有大标签的自然场景的3D点云数据集,总计超过40亿个点,8个类别标签。并且还涵盖了多种多样的城市场景。
该数据集是一个大型户外数据集,使用地面激光扫描仪获得,总共包含 40亿个点。数据集包含了各种城市和乡村场景,如农场,市政厅,运动场,城堡和广场。该数据集包含 15 个训练数据集和 15 个测试数据集,另外还包括 4 个缩减了的测试数据集。数据集中的点都含有 RGB 和强度信息,并被标记为 8 个语义类别。
8个类别标签的分类基准,即 1:人造地形; 2:自然地形; 3:高植被; 4:低植被; 5:建筑物; 6:硬景观; 7:扫描人工制品,8:汽车 。附加标签 0:未标记点,标记没有地面真值的点
链接:Semantic3D
包含大量的Riegl和Velodyne雷达数据,可能更适合slam研究
Authors Johannes Schauer, Andreas Nüchter from the University of Würzburg, Germany
Date 2016-10-27
Location Würzburg marketplace (geo:49.79445,9.92928)
Scanner Riegl VZ-400
#scans 6
#points 86585411
Datatype X,Y,Z (lefthanded) and reflectance in uosr format
Download wue_city.tar.xz
MD5 9b38cad10038ee4f3abbdd7b8431fa27
Filesize 1187 MiB (5117 MiB unpacked)
README README.wue_city
链接: Robotic 3D Scan Repository
这个数据集来自德国卡尔斯鲁厄理工学院的一个项目,其中包含了利用KIT的无人车平台采集的大量城市环境的点云数据集(KITTI),这个数据集不仅有雷达、图像、GPS、INS的数据,而且有经过人工标记的分割跟踪结果,可以用来客观的评价大范围三维建模和精细分类的效果和性能。
3D对象检测基准由7481个训练图像和7518个测试图像以及相应的点云组成,包括总共80256个带标签的对象,单声道和立体相机数据,包括校准、测程法等等。
!
在这里插入图片描述
链接: The KITTI Vision Benchmark Suite
PASCAL3D +数据集,它是用于3D对象检测和姿态估计的新颖且具有挑战性的数据集。 PASCAL3D +通过3D注释增强了PASCAL VOC 2012 [12]的12个刚性类别。此外,从ImageNet 为每个类别添加了更多图像。与现有的3D数据集相比,PASCAL3D +图像具有更大的可变性,并且每个类别平均有3,000多个对象实例。该数据集将为研究3D检测和姿态估计提供丰富的测试平台,并将有助于显着推动这一领域的研究。在新的数据集上提供了DPM 的变化结果,用于在不同情况下进行对象检测和视点估计。
物体检测和姿态估计的基准(10个类别,每个类别有10个对象实例)
链接: A Benchmark for 3D Object Detection in the Wild
这个数据库的采集地点是在美国卡耐基梅隆大学周围,数据采集使用Navlab11,配备侧视SICK LMS激光扫描仪,用于推扫。 其中包含了完整数据集、测试集、训练集和验证集。
链接:Oakland 3-D Point Cloud Dataset
WHU-RS19 Dataset 是一个遥感影像数据集,其包含 19 个类别的场景影像共计 1005 张,其中每个类别有 50 张。WHU-RS19是从谷歌卫星影像上获取19类遥感影像,可用于场景分类和检索。
该数据集由武汉大学于 2011 年发布,相关论文有《Satellite Image Classification via Two-layer Sparse Coding with Biased Image Representation》。
建议的基准数据集包括 115 次扫描,共收集了 17.4 亿多个 3D 点,这些点来自 11 个不同的环境(即地铁站、高速铁路站台、山区、森林、公园、校园、住宅、河岸、文物建筑、地下挖掘和隧道),这里仅取文物与住宅点云。
链接: csdn会员下载(我没下载,不知可用否)
暂无有效链接,需要可向武大申请使用
数据集是遥感图像,DOTA1.5是在DOTA基础上扩增的数据集
DOTA数据集包含2806张航空图像,尺寸大约为4kx4k,包含15个类别共计188282个实例。其标注方式为四点确定的任意形状和方向的四边形(区别于传统的对边平行bbox)
标注格式:
在数据集中,每个实例的位置由四边形边界框注释,可以表示为“x 1,y 1,x 2,y 2,x 3,y 3,x 4,y 4”,其中(xi,yi)表示图像中定向边界框顶点的位置。顶点按顺时针顺序排列。 以下是采用的注释方法的可视化。黄点代表起点。 它指的是:(a)飞机的左上角,(b)大型车辆钻石的左上角,(c)扇形棒球的中心。
链接:遥感图像数据集DOTA1.5 百度云链接
“DIOR”是一个用于光学遥感图像目标检测的大规模基准数据集。数据集包含23463个图像和192472个实例,涵盖20个对象类。这20个对象类是飞机、机场、棒球场、篮球场、桥梁、烟囱、水坝、高速公路服务区、高速公路收费站、港口、高尔夫球场、地面田径场、天桥、船舶、体育场、储罐、网球场、火车站、车辆和风磨。
链接:DIOR
LEVIR数据集由大量 800 × 600 像素和0.2m〜1.0m /像素的高分辨率Google Earth图像和超过22k的图像组成。LEVIR数据集涵盖了人类居住环境的大多数类型地面特征,例如城市,乡村,山区和海洋。数据集中未考虑冰川,沙漠和戈壁等极端陆地环境。数据集中有3种目标类型:飞机,轮船(包括近海轮船和向海轮船)和油罐。所有图像总共标记了11k个独立边界框,包括4,724架飞机,3,025艘船和3,279个油罐。每个图像的平均目标数量为0.5。
链接:LEVIR
西北工业大学标注的航天遥感目标检测数据集,共有800张图像,其中包含目标的650张,背景图像150张,目标包括:飞机、舰船、油罐、棒球场、网球场、篮球场、田径场、港口、桥梁、车辆10个类别。开放下载,大概73M.
链接:NWPU VHR-10
Inria是法国国家信息与自动化研究所简称,该机构拥有大量数据库,其中此数据库是一个城市建筑物检测的数据库,标记只有building, not building两种,且是像素级别,用于语义分割。训练集和数据集采集自不同的城市遥感图像。
链接:INRIA aerial image dataset
这个数据集包含用Velodyne HDL-64E LIDAR扫描的各种常见城市道路对象,收集于澳大利亚悉尼CBD。含有631个单独的扫描物体,包括车辆、行人、广告标志和树木等。可以用来测试匹配和分类算法。
Sydney Urban Objects Dataset 下面是数据格式:
链接:Sydney Urban Objects Dataset
ISPRS官方提供了航空、无人机、倾斜影像数据进行密集匹配和三维重建,以下给出相应的数据获取地址。
一共提供了两组航空实验数据,一组是高楼林立的加拿大Toronto地区,另一组是半农村地区的德国Vaihingen地区。两组数据的航向重叠度为60%,旁向重叠度为30%。
链接: 航空数据
链接:无人机数据
链接:倾斜数据
国内的中科院自动化研究所提供了多组近景三维重建的数据集。
链接: 中科院数据集
ImageNet Large Scale Visual Recognition Challenge
链接:ILSVRC2014
ImageNet相关信息如下:
1)Total number of non-empty synsets: 21841
2)Total number of images: 14,197,122
3)Number of images with bounding box annotations: 1,034,908
4)Number of synsets with SIFT features: 1000
5)Number of images with SIFT features: 1.2 million
链接: ImageNet
有10,000张RGB-D图片,有58,657个3D包围框和146,617 个2d包围框,是NYU Depth V2 dataset的超集,多了3D bounding boxes和room layouts的标注。
链接:SUN database
SUN-RGBD数据集由四种不同的传感器获取,分别为kinect1,kinect2,xction,
SUNRGBD V1包含10335张RGBD图片,19个类的对象。这些图片来自数据集NYU depth v2(既NYUDv2),B3DO,SUN3D,使用SUNRGBD此数据集的时候不要忘了引用其包含的数据集的相关论文文献。
链接:SUN-RGBD数据集
ModelNet总共有662中目标分类,127915个CAD,以及十类标记过方向朝向的数据。
其中包含了三个子集:
数据格式:.OFF
数据特点:结构简单,不适合做点云数据集,模型结构更多通过边来体现
链接:ModelNet
关于RGBD 图像场景理解的数据库
提供1449张深度图片和他们的密集2d点类标注
链接:NYU Depth V2 dataset
关于3D场景的数据集,有124个场景,每场景有49/64个位置的RGB图像和结构光标注
链接:DTU dataset
这一实验室提供17个三维视觉的数据集,除了上面提到的ShapeNet和SUN3D外,还有:
链接:普林斯度视觉和机器人实验室数据集