介绍深度学习中的数据集
来源:加利福尼亚理工学院101类图像数据库
数据集目的:
项目地址:
下载地址:
来源:Caltech 256数据集是加利福尼亚理工学院收集整理的数据集。
简要介绍:该数据集选自google image数据集,并手工去除了不符合其类别的图片。在该数据集中,图片被分为256类,每个类别的图片超过80张。Caltech 256数据集是 caltech-101 数据集的改进版图片数据集,该数据集收集了 256 个类的 20607 张图片。
有几处改进:
a)类别数量增加一倍以上
b)任何类别中图像的最小数量从 31 增加到 80
c)避免因图像旋转造成的伪影
d)引入了一个新的更大的杂波类别来测试背景拒绝。
来源:CeleA是香港中文大学的开放数据
简要介绍:包含10177个名人的202599张图片
官网:http://mmlab.ie.cuhk.edu.hk/projects/CelebA.html
来源:CIFAR-10 是由Hinton 的学生Alex Krizhevsky 和Ilya Sutskever 整理的一个用于识别普适物体的小型数据集。
简要介绍: CIFAR-10是一个更接近普适物体的彩色图像数据集。一共包含10 个类别的RGB 彩色图片:飞机( airplane )、汽车( automobile )、鸟类( bird )、猫( cat )、鹿( deer )、狗( dog )、蛙类( frog )、马( horse )、船( ship )和卡车( truck )。每个图片的尺寸为32 × 32 ,每个类别有6000个图像,数据集中一共有50000 张训练图片和10000 张测试图片。
来源:
简要介绍:CIFAR100数据集有100个类。每个类有600张大小为32 × 32 32\times 3232×32的彩色图像,其中500张作为训练集,100张作为测试集。对于每一张图像,它有fine_labels和coarse_labels两个标签,分别代表图像的细粒度和粗粒度标签,对应下图中的classes和superclass。也就是说,CIFAR100数据集是层次的。
官网:http://www.cs.toronto.edu/~kriz/cifar.html
简要介绍:Cityscapes拥有5000张在城市环境中驾驶场景的图像(2975train,500 val,1525test)。它具有19个类别的密集像素标注(97%coverage),其中8个具有实例级分割。Cityscapes数据集,即城市景观数据集,这是一个新的大规模数据集,其中包含一组不同的立体视频序列,记录在50个不同城市的街道场景。城市景观数据集中于对城市街道场景的语义理解图片数据集,该大型数据集包含来自50个不同城市的街道场景中记录的多种立体视频序列,除了20000个弱注释帧以外,还包含5000帧高质量像素级注释。因此,数据集的数量级要比以前的数据集大的多。Cityscapes数据集共有fine和coarse两套评测标准,前者提供5000张精细标注的图像,后者提供5000张精细标注外加20000张粗糙标注的图像。
评价视觉算法在城市场景语义理解的主要任务中的性能:像素级、实例级、泛光语义标注;
支持旨在利用大量(弱)注释数据的研究,例如用于训练深度神经网络。
简要介绍:名字的由来为,Extended MNIST (EMNIST), 因为 MNIST 被大家熟知,但是目前 MNIST 上的精度已经很高了,一个好的数据集应该更具挑战性,所以这里就推出了 EMNIST ,一个在手写字体分类任务中更有挑战的 Benchmark 。在数据集接口上,此数据集的处理方式跟 MNIST 保持一致,也是为了方便已经熟悉 MNIST 的我们去使用,这里着重介绍一下 EMNIST 的分类方式。
分类方式:因为语言及使用习惯的问题,数字比字母多,而字母之间也有差异,所以 EMNIST 主要分为以下 5 类:
简要介绍:不同于MNIST手写数据集,Fashion-MNIST数据集包含了10个类别的图像,分别是:t-shirt(T恤),trouser(牛仔裤),pullover(套衫),dress(裙子),coat(外套),sandal(凉鞋),shirt(衬衫),sneaker(运动鞋),bag(包),ankle boot(短靴)。