CIFAR-10 数据集简介

CIFAR-10 数据集简介
CIFAR-10 是由 Hinton 的学生 Alex Krizhevsky 和 Ilya Sutskever 整理的一个用于识别普适物体的小型数据集。一共包含 10 个类别的 RGB 彩色图 片:飞机( a叩lane )、汽车( automobile )、鸟类( bird )、猫( cat )、鹿( deer )、狗( dog )、蛙类( frog )、马( horse )、船( ship )和卡车( truck )。图片的尺寸为 32×32 ,数据集中一共有 50000 张训练圄片和 10000 张测试图片。 CIFAR-10 的图片样例如图所示。
与 MNIST 数据集中目比, CIFAR-10 具有以下不同点:
• CIFAR-10 是 3 通道的彩色 RGB 图像,而 MNIST 是灰度图像。
• CIFAR-10 的图片尺寸为 32×32, 而 MNIST 的图片尺寸为 28×28,比 MNIST 稍大。
• 相比于手写字符, CIFAR-10 含有的是现实世界中真实的物体,不仅噪声很大,而且物体的比例、 特征都不尽相同,这为识别带来很大困难。 直接的线性模型如 Softmax 在 CIFAR-10 上表现得很差。
下面这幅图就是列举了10各类,每一类展示了随机的10张图片:
CIFAR-10 数据集简介_第1张图片

数据集由6万张32*32的彩⾊图⽚组成,⼀共有10个类别。每个类别6000张图⽚。其中有5万张训练图⽚及1万张测试图⽚。
数据集被划分为5个训练块和1个测试块,每个块1万张图⽚。
测试块包含了1000张从每个类别中随机选择的图⽚。训练块包含随机的剩余图像,但某些训练块可能对于⼀个类别的包含多于其他类别,
训练块包含来⾃各个类别的5000张图⽚。
这些类是完全互斥的,及在⼀个类别中出现的图⽚不会出现在其它类中。
数据集版本
作者提供了3个版本的数据集:python version; Matlab version; binary versio

基于深度残差学习的图像识别 何开明,张翔宇,任绍庆,孙健
更深层次的神经网络更难训练。我们提出了一个残差学习框架,以简化网络的训练,这比以前使用的网络要深入得多。我们明确地将层重新定义为参照层输入的学习剩余函数,而不是学习未引用的函数。我们提供了全面的经验证据,表明这些剩余网络更容易优化,并可以从大幅增加的深度获得精度。在ImageNet数据集上,我们评估了深度高达152层的剩余网络——比VGG网络深8倍,但仍然具有较低的复杂性。这些残差网络的集合在ImageNet测试集上的误差为3.57%。该结果获得了ilsvrc 2015年分类任务第一名。我们还对100层和1000层的CIFAR-10进行了分析。
表征深度对许多视觉识别任务至关重要。仅仅由于我们极其深入的表示,我们在COCO对象检测数据集上获得了28%的相对改进。

你可能感兴趣的:(深度学习,计算机视觉,神经网络)