CIFAR-10
该数据集共有60000张彩色图像,这些图像是32*32,分为10个类,每类6000张图。这里面有50000张用于训练,构成了5个训练批,每一批10000张图;另外10000用于测试,单独构成一批。
测试批的数据里,取自10类中的每一类,每一类随机取1000张。抽剩下的就随机排列组成了训练批。注意一个训练批中的各类图像并不一定数量相同,总的来看训练批,每一类都有5000张图。
下面这幅图就是列举了10各类,每一类展示了随机的10张图片:
需要说明的是,这10类都是各自独立的,不会出现重叠。
数据的下载:
(共有三个版本:python,matlab,binary version 适用于C语言)
http://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz
http://www.cs.toronto.edu/~kriz/cifar-10-matlab.tar.gz
http://www.cs.toronto.edu/~kriz/cifar-10-binary.tar.gz
你可以在cuda-convert的项目页面上找到此数据集上的一些基线可复制的结果。这个结果是由CNN卷积神经网络得到的。简要的说,在没有数据扩充的情况下,测试误差为18%,反之为11%。
数据集布局
Python/Matlab 版本
这两个数据形式是一样的,就以python为例。
该数据集文件包含data_batch1……data_batch5,和test_batch。他们都是由cPickle库产生的序列化后的对象(关于pickle,移步https://docs.python.org/3/library/pickle.html)。这里给出python2和python3的例程,他可以打开这样的pkl文件,返回一个字典结构的数据:
Python2:
1 def unpickle(file):2 import cPickle3 with open(file, 'rb') as fo:4 dict = cPickle.load(fo)5 return dict
Python3:
1 def unpickle(file):2 import pickle3 with open(file, 'rb') as fo:4 dict = pickle.load(fo, encoding='bytes')5 return dict
这样的话,每个batch文件包含一个字典,每个字典包含有:
- Data
一个10000*3072的numpy数组(numpy:https://docs.scipy.org/doc/numpy-dev/user/quickstart.html),数据类型是无符号整形uint8。这个数组的每一行存储了32*32大小的彩色图像(32*32*3通道=3072)。前1024个数是red通道,然后分别是green,blue。另外,图像是以行的顺序存储的,也就是说前32个数就是这幅图的像素矩阵的第一行。
- labels
一个范围在0-9的含有10000个数的列表(一维的数组)。第i个数就是第i个图像的类标。
数据集除了6个batch之外,还有一个文件batches.meta。它包含一个python字典对象,内容有:
一个包含10个元素的列表,每一个描述了labels array中每个数字对应类标的名字。比如:label_names[0] == "airplane