目录
1)首先我们加载Keras中的数据集
2)网络架构
3)选择编译(compile参数)
4)准备图像数据
5) 训练模型
6)测试数据
前面的博客中已经介绍了如何在Ubuntu下安装Keras深度学习框架。
现在我们使用 Keras 库来学习手写数字分类。
我们这里要解决的问题是:将手写数字的灰度图像(28 像素×28 像素)划分到 10 个类别 中(0~9)。我们将使用 MNIST 数据集,它是机器学习领域的一个经典数据集,其历史几乎和这 个领域一样长,而且已被人们深入研究。这个数据集包含 60 000 张训练图像和 10 000 张测试图 像,由美国国家标准与技术研究院(National Institute of Standards and Technology,即 MNIST 中 的 NIST)在 20 世纪 80 年代收集得到。你可以将“解决”MNIST 问题看作深度学习的“Hello World”。下图为MNIST图像数字样本:
1)首先我们加载Keras中的数据集
Keras已经包含了很多数据集,我们本例子中的数据集也包含在其中:
[1]
from keras.datasets import mnist(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
这里要多下载几次才可能下载成功,不需要翻墙。
我们来看一下训练集数据:
[2]
train_images.shape
(60000, 28, 28)
这里显示的是我们有60000个训练样本,其中每个样本是28X28像素的图像。
[3]
train_labels
array([5, 0, 4, ..., 5, 6, 8], dtype=uint8)
这是训练集的标签。
接下来的工作流程如下:
- 首先,将训练数据(train_images 和 train_labels)输入神经网络;
- 其次,网络学习将图像和标签关联在一起;
- 最后,网络对 test_images 生成预测, 而我们将验证这些预测与 test_labels 中的标签是否匹配。
2)网络架构
[4]
from keras import models
from keras import layersnetwork = models.Sequential()
network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))
network.add(layers.Dense(10, activation='softmax'))
神经网络的核心组件是层(layer),它是一种数据处理模块,你可以将它看成数据过滤器。 进去一些数据,出来的数据变得更加有用。具体来说,层从输入数据中提取表示——我们期望这种表示有助于解决手头的问题。大多数深度学习都是将简单的层链接起来,从而实现渐进式 的数据蒸馏(data distillation)。深度学习模型就像是数据处理的筛子,包含一系列越来越精细的数据过滤器(即层)。
本例中的网络包含 2 个 Dense 层,它们是密集连接(也叫全连接)的神经层。第二层(也是最后一层)是一个 10 路 softmax 层,它将返回一个由 10 个概率值(总和为 1)组成的数组。每个概率值表示当前数字图像属于 10 个数字类别中某一个的概率。
3)选择编译(compile参数)
其中用到的主要有以下三个参数:
-
损失函数(loss function):网络如何衡量在训练数据上的性能,即网络如何朝着正确的方向前进。
-
优化器(optimizer):基于训练数据和损失函数来更新网络的机制。
-
在训练和测试过程中需要监控的指标(metric):本例只关心精度,即正确分类的图像所占的比例。
[5]
network.compile(optimizer='rmsprop',loss='categorical_crossentropy',metrics=['accuracy'])
4)准备图像数据
在开始训练之前,我们将对数据进行预处理,将其变换为网络要求的形状,并缩放到所有值都在 [0, 1] 区间。比如,之前训练图像保存在一个 uint8 类型的数组中,其形状为 (60000, 28, 28),取值区间为 [0, 255]。我们需要将其变换为一个 float32 数组,其形状为 (60000, 28 * 28),取值范围为 0~1。
[6]
train_images = train_images.reshape((60000, 28 * 28))
train_images = train_images.astype('float32') / 255test_images = test_images.reshape((10000, 28 * 28))
test_images = test_images.astype('float32') / 255
我们还需要对标签进行分类编码。
[7]
from keras.utils import to_categoricaltrain_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)
5)训练模型
现在我们准备开始训练网络,在 Keras 中这一步是通过调用网络的 fit 方法来完成 。
[8]
network.fit(train_images, train_labels, epochs=5, batch_size=128)
训练过程中会显示两个数字:一个是网络在训练数据上的损失(loss),另一个是网络在 训练数据上的精度(acc)。 现在我们来检查一下模型在测试集上的性能。
6)测试数据
[9]
test_loss, test_acc = network.evaluate(test_images, test_labels)
print('test_acc:', test_acc)
这样一个简单的全连接神经网络模型,精度为97%。第一个例子到这里就结束了。你刚刚看到了如何构建和训练一个神经网络,用不到 20 行的 Python 代码对手写数字进行分类。接下来我们需要学习张量(输入网络的数据存储对象)、张量运算(层的组成要素)和梯度下降(可以让网络从训练样本中进行学习)。