layout: post
title: 深度学习入门 基于Python的理论实现
subtitle: 第三章 手写数字识别
tags: [Machine learning, Reading]
第三章 神经网络
3.6 手写数字识别
上一个post介绍了神经网络的基本内容,这一节搭配项目解决实际问题。这个例子非常简单,是一个机器学习里的Hello world。手写数字识别问题。但是这个例子是不完全的,我们假设学习已经全部完成,我们用学习到的参数,先实现神经网络的“推理处理”。这也叫神经网络的前向传播。
3.6.1 MNIST数据集
这个数据集网上的资料实在太多了,就连他的进阶版本Fashion MNIST也出来很久了,相信能看到现在的人没有太多人不知道这个数据集。
介绍简单带过。MNIST数据集(Mixed National Institute of Standards and Technology database)是美国国家标准与技术研究院收集整理的大型手写数字数据库,包含60,000个示例的训练集以及10,000个示例的测试集。
MNIST的图像是2828像素的灰度图像(1通道),像素的取值在0到255之间。每个图像都标有对应的阿拉伯数字标签。
这本书提供了数据集和相应的代码。传送门
import sys,os
sys.path.append(os.pardir)
from dataset.mnist import load_mnist
(x_train, t_train),(x_test, t_test) = load_mnist(flatten=True, normalize=False)
print(x_train.shape)
print(t_train.shape)
print(x_test.shape)
print(t_test.shape)
第一次执行代码可能比较慢,原因是需要下载,服务器在国外,下载的比较慢。也可以手动下载放在文件夹,我就是用的这个方法(自动下载实在太慢了)。
于是我们打印出训练集,测试集和对应的label的shape。
这里对代码做一点简单说明,这里的load_mnist函数是将数据集做导入,分别为两个训练集两个测试集,flatten参数为True代表将2828的图像扁平化,变成1784的向量。normalize的含义是将数值标准化为0到1之间的数字,这个函数还可以传入一个参数,就是one_hot_label,这个参数设置为True将会让标签变为one hot representation。
因为这里并不涉及参数的训练,因此我们需要导入参数,这离有一个pkl文件,保存着训练好的参数,直接导入就可以。下来简单显示一下图片。
import sys,os,cv2
import numpy as np
sys.path.append(os.pardir)
from dataset.mnist import load_mnist
(x_train, t_train),(x_test, t_test) = load_mnist(flatten=True, normalize=True)
print(x_train.shape)
print(t_train.shape)
print(x_test.shape)
print(t_test.shape)
first_image = x_train[0]
first_label = t_train[0]
print(first_label)
img = first_image.reshape(28,28)
cv2.imshow('img',img)
cv2.waitKey(0)
cv2.destroyAllWindows()
3.6.2 神经网络的推理处理
根据之前的内容,我们设计的神经网络的输入层的神经元个数,应该是784,也就是图像拉长之后的向量长度。输出层为10个神经元,因为输出层神经元的数量应该和分类的种类相等。另外,这神经网络有两个隐藏层,第一个隐藏层50个神经元,第二个有100个神经元。结合之前学过的知识,得到代码如下。
import sys,os,cv2,pickle
import numpy as np
sys.path.append(os.pardir)
from dataset.mnist import load_mnist
def sigmoid(x):
return 1/(1+np.exp(-x))
def softmax(x):
exp_x = np.exp(x-np.max(x))
sum_exp_x = np.sum(exp_x)
return exp_x/sum_exp_x
def get_data():
(x_train, t_train),(x_test, t_test) = load_mnist(flatten=True, normalize=True)
return x_test,t_test #没有训练阶段,因此只取测试数据
def init_network():
with open("sample_weight.pkl",'rb') as f:
network = pickle.load(f)
return network
def predict(network,x):
W1,W2,W3 = network['W1'],network['W2'],network['W3']
b1,b2,b3 = network['b1'],network['b2'],network['b3']
a1 = np.dot(x,W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1,W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2,W3) + b3
y = softmax(a3)
return y
x,t = get_data()
accuracy_cnt = 0
for i in range(len(x)):
y = predict(network,x[i])
p = y.argmax()
if p == t[i]:
accuracy_cnt += 1
accuracy = accuracy_cnt/t.shape[0]
print(accuracy)
最后得到的正确率为93.52%。
3.6.3 批处理
上面就是神经网络的实现,但是在实际写代码的过程中,有一个问题,那就是在计算正确率的时候,我们是一遍一遍调用predict函数,得到结果和label进行比较,使用了for循环,这显然是不好的,我们引入矩阵运算就是为了应对这样的情况。但是还应该注意到的是,我们也不能一次将所有的数据输入进去,因为这会引起内存的溢出等等一系列问题,因此我们使用批处理可以让计算更加高效。之前计算时,矩阵大小的传递过程如下:
下面我们一次性传入100张图片,也就是输入矩阵的大小改变,变成如下的形式。
通过比较可以明显的看出,一次可以计算100张图片,输出100个结果。具体的细节就不多讲了,直接上实现。
import sys,os,cv2,pickle
import numpy as np
sys.path.append(os.pardir)
from dataset.mnist import load_mnist
def sigmoid(x):
return 1/(1+np.exp(-x))
def softmax(x):
exp_x = np.exp(x-np.max(x))
sum_exp_x = np.sum(exp_x)
return exp_x/sum_exp_x
def get_data():
(x_train, t_train),(x_test, t_test) = load_mnist(flatten=True, normalize=True)
return x_test,t_test #没有训练阶段,因此只取测试数据
def init_network():
with open("sample_weight.pkl",'rb') as f:
network = pickle.load(f)
return network
def predict(network,x):
W1,W2,W3 = network['W1'],network['W2'],network['W3']
b1,b2,b3 = network['b1'],network['b2'],network['b3']
a1 = np.dot(x,W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1,W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2,W3) + b3
y = softmax(a3)
return y
x,t = get_data()
batch_size = 100
accuracy_cnt = 0
for i in range(0,len(x),batch_size):
x_batch = x[i:i+batch_size]
y_batch = predict(network,x_batch)
p = np.argmax(y_batch,axis=1)
accuracy_cnt += np.sum(p == t[i:i+batch_size])
accuracy = accuracy_cnt/t.shape[0]
print(accuracy)
最终得到的结果是完全一样的。
3.7 小结
第三章讲的是神经网络的前向传播。也就是数据是如何传递的,当然这一章的内容也是不完整的,因为没有训练部分,而是直接载入参数。
- 实现部分主要的重点在于对批处理的理解。