深度学习之BP神经网络识别手写数字(五)

本节使用MNIST数据集作为输入数据。

根据MNIST数据集的特性:
每张图片为28*28,其中大约有60000个手写字体训练样本。因为是对数字的识别,所以输出的范围为0~9。这就类似于一个10分类的问题。

##构建神经网络
输入层需要28*28个节点,输出成需要10个节点。对于隐藏层的层数以及节点数的判定是一个技术活。不过对于全连接网络来说,一般隐藏层不要超过三层,当然如果层数越多,计算的难度肯定是越大。本次只设定一个隐藏层。
而隐藏层的节点数目的确定,有几个公式:
深度学习之BP神经网络识别手写数字(五)_第1张图片
当然也没有特定的确定方式,一般就是哪个效果好使用哪个。
本次隐藏层节点定为:300
所以网络结构为:

Tables Cool
输入层 784
隐藏层 300
输出层 10

接着只需要将MNIST的训练数据按照节点一个个数据就可以了。

废话不多说 看代码。

代码

getImage.py

#!/usr/bin/env python
# -*- coding: UTF-8 -*-
import struct
from bp import *
from datetime import datetime
import matplotlib.pyplot as plt

# 数据加载器基类
class Loader(object):
    def __init__(self, path, count):
        '''
        初始化加载器
        path: 数据文件路径
        count: 文件中的样本个数
        '''
        self.path = path
        self.count = count
    def get_file_content(self):
        '''
        读取文件内容
        '''
        f = open(self.path, 'rb')
        content = f.read()
        f.close()
        return content
    def to_int(self, byte):
        '''
        将unsigned byte字符转换为整数
        '''
        return struct.unpack('B', byte)[0]
# 图像数据加载器
class ImageLoader(Loader):
    def get_picture(self, content, index):
        '''
        内部函数,从文件中获取图像
        '''
        ##从偏移量位置开始读取有效数据
        start = index * 28 * 28 + 16

        picture = []
        for i in range(28):
            picture.append([])
            for j in range(28): 
                picture[i].append(
                    self.to_int(content[start + i * 28 + j]))
        #picture 结构 二位数组 28*28
        return picture
    def get_one_sample(self, picture):
        '''
        内部函数,将图像转化为样本的输入向量
        '''
        sample = []
        for i in range(28):
            for j in range(28):
                sample.append(picture[i][j])
        #将样本
        return sample
    def load(self):
        '''
        加载数据文件,获得全部样本的输入向量
        '''
        #读取所有的图片样本
        content = self.get_file_content()
        data_set = []
        for index in range(self.count):
            data_set.append(
                self.get_one_sample(
                    self.get_picture(content, index)))
        return data_set
# 标签数据加载器
class LabelLoader(Loader):
    def load(self):
        '''
        加载数据文件,获得全部样本的标签向量
        '''
        content = self.get_file_content()
        labels = []
        for index in range(self.count):
            labels.append(self.norm(content[index + 8]))
        return labels
    def norm(self, label):
        '''
        内部函数,将一个值转换为10维标签向量
        '''
        label_vec = []
        label_value = self.to_int(label)
        for i in range(10):
            if i == label_value:
                label_vec.append(0.9)
            else:
                label_vec.append(0.1)
        return label_vec

def get_training_data_set():
    '''
    获得训练数据集
    '''
    image_loader = ImageLoader('train-images.idx3-ubyte', 60000)
    label_loader = LabelLoader('train-labels.idx1-ubyte', 60000)
    return image_loader.load(), label_loader.load()

def get_test_data_set():
    '''
    获得测试数据集
    '''
    image_loader = ImageLoader('t10k-images.idx3-ubyte', 10000)
    label_loader = LabelLoader('t10k-labels.idx1-ubyte', 10000)
    return image_loader.load(), label_loader.load()

netWork.py

# coding=utf-8
import numpy as np
import getImage as gim
#全连接神经网络层类
class BPLayer(object):
	def __init__(self, input_size, output_size, activator):
		'''
		input_siez:本层输入向量维度
		output_size:本层输出向量维度
		activator:本层激活函数
		'''
		self.input_size = input_size;
		self.output_size = output_size;
		self.activator = activator;
		#权值数组(范围-0.1~0.1)
		self.W = (np.random.rand(output_size, input_size)-0.5)*2;
		#偏执项
		self.B = np.zeros((output_size, 1));
		#输出向量
		self.output = np.zeros((output_size, 1));
		return;

	def forward(self, input_array):
		'''
		向前运算
		'''
		self.input = input_array;
		self.output = self.activator.forward(np.dot(self.W, self.input)+self.B);
		return;

	def backward(self, detal_array):
		'''
		向后运算
		'''
		self.detal = self.activator.backward(self.input)*np.dot(self.W.T, detal_array);
		self.W_grad = np.dot(detal_array, self.input.T);
		self.B_grad = detal_array;
		return;

	def update(self, learning_rate):
		'''
		更新权重
		'''
		self.W +=learning_rate*self.W_grad;
		self.B +=learning_rate*self.B_grad;
		return;

#激活函数类
class SigmoidActivator(object):
	def forward(self, x):
		return 1/(1+np.exp(-x));

	def backward(self, x):
		return x*(1-x);

#BP神经网络类
class BPNetWork(object):
	def __init__(self, layers):
		self.layers = [];
		for i in range(len(layers)-1):
			self.layers.append(BPLayer(layers[i], layers[i+1], SigmoidActivator()));

	def predict(self, sample):
		'''
		预测实现
		'''
		output = sample;
		for layer in self.layers:
			layer.forward(output);
			output = layer.output;
		return output;

	def train(self, labels, data_set, rate, epoch):
		'''
		训练网络
		'''
		for i in range(epoch):
			for d in range(len(data_set)):
				#按照矩阵乘的结构具状数据 W [300行*784列]  input[1行*784列]
				self.train_one_sample(np.array([labels[d]]).T, np.array([data_set[d]]).T, rate);
##				self.train_one_sample(labels[d], data_set[d], rate);
		return;

	def train_one_sample(self, label, date, rate):
		self.predict(date);
		self.calc_gradient(label);
		self.update_w(rate);
		return;

	def calc_gradient(self, label):
		detal = self.layers[-1].activator.backward(self.layers[-1].output)*(label - self.layers[-1].output);
		for layer in self.layers[::-1]:
			layer.backward(detal);
			detal = layer.detal;
		return;

	def update_w(self, rate):
		for layer in self.layers:
			layer.update(rate);
		return;

def get_result(vec):
	max_value_index = 0;
	max_value = 0;
	for i in range(len(vec)):
		if vec[i] > max_value:
			max_value = vec[i];
			max_value_index = i;

	return max_value_index;

def evaluate(network, test_data_set, test_labels):
	error = 0;
	total = len(test_data_set);
	for index in range(total):
		label = get_result(test_labels[index]);
		predict = get_result(network.predict(np.array([test_data_set[index]]).T));
		if label != predict:
			error += 1;
	return float(error)/float(total);

def  train_and_evaluate():
	last_error_ratio = 1.0;
	epoch = 0;
	x_train,y_train = gim.get_training_data_set();
	x_test,y_test = gim.get_test_data_set();
	
	layers=[784,300,10];
	bpNet = BPNetWork(layers);

	while True:
		epoch += 1;

		bpNet.train(y_train, x_train, 0.3, 1);
		print 'epoch %d finished' % (epoch);

		if epoch % 3 == 0:
			error_ratio = evaluate(bpNet, x_test, y_test);
			print 'after epoch %d , error ratio is %f' % (epoch, error_ratio);

			if error_ratio > last_error_ratio:
				break;
			else:
				last_error_ratio = error_ratio;
	


if __name__ == '__main__':
	train_and_evaluate();

运行结果

image.png
训练的效果很慢,目前也就达到这个水平。偷下懒O(∩_∩)O哈哈~

参考

零基础入门深度学习(3) - 神经网络和反向传播算法
https://www.zybuluo.com/hanbingtao/note/476663

你可能感兴趣的:(深度学习)