【机器学习实践】numpy实现简单三层神经网络

基础介绍

以下为自己动手写的一个最简单最基础的三层神经网络模型,采用python语言,主要使用numpy库进行数学运算。
神经网络类包含一个输入层,一个隐藏层(最简单的矩阵乘子层),一个输出层。在隐藏层和输出层采用sigmoid激活函数。具有推导、训练功能,并具有debug内部过程输出功能。

实践环节

以下文件包含了神经网络类

#yyznet.py

import numpy as np
from numpy.core.numeric import full
from scipy.special import expit

class yyznn:
    def __init__(self, input, hidden, output, learning_rate, debug=False):
        self.inode = input
        self.hiddennode = hidden
        self.outputnode = output
        self.learning_rate = learning_rate
        self.initialize()
        self.debug = debug
        self.activation = expit
    
    def initialize(self):
        self.wih = np.zeros((self.hiddennode, self.inode), dtype=np.float)
        self.who = np.zeros((self.outputnode, self.hiddennode), dtype=np.float)

    def forward(self, input_array):
        input_ndarray=np.ravel(np.array(input_array)).T
        hidden_in = np.matmul(self.wih, input_ndarray)
        hidden_out = self.activation(hidden_in)
        output_in = np.matmul(self.who, hidden_out)
        output_out = self.activation(output_in)
        if self.debug: print("net w:", self.wih, self.who, sep="\n")
        return output_out

    def fit_once(self, X, y):
        X_ndarray = np.ravel(np.array(X)).T
        y_ndarray = np.ravel(np.array(y)).T
        if self.debug: print("in:", X_ndarray, "out:", y_ndarray, sep='\n')
        hidden_in = np.matmul(self.wih, X_ndarray)
        hidden_out = self.activation(hidden_in)
        output_in = np.matmul(self.who, hidden_out)
        output_out = self.activation(output_in)
        output_error = y_ndarray - output_out
        hidden_error = np.matmul(self.who.T, output_error)
        if self.debug: print("error output:", output_error, "errors hidden", hidden_error, sep='\n')
        if self.debug: print("old w:", self.wih, self.who, sep='\n')
        self.who += self.learning_rate * np.dot(np.expand_dims((output_error * output_out*(1.-output_out)), axis=1),\
            np.expand_dims(hidden_out, axis=1).T)
        self.wih += self.learning_rate * np.dot(np.expand_dims((hidden_error * hidden_out*(1.-hidden_out)), axis=1),\
            np.expand_dims(X, axis=1).T)
        if self.debug: print("new w:", self.wih, self.who, sep='\n')

以下文件包含了调用神经网络并对矩阵进行拟合的代码,代码对网络进行十次训练,输出每次训练后的拟合结果。

#main.py

from operator import truediv
import numpy as np
import yyznet

wly = yyznet.yyznn(4, 10, 2, 1, debug=False)
X = np.array([1, 2, 3, 4])
y = np.array([0.6, 0.8])

print(wly.forward(X))
for i in range(10):
    wly.fit_once(X, y)
    print(wly.forward(X))

输出的结果

[0.5 0.5]
[0.51561992 0.54673815]
[0.5298997  0.58856266]
[0.5440345  0.62834611]
[0.55768086 0.66492412]
[0.56987541 0.69618157]
[0.57982865 0.72111183]
[0.58731892 0.74013608]
[0.59259844 0.75437381]
[0.5961262  0.76499471]
[0.59837175 0.77295694]

可见每次梯度下降的训练都能够让拟合结果更接近[0.6, 0.8]这个结果,神经网络有效。

下一步

下一步对于神经网络的学习中主要在于

  1. 编程技巧,构建能被更加广泛使用的、面向对象的python神经网络
  2. 学习数学原理,依次为根据调整神经网络的参数

你可能感兴趣的:(【机器学习实践】numpy实现简单三层神经网络)