深度学习入门(五)——NumPy多维数组实现神经网络

符号的说明

权重符号

深度学习入门(五)——NumPy多维数组实现神经网络_第1张图片

 从输入层到第1层的第1个神经元的信号传递过程

深度学习入门(五)——NumPy多维数组实现神经网络_第2张图片

表示偏置的神经元“1”。偏置的右下角的索引号只有一个,这是因为前一层的偏置神经元(神经元“1”)只有一个。

用数学式表示:

深度学习入门(五)——NumPy多维数组实现神经网络_第3张图片

 用矩阵的乘法运算:

 

隐藏层的加权和(加权信号和偏置的总和)用a表示,被激活函数转换后的信号用z表示。也就是在上面算出的A带入激活函数h()中后就得到Z。得出的Z再往下一层进行传导

实现代码:

def init_network():
    network = {}
    network['W1'] = np.array([[0.1, 0.3, 0.5], [0.2, 0.4, 0.6]])
    network['b1'] = np.array([0.1, 0.2, 0.3])
    network['W2'] = np.array([[0.1, 0.4], [0.2, 0.5], [0.3, 0.6]])
    network['b2'] = np.array([0.1, 0.2])
    network['W3'] = np.array([[0.1, 0.3], [0.2, 0.4]])
    network['b3'] = np.array([0.1, 0.2])
    return network
def forward(network, x):
    W1, W2, W3 = network['W1'], network['W2'], network['W3']
    b1, b2, b3 = network['b1'], network['b2'], network['b3']
    a1 = np.dot(x, W1) + b1
    z1 = sigmoid(a1)
    a2 = np.dot(z1, W2) + b2
    z2 = sigmoid(a2)
    a3 = np.dot(z2, W3) + b3
    y = identity_function(a3)
    return y
network = init_network()
x = np.array([1.0, 0.5])
y = forward(network, x)
print(y) 

这里定义了init_network()和forward()函数。init_network()函数会进行权重和偏置的初始化,并将它们保存在字典变量network中。这个字典变量network中保存了每一层所需的参数(权重和偏置)。forward()函数中则封装了将输入信号转换为输出信号的处理过程。

        至此,神经网络的前向处理的实现就完成了。通过巧妙地使用NumPy多维数组,我们高效地实现了神经网络。

 注:以上的学习内容均来自《深度学习入门》[斋藤康毅]著

你可能感兴趣的:(深度学习,servlet,java)