图解神经网络



I1 and I2 are the inputs scaled to [-1,1] or [0, 1], depending on the activation function used
f()=Activation Function=Tanh(), Sigmoid() or any differential-able function
W=Current neurons input weights, initialized randomly between [-1, 1].
Wb=Bias Weight, connected to nothing, used as a threshold, initialized same as W
N=The output of the current neuron.

图解神经网络_第1张图片

图解神经网络_第2张图片

图解神经网络_第3张图片

图解神经网络_第4张图片

图解神经网络_第5张图片

图解神经网络_第6张图片

图解神经网络_第7张图片


Error Back Propagation starts here (Training)

O=Output Neurons Previous Output
E=Error for Current Neuron
T=Output Neurons Desired Output.
f’(N) is the derivative of the activation function, N is the Neurons previous output.


图解神经网络_第8张图片

图解神经网络_第9张图片

图解神经网络_第10张图片

图解神经网络_第11张图片

图解神经网络_第12张图片

图解神经网络_第13张图片

图解神经网络_第14张图片

图解神经网络_第15张图片


你可能感兴趣的:(图解神经网络)