【机器学习】一个简单的神经网络例子教你理解前向传播

在开始这个例子前,希望你已经了解了神经网络的相关内容,可以参见如下文章
https://blog.csdn.net/weixin_45434953/article/details/131048661

在计算机中,有一种很基础的运算称之为与运算,这是一个二元运算符, x 1 , x 2 x_1,x_2 x1x2的取值只可以是0或者1,当 x 1 , x 2 x_1,x_2 x1x2都为1的时候, x 1 a n d x 2 x_1 and x_2 x1andx2的值为1,可以知道与运算有四种情况

x1 x2 x1 and x2
0 0 0
1 0 0
0 1 0
1 1 1

我们画出他的图标如下:
【机器学习】一个简单的神经网络例子教你理解前向传播_第1张图片
在计算机中可以很容易地使用门电路实现异或,但是今天我们试着用神经网络去实现以下与运算。那么我们构建如下的神经网络
【机器学习】一个简单的神经网络例子教你理解前向传播_第2张图片
并且将权重矩阵初始化为 Θ 10 ( 1 ) = − 30 , Θ 11 ( 1 ) = + 20 , Θ 12 ( 1 ) = + 20 \Theta^{(1)}_{10}=-30,\Theta^{(1)}_{11}=+20,\Theta^{(1)}_{12}=+20 Θ10(1)=30,Θ11(1)=+20,Θ12(1)=+20,那么最终的式子是
h Θ ( x ) = g ( − 30 + 20 x 1 + 20 x 2 ) h_\Theta(x)=g(-30+20x_1+20x_2) hΘ(x)=g(30+20x1+20x2)则有如下表格:

x1 x2 − 30 + 20 x 1 + 20 x 2 -30+20x_1+20x_2 30+20x1+20x2
0 0 -30
1 0 -10
0 1 -10
1 1 10

我们回顾下Logistics函数g(z)的图像如下:
【机器学习】一个简单的神经网络例子教你理解前向传播_第3张图片
g(4.6)=0.99,g(-4.6)=0.01

那么对于 h Θ ( x ) h_\Theta(x) hΘ(x)有如下表格

x1 x2 − 30 + 20 x 1 + 20 x 2 -30+20x_1+20x_2 30+20x1+20x2
0 0 g ( − 30 ) ≈ 0.01 g(-30)\approx0.01 g(30)0.01
1 0 g ( − 10 ) ≈ 0.01 g(-10)\approx0.01 g(10)0.01
0 1 g ( − 10 ) ≈ 0.01 g(-10)\approx0.01 g(10)0.01
1 1 g ( 10 ) ≈ 0.99 g(10)\approx0.99 g(10)0.99
我们可以看到,假设函数 h ( x ) h(x) h(x)输出的函数和与运算十分接近,这就是神经网络实现与运算的方式

你可能感兴趣的:(机器学习,机器学习,神经网络,算法)