深度卷积网络原理—实例讲解梯度下降法参数更新过程

 首先,先回顾梯度下降公式:(下面利用均方差MSE损失来进行演示)

          

梯度下降的训练公式:

 

 接下来,按照上面的公式进行求最大值的案例讲解

深度卷积网络原理—实例讲解梯度下降法参数更新过程_第1张图片

深度卷积网络原理—实例讲解梯度下降法参数更新过程_第2张图片

  令,学习速率为0.1,初始化参数w1=0,w2=0,b=0

 样本一:x1=0.1,x2=0.8

 输出:

OUT=w1x1 + w2x2 + b =0*0.1 + 0*0.8 + 0 = 0

期望输出=0.8

损失:

LOSS=(OUT-期望输出)2=(0 - 0.8)2=0.64

 

回顾此前的公式:

深度卷积网络原理—实例讲解梯度下降法参数更新过程_第3张图片

 

因此,新的权重:

深度卷积网络原理—实例讲解梯度下降法参数更新过程_第4张图片

 

继续看下一组样本:

输入:x1=0.5x2=0.3

输出:

 

期望输出=0.5

 损失:

LOSS=(OUT-期望输出)2 = (0.2064-0.5)2 = 0.0862

 

得到新权重:

 深度卷积网络原理—实例讲解梯度下降法参数更新过程_第5张图片

训练几百个样本后,参数w1=0.5w2=0.5b=0.166667

 

转载于:https://www.cnblogs.com/wangyong/p/9740170.html

你可能感兴趣的:(人工智能)