2. 返回传播计算方法|神经网络整体架构|神经元个数对结果的影响|正则化与激活函数|神经网络过拟合解决方法

文章目录

    • 返回传播计算方法
    • 神经网络整体架构(暂时留存,等后面补)
    • 神经元个数对结果的影响
    • 正则化与激活函数
    • 神经网络过拟合解决方法

返回传播计算方法

实际上计算L(损失值)的时候并不是只是拿一组w来进行计算,而是由多组w进行相对应的计算,而每一组关注的重心是不一样的,举个例子,比如猫这个组,它可以由三组w进行相对应的计算再相加,第一组关注猫的胡子,第二组关注的是猫,而非背景板,第三组关注猫的眼睛,对于其的w更大。

梯度是一步步进行传播的。
2. 返回传播计算方法|神经网络整体架构|神经元个数对结果的影响|正则化与激活函数|神经网络过拟合解决方法_第1张图片

神经网络整体架构(暂时留存,等后面补)

2. 返回传播计算方法|神经网络整体架构|神经元个数对结果的影响|正则化与激活函数|神经网络过拟合解决方法_第2张图片
理解此图,正确说明此图

2. 返回传播计算方法|神经网络整体架构|神经元个数对结果的影响|正则化与激活函数|神经网络过拟合解决方法_第3张图片

神经元个数对结果的影响

神经元个数越多,对于其结果的拟合程度越好。但是有时候却需要关注的是不需要那么高的拟合程度。

正则化与激活函数

惩罚力度越小越拟合。但容易出现极端数据。
2. 返回传播计算方法|神经网络整体架构|神经元个数对结果的影响|正则化与激活函数|神经网络过拟合解决方法_第4张图片
而参数数量实际上也可以近似当作神经元个数,即参数数量越大,拟合程度越好。

激活函数(神经网络经过一些权重参数计算之后,需要的非线性计算变化):
2. 返回传播计算方法|神经网络整体架构|神经元个数对结果的影响|正则化与激活函数|神经网络过拟合解决方法_第5张图片
现在已经不太使用sigmoid激活函数了,主要是因为在趋近于一的情况下,会导致其梯度为零,也即导致后续的求偏导的时候的计算也出现全部都是0的情况,与实际不一致。

现在百分之95以上都是使用relu激活函数。

神经网络过拟合解决方法

数据预处理:
不同的数据预处理会使得模型效果发生很大的差异。
2. 返回传播计算方法|神经网络整体架构|神经元个数对结果的影响|正则化与激活函数|神经网络过拟合解决方法_第6张图片
参数初始化:
通常我们使用随机策略来进行参数初始化(0-1之间的数据)。

过拟合解决方法:

  1. 正则化
  2. DROP-OUT
    2. 返回传播计算方法|神经网络整体架构|神经元个数对结果的影响|正则化与激活函数|神经网络过拟合解决方法_第7张图片
    什么意思呢:就是在训练的过程中,随机杀死几个神经元点,不去使用它进行训练。然后在上万次的训练过程中,可以做到参数接近,而且减少过拟合现象。

你可能感兴趣的:(机器学习,深度学习,神经网络,深度学习,人工智能)