神经网络的基础讲解

前馈神经网络(也常称BP神经网络)

  • 是一种单向多层的网络结构:信息是从输入层开始,逐层向一个方向传递,一直到输出层结束。
    法计算 各层网络中神经元之间的权重。
  • BP算法具有非线性映射的能力,所以可逼近任意连续函,从而实现模型学习。
  • 前馈神经网络(Feed Forward Neural Network) 反向传播(BP:Back Propagation)

前馈:指输入的信号的传播方向向前,在向前运算之中,该过程并不调整各层的权值参数。

  • 初始的参数权重值为随机取定的,所以才会存在之后的不断修改
  • 通过实现从输入到输出的任意非线性映射,从而模拟各层神经元之间的交互

神经网络的基础讲解_第1张图片

  • 在这里插入代码片在做完前馈的计算之后,总会存在输出值与目标值的差异,所以我们引入损失函数。损失函数(主要运用输出值与真实结果的平方差为原理)来计算出我们模型的效果。
  • 通常,我们输出有几个特征(即及分类问题)就存在几个输出

为了让损失函数的结果达到极小值,其中的权重和偏值需要不断地修改,因此也就引入了我们下面的反传播

反传播:将误差逐层向后传递,从而实现使用权值参数对特征的记忆,即通过反向传递BP算![在这里

  • 结合上面的式子,应该就可以理解到为什么利用梯度下降法需要不断地epoch吧,一次epoch是将所有的训练数据拿入模型进行训练,然后计算出一批权值和偏值,之后再epoch一次,就继续更改权值和偏执,最后可以达到最合适的值,使得损失函数最小。

你可能感兴趣的:(神经网络的基础讲解)