什么是神经网络,它的原理是啥?(1)

参考:https://www.youtube.com/watch?v=mlk0rddP3L4&list=PLuhqtP7jdD8CftMk831qdE8BlIteSaNzD

视频1: 简单介绍神经网络的基本概念,以及一个训练好的神经网络是怎么使用的

分类算法中,神经网络在训练过程中会学习输入的 pattern,这个 pattern 会被用来区分以后的新输入

神经网络分为如图三层
什么是神经网络,它的原理是啥?(1)_第1张图片

输入层的神经元数量等于输入的特征数量

以图像识别为例,下图所需的神经元数量是 2352

什么是神经网络,它的原理是啥?(1)_第2张图片

如下图是输出层,我们的图中输出层只有一个神经元,所以只能做二元分类

什么是神经网络,它的原理是啥?(1)_第3张图片

隐藏层通常用于保存 “pattern”

通常来说,隐藏层越多,就能用于识别越复杂的图像,做更复杂更精细的分类。但是同样的,隐藏层越多、神经元越多,也会带来更大的存储开销和计算开销。

相邻两层的神经元之间有两两相连的 “边(连接)”。每条边都有权重,这个权重是被我们训练出来的。

权重的用法是:用来做 “加权乘法和(权重和)”,也可以直观的解释下,就说是给每个特征一些权重,如下图

什么是神经网络,它的原理是啥?(1)_第4张图片

如上图,通常还会有个 bias

下一个概念:激活函数。通常,一个神经元的输出是激活函数的输出,而这个激活函数的 输入/参数 就是刚刚计算的权重和
什么是神经网络,它的原理是啥?(1)_第5张图片
需要注意的是 a21 神经元,以及和它同一层的神经元接下来也会做 权重和,然后继续对 a3? 等等神经元做同样的事情,这样一层一层传递下去,直到最后计算出 output layer

那么接下来的问题是:这些“边”的权重是怎么被计算的?

什么是神经网络,它的原理是啥?(1)_第6张图片

如上图,首先给这些边分配随机值,接着进行训练,训练过程会改变权重的值。

关于具体的训练过程,看下个视频。

视频2:大致介绍一些训练神经网络的框架、轮廓,没有深入细节

(谷歌浏览器无障碍字幕挺好用的)

视频里先介绍了计算、讨论神经网络时一些符号的意义

什么是神经网络,它的原理是啥?(1)_第7张图片

如上图,说明了,下一层神经元的值,和上一层神经元的值之间的关系,其实可以用一个矩阵计算的公式来表示

这里有一个前提,就是所有神经元(至少同一层)的激活函数都是一样的,那么我们才可以用同一个 f 来计算神经元的值

不同的输入,会激活不同的神经元

使用神经网络的过程中,我们会看到输入层计算权重和传到隐藏层,隐藏层不同的神经元被激活,再计算权重和传到下一个隐藏层… 这个过程就叫做 向前传播

Forward Propagation

向前传播算法如下图

什么是神经网络,它的原理是啥?(1)_第8张图片

那么,我们如何训练神经网络,来找到适合的权重矩阵和 bias 呢?

如下图,是 cost 函数,它的意思就是:模型的输出和实际值之间的差。
什么是神经网络,它的原理是啥?(1)_第9张图片
“改变 权重矩阵 和 bias,让 cost 函数的输出最小化” 这个就是训练模型的过程

如下图,如果我们可以绘制 cost 和 weight 的关系如下图,这是一个有全局最优的图,那么我们就可以用梯度下降法来优化权重矩阵

alpha 是学习速率,它旁边那个东西是曲线的斜率
什么是神经网络,它的原理是啥?(1)_第10张图片
当然了,神经网络中的参数有很多,每两层神经元之间都有一对 权重矩阵 和 bias,所以训练过程如下,我们会计算 cost 函数和不同参数的斜率、求导,随后进行梯度下降法进行优化
什么是神经网络,它的原理是啥?(1)_第11张图片
什么是神经网络,它的原理是啥?(1)_第12张图片

如上图,在我们优化参数的时候,我们在最小化 cost,cost 取决于 a2,a2取决于 W2 和 a1,a1 取决于 W1 和 a0。这个向后的过程我们就叫做向后传播算法, back propagation

一个整体的训练模型过程如下

什么是神经网络,它的原理是啥?(1)_第13张图片

你可能感兴趣的:(搞明白,CNN,卷积神经网络,神经网络)