神经网络为什么可以学习

本资料转载于B站up主:大模型成长之路,仅用于学习和讨论,如有侵权请联系

动画解析神经网络为什么可以学习_哔哩哔哩_bilibilis

神经网络为什么可以学习_第1张图片

神经网络为什么可以学习_第2张图片

 1、一个神经网络是由很多神经元形成的

神经网络为什么可以学习_第3张图片

1.1 也可以是一层,也可以是多层

神经网络为什么可以学习_第4张图片

2 层和层之间的连接就跟一张网一样

神经网络为什么可以学习_第5张图片

 2.1 每两个神经元之间有两个参数,我们称之为权重

神经网络为什么可以学习_第6张图片

3 在同一层神经元之间是没有链接的

神经网络为什么可以学习_第7张图片

3.1

4 每两个神经元之间有一些参数

神经网络为什么可以学习_第8张图片

4.1

5、神经网络的第一层称为输入层,主要获取输入信息

神经网络为什么可以学习_第9张图片

5.1

6、中间称为隐藏层,用于特征提取调整权重,让隐藏层的某种神经单元,对某种模式形成反应

神经网络为什么可以学习_第10张图片

6.1

7、最后一层 输出层,最终任务是输出最终结果

神经网络为什么可以学习_第11张图片

7.1

8 为了学习后面的模式,神经网络首先会定义一个损失函数

神经网络为什么可以学习_第12张图片

8.1

9 训练的过程就是将数据不断输入到模型里

神经网络为什么可以学习_第13张图片

神经网络为什么可以学习_第14张图片

9.1

10 利用梯度下降和方向传播的方法

神经网络为什么可以学习_第15张图片

10.1

11、不断优化模型的参数,上面反向传播,以便更好的优化背后的规律,使得损失函数的值越来越小,最终达到学习到背后规律的目的

神经网络为什么可以学习_第16张图片

11.1

12 最简单的神经元,只有一个输入X

神经网络为什么可以学习_第17张图片

12.1

13 一个参数W,经过神经元的输入之后,可以输出y

神经网络为什么可以学习_第18张图片

13.1

14、由一个神经元,一个输入,一个输出组成的,到底是一个什么样的模型

神经网络为什么可以学习_第19张图片

14.1

15 表示了一个很简单的关系y=w*x +b

神经网络为什么可以学习_第20张图片

15.1

16 这里w和b是需要训练学习的参数

神经网络为什么可以学习_第21张图片

16.1

17 举个例子,当W=0.6,b=e的时候

神经网络为什么可以学习_第22张图片 17.1

18 学习神经网络如何学习输入和输出数据反应的模型

神经网络为什么可以学习_第23张图片

18.1

19 我们的训练数据都是一些点,这些点都位于一条直线上

神经网络为什么可以学习_第24张图片

19.1

20 我们采用的模型非常简单

神经网络为什么可以学习_第25张图片

20.1

##

21、我们采用的神经元网络模型非常简单,线性关系

神经网络为什么可以学习_第26张图片

21.1 

22 我们希望这个数据能够很好的拟合我们的网络数据

神经网络为什么可以学习_第27张图片

22.1

23 用π托迟来训练这个模型

神经网络为什么可以学习_第28张图片

23.1

24 损失函数是MSE,均方误差,均方误差是一种非常常见的损失函数

神经网络为什么可以学习_第29张图片

24.1

25 用来衡量真实值和误差值之间的差异,我们使用了linear输入,linear模型,他只有一个模型,他只有一个输入,和一个输出,在这里输出的个数代表神经元的个数

神经网络为什么可以学习_第30张图片

26、我们使用了Linear模型,他只有一个输入,我们使用了Adma优化器来进行了优化

神经网络为什么可以学习_第31张图片

27、下面代码是输入数据,梯度下降,T度下降,优化网络参数的代码

28、刚开始的时候,只是呈线性关系,随着训练进行,数据逐渐找到规律,不断拟合数据,损失函数的值不断减小

神经网络为什么可以学习_第32张图片

29、直到完全拟合数据的线性关系,这表明我们神经网络已经学习到了输入和输出之间的关系

神经网络为什么可以学习_第33张图片

29.1

30

30.1

31、

31.1

32

32.1

33

33.1

34

34.1

35

35.1

36

36.1

37

37.1

38

38.1

39

39.1

40

40.1

41、

41.1

42

42.1

43

43.1

44

44.1

45

45.1

46

46.1

47

47.1

48

48.1

49

49.1

50

50.1

你可能感兴趣的:(AI,学习)