1. 神经网络系列--基本原理

神经网络基本原理

  • 前言
    • 符号约定
    • 1.3 神经网络的基本工作原理简介
      • 1.3.1 神经元细胞的数学模型
        • 输入 input
        • 权重 weights
        • 偏移 bias
        • 求和计算 sum
        • 激活函数 activation
        • 小结
      • 1.3.2 神经网络的训练过程
        • 单层神经网络模型
        • 训练流程
        • 前提条件
        • 步骤
      • 1.3.3 神经网络中的矩阵运算
      • 1.3.4 神经网络的主要功能
        • 回归(Regression)或者叫做拟合(Fitting)
        • 分类(Classification)
      • 1.3.5 为什么需要激活函数
        • 生理学上的例子
        • 激活函数的作用

系列博客,原文在笔者所维护的github上:https://aka.ms/beginnerAI,
点击star加星不要吝啬,星越多笔者越努力。

前言

For things I don’t know how to build, I don’t understand.

如果我不能亲手搭建起来一个东西,那么我就不能理解它。 – 美国物理学家理查德·费曼

在互联网发达的今天,很多知识都可以从网络上找到,但是网络上的博客、文章的质量参差不齐,或者重点不明确,或者直接把别人的博客抄袭过来。这种状况使得广大的初学者们学习起来很困难,甚至误入歧途,增加了学习曲线的陡峭程度。当然也有很多博主非常非常负责任,文章质量很高,只是连续度不够,正看得过瘾的时候,没有后续章节了,无法形成知识体系。

初学者也可以选择看一些教材或者理论书籍,但是,一个鸡生蛋蛋生鸡的问题出现了:如果你不懂,那么看完了理论你还是不会懂;如果你懂了,那么你就没必要看理论。这也是很多教材或者理论书籍的缺憾。

笔者也看过吴恩达老师的课,理论知识讲得由浅入深,还是非常清楚的,虽然代码示例基本没有,但仍然强烈建议大家去看。笔者的心得是:视频可以事先缓存在手机中,利用一些时间片段就可以学习了。

社会上还有一些网课,在线讲解深度学习的知识,笔者也参加了几个团购,老师和助教一般都很负责任,最后可以回看录像,下载PPT课件。这些课程一般偏重于工程项目,讲解深度学习框架和工具的使用,即教大家如何使用工具建模、训练等等,也是很有帮助的。但对于初学者来说,理解一个新概念可能需要前面很多个已有知识点的支撑,门槛过高,一下子就变得很沮丧。或者是知其然而不知其所以然,最后沦为调参工程师,职业发展受到了限制。

还是应了那句古话:授人以鱼不如授人以渔。经历了以上那些学习经历,程序员出身的笔者迫切感觉到应该有一种新的学习体验,在“做中学”,用写代码的方式把一些基础的理论复现一遍,可以深刻理解其内涵,并能扩充其外延,使读者得到举一反三的泛化能力。

笔者总结了自身的学习经历后,把深度学习的入门知识归纳成了9个步骤,简称为9步学习法:

  1. 基本概念
  2. 线性回归
  3. 线性分类
  4. 非线性回归
  5. 非线性分类
  6. 模型的推理与部署
  7. 深度神经网络
  8. 卷积神经网络
  9. 循环神经网络

笔者看到过的很多书籍是直接从第7步起步的,其基本假设是读者已经掌握了前面的知识。但是对于从零开始的初学者们,这种假设并不正确。

在后面的讲解中,我们一般会使用如下方式进行:

  1. 提出问题:先提出一个与现实相关的假想问题,为了由浅入深,这些问题并不复杂,是实际的工程问题的简化版本。
  2. 解决方案:用神经网络的知识解决这些问题,从最简单的模型开始,一步步到复杂的模型。
  3. 原理分析:使用基本的物理学概念或者数学工具,理解神经网络的工作方式。
  4. 可视化理解:可视化是学习新知识的重要手段,由于我们使用了简单案例,因此可以很方便地可视化。

原理分析和可视化理解也是本书的一个特点,试图让神经网络是可以解释的,而不是盲目地使用。

还有一个非常重要的地方,我们还有配套的Python代码,除了一些必要的科学计算库和绘图库,如NumPy和Matplotlib等,我们没有使用任何已有的深度学习框架,而是带领大家从零开始搭建自己的知识体系,从简单到复杂,一步步理解深度学习中的众多知识点。

对于没有Python经验的朋友来说,通过阅读示例代码,也可以起到帮助大家学习Python的作用,一举两得。随着问题的难度加深,代码也会增多,但是前后都有继承关系的,最后的代码会形成一个小的框架,笔者称之为Mini-Framework,可以用搭积木的方式调用其中的函数来搭建深度学习的组件。

这些代码都是由笔者亲自编写调试的,每章节都可以独立运行,得到相关章节内所描述的结果,包括打印输出和图形输出。

另外,为了便于理解,笔者绘制了大量的示意图,数量是同类书籍的10倍以上。一图顶万字,相信大家会通过这些示意图快速而深刻地理解笔者想要分享的知识点,使大家能够从真正的“零”开始,对神经网络、深度学习有基本的了解,并能动手实践。

对于读者的要求:

  1. 学过高等数学中的线性代数与微分
  2. 有编程基础,可以不会Python语言,因为可以从示例代码中学得
  3. 思考 + 动手的学习模式

可以帮助读者达到的水平:

  1. 可以判断哪些任务是机器学习可以实现的,哪些是科学幻想,不说外行话
  2. 深刻了解神经网络和深度学习的基本理论
  3. 培养举一反三的解决实际问题的能力
  4. 得到自学更复杂模型和更高级内容的能力
  5. 对于天资好的读者,可以培养研发新模型的能力

符号约定

符号 含义
x x x 训练用样本值
x 1 x_1 x1 第一个样本或样本的第一个特征值,在上下文中会有说明
x 12 , x 1 , 2 x_{12},x_{1,2} x12,x1,2 第1个样本的第2个特征值
X X X 训练用多样本矩阵
y y y 训练用样本标签值
y 1 y_1 y1 第一个样本的标签值
Y Y Y 训练用多样本标签矩阵
z z z 线性运算的结果值
Z Z Z 线性运算的结果矩阵
Z 1 Z1 Z1 第一层网络的线性运算结果矩阵
σ \sigma σ 激活函数
a a a 激活函数结果值
A A A 激活函数结果矩阵
A 1 A1 A1 第一层网络的激活函数结果矩阵
w w w 权重参数值
w 12 , w 1 , 2 w_{12},w_{1,2} w12,w1,2 权重参数矩阵中的第1行第2列的权重值
w 1 12 , w 1 1 , 2 w1_{12},w1_{1,2} w112,w11,2 第一层网络的权重参数矩阵中的第1行第2列的权重值
W W W 权重参数矩阵
W 1 W1 W1 第一层网络的权重参数矩阵
b b b 偏移参数值
b 1 b_1 b1 偏移参数矩阵中的第1个偏移值
b 2 1 b2_1 b21 第二层网络的偏移参数矩阵中的第1个偏移值
B B B 偏移参数矩阵(向量)
B 1 B1 B1 第一层网络的偏移参数矩阵(向量)
X T X^T XT X的转置矩阵
X − 1 X^{-1} X1 X的逆矩阵
l o s s , l o s s ( w , b ) loss,loss(w,b) loss,loss(w,b) 单样本误差函数
J , J ( w , b ) J, J(w,b) J,J(w,b) 多样本损失函数

1.3 神经网络的基本工作原理简介

1.3.1 神经元细胞的数学模型

神经网络由基本的神经元组成,图1-13就是一个神经元的数学/计算模型,便于我们用程序来实现。

图1-13 神经元计算模型

输入 input

(x1,x2,x3) 是外界输入信号,一般是一个训练数据样本的多个属性,比如,我们要预测一套房子的价格,那么在房屋价格数据样本中,x1可能代表了面积,x2可能代表地理位置,x3可能朝向。另外一个例子是,假设(x1,x2,x3)分别代表了(红,绿,蓝)三种颜色,而此神经元用于识别输入的信号是暖色还是冷色。

权重 weights

(w1,w2,w3) 是每个输入信号的权重值,以上面的 (x1,x2,x3) 的例子来说,x1的权重可能是0.92,x2的权重可能是0.2,x3的权重可能是0.03。当然权重值相加之后可以不是1。

偏移 bias

还有个b是怎么来的?一般的书或者博客上会告诉你那是因为 y = w x + b y=wx+b y=wx+b,b是偏移值,使得直线能够沿Y轴上下移动。这是用结果来解释原因,并非b存在的真实原因。从生物学上解释,在脑神经细胞中,一定是输入信号的电平/电流大于某个临界值时,神经元细胞才会处于兴奋状态,这个b实际就是那个临界值。亦即当:

w 1 ⋅ x 1 + w 2 ⋅ x 2 + w 3 ⋅ x 3 > = t w_1 \cdot x_1 + w_2 \cdot x_2 + w_3 \cdot x_3 >= t w1x1+w2x2+w3x3>=t

时,该神经元细胞才会兴奋。我们把t挪到等式左侧来,变成 ( − t ) (-t) (t),然后把它写成b,变成了:

w 1 ⋅ x 1 + w 2 ⋅ x 2 + w 3 ⋅ x 3 + b > = 0 w_1 \cdot x_1 + w_2 \cdot x_2 + w_3 \cdot x_3 + b >= 0 w1x1+w2x2+w3x3+b>=0

于是b诞生了!

求和计算 sum

Z = w 1 ⋅ x 1 + w 2 ⋅ x 2 + w 3 ⋅ x 3 + b = ∑ i = 1 m ( w i ⋅ x i ) + b \begin{aligned} Z &= w_1 \cdot x_1 + w_2 \cdot x_2 + w_3 \cdot x_3 + b \\ &= \sum_{i=1}^m(w_i \cdot x_i) + b \end{aligned} Z=w1x1+w2x2+w3x3+b=i=1m(wixi)+b

在上面的例子中m=3。我们把 w i ⋅ x i w_i \cdot x_i wixi变成矩阵运算的话,就变成了:

Z = W ⋅ X + b Z = W \cdot X + b Z=WX+b

激活函数 activation

求和之后,神经细胞已经处于兴奋状态了,已经决定要向下一个神经元传递信号了,但是要传递多强烈的信号,要由激活函数来确定:

A = σ ( Z ) A=\sigma{(Z)} A=σ(Z)

如果激活函数是一个阶跃信号的话,会像继电器开合一样咔咔的开启和闭合,在生物体中是不可能有这种装置的,而是一个渐渐变化的过程。所以一般激活函数都是有一个渐变的过程,也就是说是个曲线,如图1-14所示。

图1-14 激活函数图像

至此,一个神经元的工作过程就在电光火石般的一瞬间结束了。

小结

  • 一个神经元可以有多个输入。
  • 一个神经元只能有一个输出,这个输出可以同时输入给多个神经元。
  • 一个神经元的w的数量和输入的数量一致。
  • 一个神经元只有一个b。
  • w和b有人为的初始值,在训练过程中被不断修改。
  • 激活函数不是必须有的,亦即A可以等于Z。
  • 一层神经网络中的所有神经元的激活函数必须一致。

1.3.2 神经网络的训练过程

单层神经网络模型

这是一个单层的神经网络,有m个输入 (这里m=3),有n个输出 (这里n=2)。在神经网络中, b b b 到每个神经元的权值来表示实际的偏移值,亦即 ( b 1 , b 2 ) (b_1,b_2) (b1,b2),这样便于矩阵运算。也有些人把 b b b 写成 x 0 x_0 x0,其实是同一个效果,即把偏移值看做是神经元的一个输入。

  • ( x 1 , x 2 , x 3 ) (x_1,x_2,x_3) (x1,x2,x3)是一个样本数据的三个特征值
  • ( w 11 , w 21 , w 31 ) (w_{11},w_{21},w_{31}) (w11,w21,w31) ( x 1 , x 2 , x 3 ) (x_1,x_2,x_3) (x1,x2,x3) n 1 n1 n1的权重
  • ( w 12 , w 22 , w 32 ) (w_{12},w_{22},w_{32}) (w12,w22,w32) ( x 1 , x 2 , x 3 ) (x_1,x_2,x_3) (x1,x2,x3) n 2 n2 n2的权重
  • b 1 b_1 b1 n 1 n1 n1的偏移
  • b 2 b_2 b2 n 2 n2 n2的偏移

图1-15 单层神经网络模型

从图1-15大家可以看到,同一个特征 x 1 x_1 x1,对于 n 1 、 n 2 n1、n2 n1n2来说,权重是不相同的,因为 n 1 、 n 2 n1、n2 n1n2是两个神经元,它们完成不同的任务(特征识别)。我们假设 x 1 , x 2 , x 3 x_1,x_2,x_3 x1,x2,x3分别代表红绿蓝三种颜色,而 n 1 , n 2 n1,n2 n1,n2 分别用于识别暖色和冷色,那么 x 1 x_1 x1 n 1 n1 n1 的权重,肯定要大于 x 1 x_1 x1 n 2 n2 n2 的权重,因为 x 1 x_1 x1代表红色,是暖色。

而对于 n 1 n1 n1来说, x 1 , x 2 , x 3 x_1,x_2,x_3 x1x2x3输入的权重也是不相同的,因为它要对不同特征有选择地接纳。如同上面的例子, n 1 n1 n1 对于代表红色的 x 1 x_1 x1,肯定是特别重视,权重值较高;而对于代表蓝色的 x 3 x_3 x3,尽量把权重值降低,才能有正确的输出。

训练流程

从真正的“零”开始学习神经网络时,我没有看到过任何一个流程图来讲述训练过程,大神们写书或者博客时都忽略了这一点,图1-16是一个简单的流程图。

图1-16 神经网络训练流程图

前提条件

  1. 首先是我们已经有了训练数据;
  2. 我们已经根据数据的规模、领域,建立了神经网络的基本结构,比如有几层,每一层有几个神经元;
  3. 定义好损失函数来合理地计算误差。

步骤

假设我们有表1-1所示的训练数据样本。

表1-1 训练样本示例

Id x1 x2 x3 Y
1 0.5 1.4 2.7 3
2 0.4 1.3 2.5 5
3 0.1 1.5 2.3 9
4 0.5 1.7 2.9 1

其中,x1,x2,x3是每一个样本数据的三个特征值,Y是样本的真实结果值:

  1. 随机初始化权重矩阵,可以根据高斯分布或者正态分布等来初始化。这一步可以叫做“猜”,但不是瞎猜;
  2. 拿一个或一批数据作为输入,带入权重矩阵中计算,再通过激活函数传入下一层,最终得到预测值。在本例中,我们先用Id-1的数据输入到矩阵中,得到一个A值,假设A=5;
  3. 拿到Id-1样本的真实值Y=3;
  4. 计算损失,假设用均方差函数 L o s s = ( A − Y ) 2 = ( 5 − 3 ) 2 = 4 Loss = (A-Y)^2=(5-3)^2=4 Loss=(AY)2=(53)2=4
  5. 根据一些神奇的数学公式(反向微分),把Loss=4这个值用大喇叭喊话,告诉在前面计算的步骤中,影响A=5这个值的每一个权重矩阵,然后对这些权重矩阵中的值做一个微小的修改(当然是向着好的方向修改,这一点可以用数学家的名誉来保证);
  6. 用Id-2样本作为输入再次训练(goto 2);
  7. 这样不断地迭代下去,直到以下一个或几个条件满足就停止训练:损失函数值非常小;准确度满足了要求;迭代到了指定的次数。

训练完成后,我们会把这个神经网络中的结构和权重矩阵的值导出来,形成一个计算图(就是矩阵运算加上激活函数)模型,然后嵌入到任何可以识别/调用这个模型的应用程序中,根据输入的值进行运算,输出预测值。

1.3.3 神经网络中的矩阵运算

图1-17是一个两层的神经网络,包含隐藏层和输出层,输入层不算做一层。

图1-17 神经网络中的各种符号约定

z 1 1 = x 1 ⋅ w 1 1 , 1 + x 2 ⋅ w 1 2 , 1 + b 1 1 z1_1 = x_1 \cdot w1_{1,1}+ x_2 \cdot w1_{2,1}+b1_1 z11=x1w11,1+x2w12,1+b11
z 1 2 = x 1 ⋅ w 1 1 , 2 + x 2 ⋅ w 1 2 , 2 + b 1 2 z1_2 = x_1 \cdot w1_{1,2}+ x_2 \cdot w1_{2,2}+b1_2 z12=x1w11,2+x2w12,2+b12
z 1 3 = x 1 ⋅ w 1 1 , 3 + x 2 ⋅ w 1 2 , 3 + b 1 3 z1_3 = x_1 \cdot w1_{1,3}+ x_2 \cdot w1_{2,3}+b1_3 z13=x1w11,3+x2w12,3+b13

变成矩阵运算:

z 1 1 = ( x 1 x 2 ) ( w 1 1 , 1 w 1 2 , 1 ) + b 1 1 z1_1= \begin{pmatrix} x_1 & x_2 \end{pmatrix} \begin{pmatrix} w1_{1,1} \\ w1_{2,1} \end{pmatrix} +b1_1 z11=(x1x2)(w11,1w12,1)+b11

z 1 2 = ( x 1 x 2 ) ( w 1 1 , 2 w 1 2 , 2 ) + b 1 2 z1_2= \begin{pmatrix} x_1 & x_2 \end{pmatrix} \begin{pmatrix} w1_{1,2} \\ w1_{2,2} \end{pmatrix} +b1_2 z12=(x1x2)(w11,2w12,2)+b12

z 1 3 = ( x 1 x 2 ) ( w 1 1 , 3 w 1 2 , 3 ) + b 1 3 z1_3= \begin{pmatrix} x_1 & x_2 \end{pmatrix} \begin{pmatrix} w1_{1,3} \\ w1_{2,3} \end{pmatrix} +b1_3 z13=(x1x2)(w11,3w12,3)+b13

再变成大矩阵:

Z 1 = ( x 1 x 2 ) ( w 1 1 , 1 w 1 1 , 2 w 1 1 , 3 w 1 2 , 1 w 1 2 , 2 w 1 2 , 3 ) + ( b 1 1 b 1 2 b 1 3 ) Z1 = \begin{pmatrix} x_1 & x_2 \end{pmatrix} \begin{pmatrix} w1_{1,1}&w1_{1,2}&w1_{1,3} \\ w1_{2,1}&w1_{2,2}&w1_{2,3} \\ \end{pmatrix} +\begin{pmatrix} b1_1 & b1_2 & b1_3 \end{pmatrix} Z1=(x1x2)(w11,1w12,1w11,2w12,2w11,3w12,3)+(b11b12b13)

最后变成矩阵符号:

Z 1 = X ⋅ W 1 + B 1 Z1 = X \cdot W1 + B1 Z1=XW1+B1

然后是激活函数运算:

A 1 = a ( Z 1 ) A1=a(Z1) A1=a(Z1)

同理可得:

Z 2 = A 1 ⋅ W 2 + B 2 Z2 = A1 \cdot W2 + B2 Z2=A1W2+B2

注意:损失函数不是前向计算的一部分。

1.3.4 神经网络的主要功能

回归(Regression)或者叫做拟合(Fitting)

单层的神经网络能够模拟一条二维平面上的直线,从而可以完成线性分割任务。而理论证明,两层神经网络可以无限逼近任意连续函数。图1-18所示就是一个两层神经网络拟合复杂曲线的实例。

图1-18 回归/拟合示意图

所谓回归或者拟合,其实就是给出x值输出y值的过程,并且让y值与样本数据形成的曲线的距离尽量小,可以理解为是对样本数据的一种骨架式的抽象。

以图1-18为例,蓝色的点是样本点,从中可以大致地看出一个轮廓或骨架,而红色的点所连成的线就是神经网络的学习结果,它可以“穿过”样本点群形成中心线,尽量让所有的样本点到中心线的距离的和最近。

分类(Classification)

如图1-19,二维平面中有两类点,红色的和蓝色的,用一条直线肯定不能把两者分开了。

图1-19 分类示意图

我们使用一个两层的神经网络可以得到一个非常近似的结果,使得分类误差在满意的范围之内。图1-19中那条淡蓝色的曲线,本来并不存在,是通过神经网络训练出来的分界线,可以比较完美地把两类样本分开,所以分类可以理解为是对两类或多类样本数据的边界的抽象。

图1-18和图1-19的曲线形态实际上是一个真实的函数在[0,1]区间内的形状,其原型是:

y = 0.4 x 2 + 0.3 x s i n ( 15 x ) + 0.01 c o s ( 50 x ) − 0.3 y=0.4x^2 + 0.3xsin(15x) + 0.01cos(50x)-0.3 y=0.4x2+0.3xsin(15x)+0.01cos(50x)0.3

这么复杂的函数,一个两层的神经网络是如何做到的呢?其实从输入层到隐藏层的矩阵计算,就是对输入数据进行了空间变换,使其可以被线性可分,然后在输出层画出一个分界线。而训练的过程,就是确定那个空间变换矩阵的过程。因此,多层神经网络的本质就是对复杂函数的拟合。我们可以在后面的试验中来学习如何拟合上述的复杂函数的。

神经网络的训练结果,是一大堆的权重组成的数组(近似解),并不能得到上面那种精确的数学表达式(数学解析解)。

1.3.5 为什么需要激活函数

生理学上的例子

人体骨关节是动物界里最复杂的生理结构,一共有8个重要的大关节:肩关节、
肘关节、腕关节、髋关节、膝关节、踝关节、颈关节、腰关节。

人的臂骨,腿骨等,都是一根直线,人体直立时,也是一根直线。但是人在骨关节和肌肉组织的配合下,可以做很多复杂的动作,原因就是关节本身不是线性结构,而是一个在有限范围内可以任意活动的结构,有一定的柔韧性。

比如肘关节,可以完成小臂在一个二维平面上的活动。加上肩关节,就可以完成胳膊在三维空间的活动。再加上其它关节,就可以扩展胳膊活动的三维空间的范围。

用表1-2来对比人体运动组织和神经网络组织。

表1-2 人体运动组织和神经网络组织的对比

人体运动组织 神经网络组织
支撑骨骼 网络层次
关节 激活函数
肌肉韧带 权重参数
学习各种运动的动作 前向+反向训练过程

激活函数就相当于关节。

激活函数的作用

看以下的例子:

Z 1 = X ⋅ W 1 + B 1 Z1=X \cdot W1 + B1 Z1=XW1+B1

Z 2 = Z 1 ⋅ W 2 + B 2 Z2 = Z1 \cdot W2 + B2 Z2=Z1W2+B2

Z 3 = Z 2 ⋅ W 3 + B 3 Z3 = Z2 \cdot W3 + B3 Z3=Z2W3+B3

展开:

Z 3 = Z 2 ⋅ W 3 + B 3 = ( Z 1 ⋅ W 2 + B 2 ) ⋅ W 3 + B 3 = ( ( X ⋅ W 1 + B 1 ) ⋅ W 2 + B 2 ) ⋅ W 3 + B 3 = X ⋅ ( W 1 ⋅ W 2 ⋅ W 3 ) + ( B 1 ⋅ W 2 ⋅ W 3 + B 2 ⋅ W 2 + B 3 ) = X ⋅ W + B \begin{aligned} Z3&=Z2 \cdot W3 + B3 \\ &=(Z1 \cdot W2 + B2) \cdot W3 + B3 \\ &=((X \cdot W1 + B1) \cdot W2 + B2) \cdot W3 + B3 \\ &=X \cdot (W1\cdot W2 \cdot W3) + (B1 \cdot W2 \cdot W3+B2 \cdot W2+B3) \\ &=X \cdot W+B \end{aligned} Z3=Z2W3+B3=(Z1W2+B2)W3+B3=((XW1+B1)W2+B2)W3+B3=X(W1W2W3)+(B1W2W3+B2W2+B3)=XW+B

Z 1 , Z 2 , Z 3 Z1,Z2,Z3 Z1,Z2,Z3分别代表三层神经网络的计算结果。最后可以看到,不管有多少层,总可以归结到 X W + B XW+B XW+B的形式,这和单层神经网络没有区别。

如果我们不运用激活函数的话,则输出信号将仅仅是一个简单的线性函数。线性函数一个一级多项式。线性方程是很容易解决的,但是它们的复杂性有限,并且从数据中学习复杂函数映射的能力更小。一个没有激活函数的神经网络将只不过是一个线性回归模型罢了,不能解决现实世界中的大多数非线性问题。

没有激活函数,我们的神经网络将无法学习和模拟其他复杂类型的数据,例如图像、视频、音频、语音等。这就是为什么我们要使用人工神经网络技术,诸如深度学习,来理解一些复杂的事情,一些相互之间具有很多隐藏层的非线性问题。

图1-20 从简单到复杂的拟合

图1-20展示了几种拟合方式,最左侧的是线性拟合,中间的是分段线性拟合,右侧的是曲线拟合,只有当使用激活函数时,才能做到完美的曲线拟合。

你可能感兴趣的:(神经网络,神经网络,人工智能)