神经网络学习笔记(四)


  正如同对于不同的事物我们从自己周围的环境中学习的方法不一样,神经网络的学习也是如此。广义上讲,我们可以按照学习过程的不同将神经网络分为两大类:有导师学习(Learn with a teacher)以及无导师学习(Learn without a teacher)。其中后者又可以细分为无监督学习以及强化学习。

有导师学习:


  有导师学习也称为有监督学习。在概念上来说,导师是对外界环境有认知知识的。这些知识通过配对的输入输出训练样本来传入神经网络。通过这些知识,任意一个训练向量的输入,导师都可以给出输出,而这个输出也同时是希望从神经网络中获取的输出。实际上,希望得到的输出代表了神经网络的最佳输出表达。神经网络中的自由参数通过输入向量以及输出误差来调节。其中误差是神经网络的实际输出与希望输出的差。神经网络的输出误差作为应变量可以构成一个函数,自变量为网络的自由参数。同时这个函数构成了一个超平面,神经网络通过有监督的学习就是要达到这个超平面的极小值点,可以通过最速下降法求得这个极小值点。在实际监督学习的过程中,系统并不会真正获得误差关于自由参数的函数来求梯度向量,而是使用梯度向量的瞬时估计。这个估计值是通过在误差超平面上对应点附近的随机运动来确定的。具体而言,就是设计一个算法最小化代价函数来估计梯度向量。

无导师学习:


  无导师学习,顾名思义就是没有导师对学习进行监督,即神经网络的学习输入中不包含有标签的实例。无导师学习又分为两个子类:
(1)强化学习,就是学习输入输出的映射是通过与周围环境的相互作用来进行的,目的是为了最优化某些量化指标。
(2)无监督学习,既没有导师监督又没有量化指标的学习过程。这种学习方法我们一般采用竞争学习准则。

  上面介绍了模型学习中的学习模式,接下来介绍一下模型的学习任务。学习准则的选择是依赖于不同模型的学习任务的。

模式关联:


  模式关联简单来说就是我们学习的目的是把表面不同的事物,根据其本质特征关联起来。类似于人脑可以根据观察到的猫的不同形态都关联出这是猫。模式关联有两种模式:一种是自动关联,另一种是异关联。自动关联的意思就是把不同方式描述,不同程度扭曲的原始模式存入到网络中,当某个特定模式作为输入时,神经网络可以给出正确的输出。异关联就不同了,需要的输入并不一定像自动的输入那么多,但是必须是输入输出成对的实例作为训练样本。异关联需要的是有监督学习,这样就可以把表面相异的输入关联到一起。这也是名字的由来。
  在模式关联的过程中会有两个阶段:第一就是存储阶段,也就是训练阶段;第二就是回忆阶段,也就是给一个特定输入,神经网络凭借之前的记忆得到一个输出。

模式识别:


  模式识别是一个分类问题,根据输入将其分入特定的类别。模式识别的神经网络模型首先通过对指定特定类别的训练集进行训练,训练完成后,给定一个新的输入,神经网络通过之前训练将其分类。神经网络通过学习训练其实就是将决策面分成一个一个的区域,每一个区域关联一个类。区域与区域之间的边界很显然也是通过训练得来的。普遍意义上说,模式识别有两种形式
(1)这个模型分为两部分,第一部分是一个无监督学习训练出来的特征提取神经网络,而另一部分是通过有监督学习训练出来的神经网络分类器。
(2)另一种模型自然是只有一个神经网络,而特征提取与分类功能都在这一个网络中完成。一般来说特征提取工作是有隐藏层完成。

函数逼近:


  考虑一个通过函数关系描述的非线性输入输出映射:


  其中x是输入,而d是输出函数映射关系f是未知的,神经网络的目的就是重新建立起映射关系f。首先我们需要一组带标签的数据集作为训练集:


  最终的目的是训练出近似于函数f的映射关系,假设F为最终训练出的映射关系,那么两者应该满足足够接近:



  显然这个模型的学习模式是有监督学习。函数逼近一般会用在以下两种实际用途:
(1)系统识别:一个系统(假设这个系统里的输入输出关系不随时间变化)随着时间的推移有一系列的输入输出,我们是可以获得的,我们通过这些输入输出左右有标签的训练集进行神经网络的训练。
(2)求逆模型:我们已知一函数关系f,但是我们想求得函数f的逆,而这个并不容易从f的数学表达形式中直接获得,这时我们就借助神经网络求得函数的逆。

控制:


  对于一个设备的控制是另一个学习任务,并且很适合神经网络。维持控制的过程是通过一些控制条件,这就导致控制的学习过程不能是有监督学习。原因很简单,控制是根据系统当时的情况来进行规划调节的,而不是输入输出的映射关系。控制模型如下图所示
      神经网络学习笔记(四)_第1张图片
   控制元件的作用就是通过错误信号e来调节设备输入u从而改变输出y。那问题的关键就转变为求得y与u之间的关系来决定究竟怎么来控制,即求Jacobian矩阵:

  这里有两种方式求得Jacobian矩阵:
(1)间接学习方式:根据设备的输入输出建立一个神经网络模型,这其实就是对Jacobian矩阵的近似。
(2)直接学习方式:设备的每一个偏导数有时候是固定的,这样可以单独近似每一个偏导数来求得Jacobian矩阵。






你可能感兴趣的:(Machine,Learning)