人工神经网络ANN:数学总结

一、内容

  • 径向基函数(Radial basis function,RBF):一个取值仅依赖于到原点距离的实值函数,即\phi (\mathbf {x} )=\phi (\|\mathbf {x} \|)。此外,也可以按到某一中心点c的距离来定义,即\phi (\mathbf {x} ,\mathbf {c} )=\phi (\|\mathbf {x} -\mathbf {c} \|)。 可以用于许多向函基数的和来逼近某一给定的函数,这一逼近的过程可看作是一个简单的神经网络。径向基函数还被用作支持向量机SVM的核函数。比如,高斯函数\phi (r)=e^{-(\varepsilon r)^{2}},其中r=\|\mathbf {x} -\mathbf {x} _{i}\|
  • 欧几里得距离:\|{\vec {x}}\|_{2}={\sqrt {|x_{1}|^{2}+\cdots +|x_{n}|^{2}}}
  • S型函数(sigmoid function):S(t)={\frac {1}{1+e^{-t}}}。S型函数通常特指逻辑斯谛函数
  • 逻辑斯谛函数(logistic function):f(x)={\frac {L}{1+e^{-k(x-x_{0})}}} 。其中:x0为S形曲线中点的x值;L为曲线的最大值;k为逻辑斯谛增长率或曲线的陡度。
  • 逻辑斯谛导数:{\frac {d}{dx}}f(x)=f(x){\big (}1-f(x){\big )}
    逻辑斯谛不定积分:\int {\frac {e^{x}}{1+e^{x}}}\,dx=\int {\frac {1}{u}}\,du=\ln u=\ln(1+e^{x})
  • 整流线性单位函数(Rectified Linear Unit, ReLU
  • 三元组损失(Triplet loss):机器学习算法中的一种损失函数,该损失函数将锚点(anchor)样本与正(positive)样本和负(negative)样本进行比较。具体做法是,将锚点样本与正样本之间的距离最小化,将锚点样本与负样本之间的距离最大化。
    {\mathcal {L}}\left(A,P,N\right)=\operatorname {max} \left({\|\operatorname {f} \left(A\right)-\operatorname {f} \left(P\right)\|}^{2}-{\|\operatorname {f} \left(A\right)-\operatorname {f} \left(N\right)\|}^{2}+\alpha ,0\right)
    其中A是一个锚点样本, P是与A同类的正样本, N是与A不同类别的负样本, α 是正负样本对之间的松弛边距,f是嵌入向量。
  • 玻尔兹曼分布(Boltzmann distribution),或称吉布斯分布(Gibbs distribution):它给出一个系统处于某种状态的概率,是该状态的能量及温度的函数。公式:p_{i}\propto e^{-{\varepsilon _{i}}/{(kT)}},其中pi是系统处于状态i的概率,εi是该状态的能量,kT为玻尔兹曼常数k和热力学温度T的乘积。符号 ∝表示比例
  •  通用近似定理(或称万能近似定理):指出人工神经网络近似任意函数的能力

二、数学公式

1. 径向基函数(Radial basis function,RBF)

常见的径向基函数包括(r=\|\mathbf {x} -\mathbf {x} _{i}\|

  • 高斯函数:\phi (r)=e^{-(\varepsilon r)^{2}}
  • 多二次函数(multiquadric):\phi (r)={\sqrt {1+(\varepsilon r)^{2}}}

三、人工神经网络

  • 学习向量量化(Learning Vector Quantization,LVQ):基于原型的监督学习统计分类算法。 LVQ是向量量化的监督版本。LVQ 在分类文本文档的时候非常有帮助
  • 自组织映射(SOM):使用非监督式学习来产生训练样本的输入空间的一个低维(通常是二维)离散化的表示的人工神经网络(ANN)。自组织映射与其他人工神经网络的不同之处在于它使用一个邻近函数来保持输入空间的拓扑性质。
  • 径向基函数网络(Radial basis function network, RBF network):是一种使用径向基函数作为激活函数的人工神经网络。径向基函数网络的输出是输入的径向基函数和神经元参数的线性组合。径向基函数网络通常有三层:输入层、隐藏层和一个非线性激活函数和线性径向基神经网络输出层。输入可以被建模为实数向量。输出是输入向量的一个标量函数。
  • 霍普菲尔德神经网络(Hopfield neural network):一种循环神经网络
  • 随机神经网络Stochastic Neural Networks):它们向神经网络引进随机变化,一类是在神经元之间分配随机过程传递函数,一类是给神经元随机权重。随机的变换避免了局部最优。
  • 玻尔兹曼机(Boltzmann machine):随机神经网络和循环神经网络的一种
  • 受限玻尔兹曼机(restricted Boltzmann machine, RBM):RBM 是两层神经网络,这些浅层神经网络是 DBN(深度信念网络)的构建块。RBM 的第一层被称为可见层或者输入层,它的第二层叫做隐藏层。
  • 深度信念网络(Deep belief network,DBN):深度生成式模型,通过将一系列受限玻尔兹曼机(RBM)单元堆叠而进行训练
  • 马尔可夫网络马尔可夫随机场无向图模型):类似贝叶斯网络用于表示依赖关系。但是,一方面它可以表示贝叶斯网络无法表示的一些依赖关系,如循环依赖;另一方面,它不能表示贝叶斯网络能够表示的某些关系,如推导关系
  • 自编码器(autoencoder):学习无标签数据的有效编码;属一种无监督学习
  • 卷积神经网络(Convolutional Neural Network)

四、神经科学理论

  • 赫布理论(Hebbian theory):赫布理论描述了突触可塑性的基本原理,即突触前神经元向突触后神经元的持续重复的刺激,可以导致突触传递效能的增加。在人工神经网络中,突触间传递作用的变化被当作是(被映射成)神经元网络图中相应权重的变化。如果两个神经元同步激发,则它们之间的权重增加;如果单独激发,则权重减少。

References

https://zh.wikipedia.org/zh-cn/Category:%E4%BA%BA%E5%B7%A5%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C

一起读懂传说中的经典:受限玻尔兹曼机 | 机器之心

你可能感兴趣的:(统计学+数学,机器学习,深度学习,机器学习,人工智能)