万能近似定理

Cybenko 等人于 1989 年证明了具有隐含层最少一层感知机神经网络在激励函数也称激活函数为 Sigmoid 函数的情况下具有逼近任何函数的作用Hornik 等人在 1991 年进一步证明激励函数为任何非常数函数的情况同样适用这就是著名的万能逼近定理Universal Approximation Theorem也就是一个仅有单隐含层的神经网络在神经元个数足够多的情况下通过非线性的激活函数足以拟合任意函数

universal approximation theorem

万能近似定理(universal approximation theorem),是深度学习最根本的理论依据。它声明了在给定网络具有足够多的隐藏单元的条件下,配备一个线性输出层和一个带有任何“挤压”性质的激活函数(如logistic sigmoid激活函数)的隐藏层的前馈神经网络,能够以任何想要的误差量近似任何从一个有限维度的空间映射到到另一个有限维度空间的Borel可测的函数。

前馈网络的导数也可以以任意好地程度近似函数的导数。

任意定义在 R n R n R n R n \mathbb{R}^n Rn RnRnRn有界集上的连续函数都是Borel可测的,因此可以用神经网络来近似。神经网络也可以近似从任何有限离散空间映射到另一个有限离散空间的函数。

在原始的定理中,要求激活函数在变量取非常大的正值或者非常大的负值时饱和。实际上,万能近似定理对更广泛的激活函数也是适用的,包括ReLU。

万能近似定理其实说明了理论上神经网络可以近似任何函数。但实践上我们不能保证学习算法一定能学习到目标函数。即使网络可以表示这个函数,学习也可能因为两个不同的原因而失败。第一,训练算法可能无法找到目标函数的参数值;第二,训练算法可能由于过拟合而选择了错的函数。

参考文献

  1. Deep Learning - Chapter 6.4.1. www.deeplearningbook.org

  2. Hornik, K., Stinchcombe, M., and White, H. (1989). Multilayer feedforward networks are uni-versal approximators. Neural Networks, 2, 359–366. 171

  3. Hornik, K., Stinchcombe, M., and White, H. (1990). Universal approximation of an unknown mapping and its derivatives using multilayer feedforward networks. Neural networks, 3(5), 551–560. 171

  4. Leshno, M., Lin, V. Y., Pinkus, A., and Schocken, S. (1993). Multilayer feedforward networks with a nonpolynomial activation function can approximate any function. Neural Networks, 6, 861––867. 171, 172

link

你可能感兴趣的:(神经网络,深度学习,人工智能)