生物学合理的深度学习

Neil Zhu,ID Not_GOD,University AI 创始人 & Chief Scientist,致力于推进世界人工智能化进程。制定并实施 UAI 中长期增长战略和目标,带领团队快速成长为人工智能领域最专业的力量。
作为行业领导者,他和UAI一起在2014年创建了TASA(中国最早的人工智能社团), DL Center(深度学习知识中心全球价值网络),AI growth(行业智库培训)等,为中国的人工智能人才建设输送了大量的血液和养分。此外,他还参与或者举办过各类国际性的人工智能峰会和活动,产生了巨大的影响力,书写了60万字的人工智能精品技术内容,生产翻译了全球第一本深度学习入门书《神经网络与深度学习》,生产的内容被大量的专业垂直公众号和媒体转载与连载。曾经受邀为国内顶尖大学制定人工智能学习规划和教授人工智能前沿课程,均受学生和老师好评。

出处:http://arxiv.org/pdf/1502.04156v1.pdf

神经学家长期以来一直在质疑与当前神经生物学不合拍的深度学习算法。我们探索了更加生物学合理的深度表示学习,主要聚焦在无监督学习,以及可以用于监督学习、无监督学习和强化学习的学习机制的设计上。

  1. 这个起点是:基本的学习规则被认作是能够统治突触的权重更新(脉冲时序依赖可塑性)可以被解释为某种目标函数的梯度下降,只要神经动态系统将激发状态导向更好的目标函数值(监督的、非监督的以及回报驱动的)。
  2. 第二个主要想法就是这个过程对应于按照神经网络动态系统实现的变分法 EM 算法来近似后验分布(而非得到精确的后验分布)。
  3. 另一个贡献就是在上面的变分推断过程的更新隐含变量可以仅仅需要前向和反向传播激活值的方式近似所得,这些层对(pairs of layers)的学习形成了一种去噪的自编码器。
  4. 最后,我们基于去噪自编码器的生成式解释扩展了自编码器的概率意义,在生成式学习的任务上,我们对这些想法都进行了验证。

1. 引言

深度学习和人工神经网络确实受到了对大脑研究的启发,但是大多数是在计算形式上。
然而,当前研究中缺少的其实是令人信服的有关生物神经元中的能够解释存在在生物神经元中的学习规则机器学习解释**,这个也能够解释深度神经网络的联合训练,例如通过神经连接的长链进行的 credit 分配。解决 credict 分配问题意味着识别神经元和权重,对一个特定的输出和参数的改变影响效果所占的比例。尽管反向传播提供了一种机器学习的解释,不过在生物学上还不是可行的,在下面我们会进行深入讨论。找到对 credit 分配的生物学合理的机器学习观点是一个长期的问题。这也是本文的贡献。

现在我们看看目前最优的深度学习算法依赖于看起来在生物学上并不合理的机制,如梯度反向传播——计算目标函数的梯度的机制。下面的问题是关于反向传播的不合理的思考:

  1. 反向传播的计算是纯线性的,而生物神经元是线性和非线性交织的;
  2. 如果用来使用反向传播进行 credit 分配的反向路径存在在大脑中(对应自己的突出和可能本身的神经元),那就需要关于在前向传播过程中计算节点的非线性性的导数的精确的知识
  3. 类似地,这些反向路径必须使用前向传播连接的完全对称的权重(相同的连通性、相同的转置)
  4. 神经元交换通过二值(可能是概率的)信息进行而不是纯净的连续值(会以脉冲形式进行)
  5. 前向和后向过程的计算必须完全clocked(后者需要前者的结果)
  6. 不清楚输出的目标来自何处。

本文的观点期望解决所有上面的问题,尽管其中有一些生物学可能实现的还没有弄清楚,当然很多生物学上的细节没有详细分析。

注意反向传播不仅仅用在经典的监督学习上,还有很多的无监督学习中也使用了这个技术,包括各种类型的自编码器;稀疏自编码器;去噪自编码器;contractive 自编码器;变分自编码器。也有不依赖于反向传播的其他无监督学习算法例如很多钟 Boltzmann Machine的机器学习算法。Boltzmann Machine可能是对深度学习结构最为生物学合理的学习算法,但是他们同样也面对了很多问题,如果权重的转移问题,正态和负态同步问题。

我们开始讨论的是在生物突触中的机器学习规则的解释:Spike-Timing-Dependent Plasticity(STDP)。跟随 Hinton 2007年的报告,我们首先说明了 STDP 可以被看成是随机梯度下降,如果这些神经元是由返回信号和目标函数关于神经元的电势差的导数成比例达到。

人工智能时代每个人都将面临挑战,想要了解更多相关知识和实践经验,请关注公众号“UniversityAI”。


生物学合理的深度学习_第1张图片
UAI 人工智能

你可能感兴趣的:(生物学合理的深度学习)