报告整理:美国工程院院士庄炳湟演讲:深度神经网络相比早期只是宽度和深度的增加,为何需要60年?

  1. 人类的智能包含很多不同的能力。
  2. 模型的建立要由生理上的研究来引导,但是功能上,希望从计算上来表达,这两者相辅相成。
  3. 早期AI的研究很多属于符号逻辑。
  4. 人工智能的进展是得力于大量的数据,但是数据怎么驱动AI的发展?以辨识的问题来做解释。辨识理论就引导我们必须从数据里学习分布模式。辨识理论容易讲,不容易实现,从数据里学习也是容易讲,不容易实现,问题在哪里?叫做3Ds。
    a) 观测维度的问题。维度高时,要专家来告诉你特征在哪里。问题是这个特征有可能主观上忽略了一些或没有办法关照到一些细节。深的数据本身观测的维度很高,有可能计算不下去。
    b) 掌握统计的分析。这个分布怎么代表?要把它数学模式化。数学模式化的时候,要学什么模式?有了模式的选择,要参数化,要从数据里能够学到参数的值,怎么学?会有层层困难。
    c) 数据量够不够。
  5. 我们希望能够模拟人脑或模拟人脑的功能,在神经网络进展里,已提出很多不同的模式,其中有两个最值得重视的:
    a) Recurrent Neural Networks 在图这个例子中,当五个维度的观测值输入给这个人脑模式,随着时间的演变,五个神经元最后各回归到一个值,就是把所有的神经元连接起来,输入每一个神经元,让它自己回归到固定的值。
    b) Feedforward Neural Networks
  6. 深层神经网络不同的层次包含着不同的意义,而且有不同的学习目标。
  7. DNN可以处理高维度观测值
  8. DNN包含了两个有关智能的动作:联想和辨识。
  9. RBM(Restricted Boltzmann Machine)让你联想,FNN让你辨识。

你可能感兴趣的:(报告整理:美国工程院院士庄炳湟演讲:深度神经网络相比早期只是宽度和深度的增加,为何需要60年?)