[笔记]飞浆PaddlePaddle-百度架构师手把手带你零基础实践深度学习-21日学习打卡(Day 1)

[笔记]飞浆PaddlePaddle-百度架构师手把手带你零基础实践深度学习-21日学习打卡(Day 1)

logo

(Credit: https://gitee.com/paddlepaddle/Paddle/raw/develop/doc/imgs/logo.png)

近期参加了百度飞桨推出了免费的课程,感兴趣的你可以点击这里。


第一天的课程相对比较基础,让我巩固了一下平时不太注意的细节问题。

毕然老师首先介绍了人工智能、机器学习、深度学习三者的关系。

对于机器学习,老师则从它的实现和方法论两个维度进行剖析。机器学习的实现可以分成两步:训练和预测,类似于归纳和演绎。方法论则借“牛顿第二定律”入手,介绍机器学习的思考过程,以及在过程中如何确定模型参数,模型三个关键部分(假设、评价、优化)该如何应用。

Arthur Samuel在1959年对机器学习下的定义如下:A “field of study that gives computers the ability to learn without being explicitly programmed.”1

对于深度学习,与机器学习在理论结构上是一致的,即:假设、评价和优化,其根本差别在于假设的复杂度。在介绍深度学习的发展历史的时候,提到70年代时,有学者提出感知机(Perceptron)并不能解决异或问题;90年代时,支持向量机(SVM)完备的理论与高效的性能对于当时多层感知机(MLP)的冲击。

这让我联想到了最近在百面机器学习2中看到的问题:

  • 多层感知机表示异或逻辑最少需要几个隐含层(因考虑二元输入)?
  • 如果只是用一个隐含层,需要多少引接点能够实现包含n元输入的任意布尔函数?
  • 考虑多隐含层的情况,实现包含n元输入的任意布尔函数最少需要多少个网络节点和网络层?

课程后期,以波士顿房价预测问题为基础案例,介绍了数据的处理过程,模型的设计。同时又介绍了损失函数的选择,与选择它的理由。在课后的作业中,也问及“为什么损失函数选择均方误差函数,而不选择绝对值误差函数?”。

Reference


  1. Samuel, A. L.(1959). Some studies in machine learning using the game of checkers. IBM Journal of research and development. 3(3). 210–229. ↩︎

  2. Yue Zhuge, 2018. Bai Mian Ji Qi Xue Xi. Beijing: Posts & Telecom Press ↩︎

你可能感兴趣的:(paddlepaddle)