人工智能简史笔记2

第四章开始学习什么是神经网络

我们把迭代运算的过程称为“神经网络的训练”,最终训练好的神经网络可以对新的数据作分类预测。这就是最简单的“机器学习”的过程。

原来珠穆朗玛峰还和人工智能有沾边呢,取名来自一代人工智能宗师辛顿教授的祖辈(珠穆朗玛峰测绘师)即everest家族。下图看到了左二辛顿和右一吴恩达。2013年谷歌收购辛顿的DNN Rearch公司,有趣的是这家公司没有产品,只有三个深度学习的牛人。同样的当年谷歌收购deepmind时,他们仅发表了一篇论文,4亿美金的收购足见谷歌老板的远见。

图片发自App

再来认识另一位牛人,乐存教授,发展和推广了卷积神经网络。

卷积神经网络是深度学习中实现图像识别和语言识别的关键技术。和辛顿教授一样,乐存教授也是在人工智能和神经网络的低潮时期,长期坚持科研并最终取得成功的典范。正如辛顿教授所说:“是乐存高举着火炬,冲过了最黑暗的时代。”
给你一个规模上的概念,目前用作图像识别的某个比较典型的卷积神经网络,深度可达30层,有着2400万个节点,1亿4000万个参数和150亿个连接。连接个数远远多于参数个数的原因就是权值共享,也就是很多连接使用相同的参数。训练这么庞大的模型,必然要依靠大量最先进的CPU和GPU,并提供海量的训练数据

最后本章(第四章)介绍了一些目前深度学习相关的领域,如OCR,自动驾驶汽车,人脸识别,智能音箱等,都在我们身边发生着日新月异的变化。

你可能感兴趣的:(人工智能简史笔记2)