深度学习入门系列(总结篇)

这一篇我们对从机器学习过渡到深度学习的入门篇做一个总结。

深度学习分为深度神经网络深度生成模型。其中,深度神经网络的基础是感知机算法(PLA),它是以错误驱动为思想的线性分类算法。在此基础上加上多层,就成了多层感知机(MLP),这是神经网络的基础模型,通常情况下深度神经网络(DNN)就是指MLP。

如果层与层之间不再是单一的激活函数,而是用池化层和卷积层代替,就变成了卷积神经网络(CNN),为了解决训练样本输入是连续且长短不一的序列的问题,引入了循环神经网络(RNN)

DNN\CNN\RNN是最常见的深度神经网络。我们在简单介绍了其原理与思想。

多层感知机(MLP)

DNN的损失函数与激活函数

卷积神经网络(CNN)

循环神经网络(RNN)

深度生成模型是另外一种深度学习,它主要从概率图发展而来。根据有向图、无向图的层次化后可以分为三个不同类别。

第一个是有向图单一层次化后的模型——深度有向网络,主要有Sigmoid信念网络(SBN)变分自编码(VAE)生成对抗网络(GAN)

第二个是有向图与无向图结合后层次化模型——深度信念网络(DBN)。它可以看成波尔茨曼机(BM)叠加后的模型。

第三个是无向图单一层次化的模型——深度波尔茨曼机(DBM)。它是改造后的叠加RBM模型

我们也简单介绍了深度生成模型的主要原理与思想。

直面配分函数(Confronting Partition Function)

RBM的Learning问题

Sigmoid信念网络(SBN)

深度信念网络(DBN)

变分自编码(VAE)

生成对抗网络(GAN)

深度波尔茨曼机(DBM)

以上介绍深度学习是从机器学习角度进行介绍的,所以只是简单介绍。关于深度学习更多深入的算法与细节,小编打算在深度学习系列详细介绍。这里算是抛砖引玉,作为一个承前启后的效果。

至此,我们机器学习已经全部更新完毕。再难,也想跟你一起学算法!!期待我们的进步。

深度学习入门系列(总结篇)_第1张图片

你可能感兴趣的:(算法,神经网络,卷积,深度学习,人工智能)