深度学习之多层感知器(MLP)

文章目录

    • 一.小例
    • 二.多层感知器(Multi-Layer Perceptron)

一.小例

前面学习了一些关于机器学习的知识,本篇来说一说有关深度学习方面的东西——多层感知器,下面来看一些例子。
深度学习之多层感知器(MLP)_第1张图片
前面也说过类似问题,这里我们可以通过建立一个逻辑回归模型来实现任务,它的边界曲线大概是这样的(下图)
深度学习之多层感知器(MLP)_第2张图片
可以看到,边界曲线不是规则的圆或椭圆,看起来还是比较复杂的,这并不是简单的二次型能够解决的问题了,需要用到多次项来求解,这就需要我们生成多项式属性了。但如果边界曲线更复杂,初始数据属性更多,那么数据将非常庞大,运算速度就会很慢(看下一个例子)
深度学习之多层感知器(MLP)_第3张图片
前面我们也说过类似例子,是采用的数据降维的方法,先暂且不说这个,我们再来看一个任务
深度学习之多层感知器(MLP)_第4张图片
与我们人的直观判断不同,计算机看到的是一个点一个点对应的数值(灰度值)
ps:对灰度值不了解的朋友可以自行去了解一下
假设有这样一张输入图片
深度学习之多层感知器(MLP)_第5张图片
计算机看到的是这样的
深度学习之多层感知器(MLP)_第6张图片
对于这样的数据计算机是如何进行二分类的?我们来简化一下

这时我们就可以通过p1、p2的灰度建立模型、给出决策边界进而求解了,如果边界是二阶的,就有右边的5项,当然高阶的项数更多,这是我们实现图片二分类问题的一个简化思路。实际上我们是要对所有的点都进行二分类的。
深度学习之多层感知器(MLP)_第7张图片
像400*500像素这样的一个图片,将有200000个输入数据(第一行从1到500,第二行从501到1000,以此类推)这么庞大的数据,其计算量和运行速度可想而知,所有我们需要一个更好的模型去解决该问题

二.多层感知器(Multi-Layer Perceptron)

深度学习之多层感知器(MLP)_第8张图片
如果学过生物的话,应该都学过人的神经元结构,其中有两个很重要的部分(树突和轴突末端)
深度学习之多层感知器(MLP)_第9张图片
深度学习之多层感知器(MLP)_第10张图片
深度学习之多层感知器(MLP)_第11张图片
当人看到图片时,神经元间就会进行一些信息传递进而判断出图片类别。所以当我们模仿人体神经元时,可以想象将神经元信号数值化
深度学习之多层感知器(MLP)_第12张图片
即是说给通过输入数据,再经过相关公式,最后生成一个新的数值信号。看到这儿,是不是感觉和逻辑回归有一些相似之处,那就再回顾一下逻辑回归模型框架
深度学习之多层感知器(MLP)_第13张图片
可以看到左边是我们的输入数据,中间是我们的公式,右边就是我们求得的概率了。
虽然有些相似,但人的神经元有一个不同的点就是它并不是一个单一的神经元,也可以理解成它并不是一个单一的逻辑回归结构,而是由很多个神经元组成的神经网络。那么我们能把逻辑回归组成一个网络吗?(前面那个100项数据的例子也有更好的方法了)
深度学习之多层感知器(MLP)_第14张图片
这里我们可以这样理解,从输入神经元开始到第一个隐含神经元这样一个计算过程,是通过逻辑回归计算的,然后第一个隐含神经元和第二个隐含神经元间也是通过逻辑回归计算的(这里第一个隐含神经元的相关数据可以看作是新的输入),同理,第二个隐含神经元和输出神经元间也是通过逻辑回归计算的。

还是一样,来看一个简化的MLP模型结构
深度学习之多层感知器(MLP)_第15张图片
来回忆一下逻辑回归模型的一些数学公式
深度学习之多层感知器(MLP)_第16张图片
这里z可以是x乘以θ

那这个简化的结构的y怎么计算呢?

我们是先计算a的值然后再计算y的值(这里x0是常数项)
深度学习之多层感知器(MLP)_第17张图片
这里就和前面的z=xθ相同了

在这里插入图片描述

附上之前大家要的数据集:

链接:https://pan.baidu.com/s/18dwHILJNzS187MGvJqplGw
提取码:ciza

你可能感兴趣的:(深度学习之多层感知器(MLP))