卷积神经网络

深度学习的应用场景有很多,主要方法大多为神经网络,常见的有如下几种

而我们研究所用的比较多的是第一种,使用卷积神经网络做图像识别。

深度学习的学习方法大体分为监督学习、无监督学习、半监督学习,强化学习等。

监督学习,它的特点在于数据模型已知,主要有回归和分类。

回归可以通过神经网络模型,进行正向传播和反向传播。分类有分类器映射函数,输入的数据通过映射函数得到一个预测值,根据预测值进行分类。分类器算法有朴素贝叶斯算法、贝叶斯信念网络等。贝叶斯信念网络同样在使用神经网络,而不断学习的结果反应的是不断变化的事件条件概率(网络中的权值)。

而无监督学习是说预先不知道数据集的模型,聚类就是一种无监督学习,聚类将相同的数据聚集,而差异较大的数据分开。

既然神经网络这样重要,我们可以看一看简单的神经网络。

该图的意思是将一张猫的图片放置进入一张神经网络里,我们得到了从0到12287号神经元,一共12288个权值和变量,经过模型函数转化后,再由激活函数激活等一系列操作,我们输出y的预测值大于0.5,我们可以初步判断预测图片是一只猫。

下面具体介绍一下神经网络的学习过程,分为正向传播和反向传播,正向传播得到y的预测值y’,与y的真实值做差的平方和处理(也有其他方式的损失函数),得到一个损失函数loss,再进行反向传播,不断更新权值,使y’越来越接近y的真实值。

神经网络的应用很广,其中有一种用途,就是卷积神经网络。神经网络加上卷积层、池化层还有全连接层,这样就是一个基本的卷积神经网络。

下面说说卷积时用到的几个不可或缺的过程,卷积,池化和全连接。

卷积就是一次次矩阵运算,分为图层和卷积核,卷积核一般为3*3的大小,分别和图层进行矩阵运算,相应位置向乘再相加,得到的结果进行激活函数处理,最终得到一个新的图层,视情况,一般数值越大越接近真实值。

原乘法公式的WT,权值矩阵,就是卷积核。

而卷积带来的问题也是显而易见的,新的图层会减小,为了避免这种情况,一般先填空图层,让结果图层不会出现变小的问题。

池化,是图层缩小的过程,池化的窗口可以是2*2,也可以更大,池化的种类有最大,最小,取平均值等。最大池化的意思就是在2*2的窗口里面,选取最大的值去除其他的值,变成一个1*1的像素点。

全连接层是多维向一维的转化,将数据进行扁平化处理,方便和神经元进行全连接。

如果不只考虑图层长宽,还考虑颜色通道,这就会把二维的图层转变成三维,考虑三原色可以调配成任何颜色,所以三维的通道一般有三个,就是RGB。所以8*8的图层变成了8*8*3的三维图像,经过卷积池化和激活函数的处理,成为了6*6*4的三维预测值,这只是一次卷积运算,机器学习的过程是一次次不断的卷积池化更新权值,预测值将和真实越来越接近。

最后看一下卷积神经网络的全貌,

x是输入,经过神经网络,卷积,池化,卷积等多次操作,得到的结果进行扁平化处理,再通过全连接层,输出为y(预测值)。这便是一次神经网络的学习过程。

你可能感兴趣的:(卷积神经网络)