卷积神经网络--卷积层

整个网络由输入层、卷积层、池化层、全连接层(softmax)
1.输入层由多通道的特征图(输入特征面)组成。rgb为三通道,灰度图为单通道。
2.卷积层由输出特征面组成,每个特征面有无数个神经元(像素点)组成。其中输出特征面的每个神经元是通过卷积核对输入特征面中的每个神经元进行卷积操作得到的。一个卷积核产生一张特征图,n个卷积核产生n个特征图。卷积核的设置规则如下:
用二维来举例。输入一个128 * 128 * 3(长、宽、通道数)的图片则卷积核的大小可设为n * n * 3,个数为m。卷积核的3对应的输入图片的通道数3。代表此卷积核一共有三层,分别对应输入图片的三个通道,一一对应同时进行卷积后产生三张特征图,再进行通道融合为一张。一共有m个n * n * 3的卷积核,即产生m个特征图。
此卷积层的参数是多少呢?
(参数即为权重的数量,一个3 * 3单通道的卷积核既有3 * 3个权重。)因此一个卷积层的个数为 一个nn3的卷积核的参数乘以此一层卷积核的个数==n * n * 3 * m。卷积核与卷积核之间,卷积核各个参数之间,权重都参数都是不相等的。(参数在代码编写中会进行随机初始化)
同一输入特征面和同一输出特征面之间的同方向连接存在权重共享,如下图视
卷积神经网络--卷积层_第1张图片

由一维进行举例,采用valid卷积模式。以输入特征面1与输出特征面1为例。输入一个1*3的卷积核(步长为1)与输入特征面1中的w(1)、w(2)、w(3)卷积得到输出特面中的w(1)。在这个过程中三条权重连接w1(1)1(1) != w1(2)1(1) != w1(3)1(1)。因为卷积核里的三个权重a,b,c之间是不想等的。步长为1走到输入特征面1中的w(2)、w(3)、w(4),卷积得到输出特征面中的w(2)。同理w1(2)1(2) != w1(3)1(2) != w1(4)1(2)。但a1=a2,b1=b2,c1=c2,所以w1(1)(1)=w1(1)1(2)=W1(3)1(3)=W1(4)1(4)。即权值共享。其中Wm(i)n(j)表示输入特征面m第i个神经元的连接权值。
卷积神经网络--卷积层_第2张图片卷积神经网络--卷积层_第3张图片
在反向传播过程中,根据损失函数的不同会进行反向求导更新权重,层层递进,同一层的权重更新同时进行,最后加权求和。这其中同一个输入特征面与输出特征面之间用权值共享所以只训练一个就可,最后加权求和。

                卷积层的介绍至此结束,池化与全连接层可看下一篇!

你可能感兴趣的:(卷积神经网络,深度学习,卷积神经网络,卷积)