cs231n--CNN 卷积神经网络

CNN Convolutional Neural Networks

cs231n--CNN 卷积神经网络_第1张图片

Convolution Layer

Fully Connnected Layer
全连接层,将一张32323的图像展开成一个向量,然后进行向量的乘法

cs231n--CNN 卷积神经网络_第2张图片

Convolution Layer

cs231n--CNN 卷积神经网络_第3张图片

卷积核按照一定的规则在图像上进行滑动,卷积核的深度要和输入居真的深度相同。

cs231n--CNN 卷积神经网络_第4张图片

计算时,使用卷积核和被卷积区域进行点乘,再加上一个 bias w T x + b w^T x +b wTx+b

使用一个卷积核得到一个深度为1的结果,并且activation map的大小变小了。
cs231n--CNN 卷积神经网络_第5张图片

我们可以使用多个卷积核,将结果进行堆叠,拓展结果的深度
cs231n--CNN 卷积神经网络_第6张图片

cs231n--CNN 卷积神经网络_第7张图片

ConvNet 是一系列的卷积层,其中插入了激活函数
cs231n--CNN 卷积神经网络_第8张图片

cs231n--CNN 卷积神经网络_第9张图片

cs231n--CNN 卷积神经网络_第10张图片

在卷积核进行滑动的时候,选择一个合适的步长 stride 进行滑动,会影响最终输出的结果的大小。
cs231n--CNN 卷积神经网络_第11张图片

然而就算stride 为1的时候,得到的结果尺寸也会比输入更小,因此要进行填充。
cs231n--CNN 卷积神经网络_第12张图片

如果不行近填充,尺寸缩进速度很快,工作效果并不好。

cs231n--CNN 卷积神经网络_第13张图片

receptive field 感受野

卷积核是K大小的,那么结果中 K大小的区域涉及到输入中 KK ( row KK ,col K*K ) 大小的感受野

对于一个output区域,每经过一个卷积层,会将感受野的尺寸扩充K-1倍, 因此经过L层,感受野的尺寸扩充到 1+L*(K-1) 倍
cs231n--CNN 卷积神经网络_第14张图片

对于更大的图像,如果我们想让output涉及到,看到整个图像,我们需要经过很多层的卷积

解决方案“降采样”

Solution: Strided Convolution

cs231n--CNN 卷积神经网络_第15张图片

cs231n--CNN 卷积神经网络_第16张图片

Pooling layer

cs231n--CNN 卷积神经网络_第17张图片

cs231n--CNN 卷积神经网络_第18张图片

max pooling 不需要学习参数,引入空间不变性

全连接层,就是一个普通的神经网络层
cs231n--CNN 卷积神经网络_第19张图片

你可能感兴趣的:(深度学习,cnn,深度学习,神经网络)