应用领域:图片猫识别,目标检测(无人驾驶),图像风格转换(比如转成素描)等等。
面临的挑战:
你希望模型能处理如此的的数据量。为此,你需要进行卷积计算,下节将用边缘检测的例子来说明卷积的含义。
例如 6 × 6 6 \times 6 6×6 的单通道灰度图像,检测垂直边缘,构造一个矩阵 [ 1 0 − 1 1 0 − 1 1 0 − 1 ] \left[\begin{array}{rrr}1 & 0 & -1 \\ 1 & 0 & -1 \\ 1 & 0 & -1\end{array}\right] ⎣⎡111000−1−1−1⎦⎤ (过滤器 / / / 卷积核),进行卷积运算 * (convolve)
import numpy as np
image = np.array([[3,0,1,2,7,4],[1,5,8,9,3,1],[2,7,2,5,1,3],[0,1,3,1,7,8],[4,2,1,6,2,8],[2,4,5,2,3,9]])
print(image)
print('-------')
filter_ = np.array([[1,0,-1],[1,0,-1],[1,0,-1]])
print(filter_)
print('-------')
from scipy import signal
convolution = -signal.convolve2d(image,filter_,boundary='fill',mode='valid')
print(convolution)
[[3 0 1 2 7 4]
[1 5 8 9 3 1]
[2 7 2 5 1 3]
[0 1 3 1 7 8]
[4 2 1 6 2 8]
[2 4 5 2 3 9]]
-------
[[ 1 0 -1]
[ 1 0 -1]
[ 1 0 -1]]
-------
[[ -5 -4 0 8]
[-10 -2 2 3]
[ 0 -2 -4 -7]
[ -3 -2 -3 -16]]
image = np.array([[10,10,10,0,0,0],[10,10,10,0,0,0],[10,10,10,0,0,0],[10,10,10,0,0,0],[10,10,10,0,0,0],[10,10,10,0,0,0]])
filter_ = np.array([[1,0,-1],[1,0,-1],[1,0,-1]])
print(-signal.convolve2d(image,filter_,boundary='fill',mode='valid'))
[[ 0 30 30 0]
[ 0 30 30 0]
[ 0 30 30 0]
[ 0 30 30 0]]
竖直,水平的过滤器
把这9个数字当成参数,通过反向传播学习,边缘捕捉能力会大大增强(可以检查任意角度)
假设原始图片是 n × n n \times n n×n,过滤器是 f × f f \times f f×f,那么输出大小是 ( n − f + 1 ) × ( n − f + 1 ) (n-f+1) \times(n-f+1) (n−f+1)×(n−f+1)。
解决上面的问题:
填充多少层,怎么选?
每次过滤器在图片中移动的步长为s(stride)
输出尺寸为 ( ⌊ n + 2 p − f s ⌋ + 1 ) × ( ⌊ n + 2 p − f s ⌋ + 1 ) (\lfloor \frac{n+2p-f}{s} \rfloor+1) \times (\lfloor \frac{n+2p-f}{s} \rfloor+1) (⌊sn+2p−f⌋+1)×(⌊sn+2p−f⌋+1)
注:数学中的卷积,需要在操作之前对过滤器 顺时针旋转90度 + 水平翻转,深度学习里省略了该步骤,但是不影响,简化了代码
如果希望对不同的通道进行检测边缘,对 filter 的相应层设置不同的参数就可以了
想要多个过滤器怎么办?(竖直的、水平的,各种角度的)
参数的个数跟图片大小无关,跟过滤器相关,假如有10个过滤器,上面每个过滤器有 27 个参数,加上偏置 b,28个再乘以10,共计280个参数。
即使图片很大,参数却很少,这也是卷积神经网络的一个特征,叫作避免过拟合。
除了 卷积层(convolution),还有 池化层(pooling),全连接层(fully connected)。
除了卷积层,卷积网络也经常使用池化层来缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性
Max 运算的实际作用:
池化,它有一组超参数 f , s f,s f,s,但没有参数需要学习,不需要梯度下降更新
池化层特征
尽量不要自己设置超参数,而是查看文献中别人采用了哪些超参数,选一个在别人任务中效果很好的架构,它也有可能适用于你的应用程序。
和只用全连接层相比,卷积层 的两个主要优势在于参数共享和稀疏连接,全连接层的参数巨大,卷积层需要的参数较少。
原因: