【动手学深度学习】卷积层(CNN)

MLP(感知神经网络)存在的问题对于高维感知机,会存在参数过多,模型训练困难的问题。
两个原则平移不变性,局部性

二维交叉相关和二维卷积【动手学深度学习】卷积层(CNN)_第1张图片
二维交叉相关和二维卷积由于对称性,在实际使用中没有区别

【动手学深度学习】卷积层(CNN)_第2张图片00+11+32+43 = 19
卷积层实现的是二维交叉相关操作
【动手学深度学习】卷积层(CNN)_第3张图片
一维交叉相关
卷积层将输入和核矩阵进行交叉相关,加上偏移后得到输出
核矩阵和偏移是可以学习的参数
核矩阵的大小是超参数

给定(3232)输入图像
应用5
5大小的卷积核
第1层得到输出大小2828
第7层得到输出大小:4
4
更大的卷积核可以更快地减少输出大小
形状从nhnw减少到(nk-kh+1)(nw-kw+1)
存在的问题是:层数不能超过7层,第7层已经不能使用卷积核了
如果想做更深的神经网络呢?
1.填充
边界填充0
【动手学深度学习】卷积层(CNN)_第4张图片
本来是22的输出,现在就是44的输出
【动手学深度学习】卷积层(CNN)_第5张图片

【动手学深度学习】卷积层(CNN)_第6张图片
【动手学深度学习】卷积层(CNN)_第7张图片
本来是44的输出,现在就是22的输出
在这里插入图片描述

在这里插入图片描述

你可能感兴趣的:(动手学深度学习,深度学习,cnn,人工智能)