卷积的计算过程

参考引用:https://zhuanlan.zhihu.com/p/634882615

多卷积核

对于一个卷积核可以认为是具有识别某一类元素(特征)的能力,而对于一些复杂结构的数据来说仅仅只是通过一类特征来进行辨识往往是不够的,因此,通常来说我们都会通过多个不同的卷积核来对输入进行特征提取得到多个特征图,然再输入到后续的网络中进行后续任务。


卷积的计算

1. 单通道单卷积核
卷积的计算过程_第1张图片

计算过程:
卷积的计算过程_第2张图片
这部分的计算过程:
1 ⋅ 0 + 2 ⋅ 0 + 0 ⋅ 1 − 1 ⋅ 0 + 1 ⋅ 1 + 0 ⋅ 1 + 2 ⋅ 1 − 1 ⋅ 0 − 2 ⋅ 1 ⏟ kernel      + 1      ⏟ bias = 2                \underbrace{1\cdot0+2\cdot0+0\cdot1-1\cdot0+1\cdot1+0\cdot1+2\cdot1-1\cdot0-2\cdot1}_{\text{kernel}}\underbrace{\;\;+1\;\;}_{\text{bias}}=2\;\;\;\;\;\;\; \\ kernel 10+20+0110+11+01+211021bias +1=2


2. 单通道多卷积核
卷积的计算过程_第3张图片
计算结果:
卷积的计算过程_第4张图片

3. 多通道单卷积核
卷积的计算过程_第5张图片
计算过程:
卷积的计算过程_第6张图片
这个部分的计算过程:
( 0 ⋅ 2 + 2 ⋅ 0 + 0 ⋅ 0 + 0 ⋅ 1 + 2 ⋅ 0 + 0 ⋅ 1 + 2 ⋅ 0 + 1 ⋅ 3 + 2 ⋅ 0 ) ⏟ channel 1 + ( 0 ⋅ 1 + 0 ⋅ 0 + 0 ⋅ 1 + 1 ⋅ 0 + 0 ⋅ 0 + 0 ⋅ 0 + 1 ⋅ 1 + 0 ⋅ 1 + 0 ⋅ 1 ) ⏟ channel 2 + ( 1 ⋅ 0 + 1 ⋅ 0 + 0 ⋅ 1 + 0 ⋅ 1 + 1 ⋅ 1 + 0 ⋅ 1 + 0 ⋅ 1 + 1 ⋅ 1 + 1 ⋅ 0 ) ⏟ channel 3 +      1      ⏟ bias = 3 + 1 + 2 + 1 = 7                \begin{aligned} &\underbrace{(0\cdot2+2\cdot0+0\cdot0+0\cdot1+2\cdot0+0\cdot1+2\cdot0+1\cdot3+2\cdot0)}_{\text{channel 1}}\\ +& \underbrace{(0\cdot1+0\cdot0+0\cdot1+1\cdot0+0\cdot0+0\cdot0+1\cdot1+0\cdot1+0\cdot1)}_{\text{channel 2}}\\ +& \underbrace{(1\cdot0+1\cdot0+0\cdot1+0\cdot1+1\cdot1+0\cdot1+0\cdot1+1\cdot1+1\cdot0)}_{\text{channel 3}}\\ +&\underbrace{\;\;1\;\;}_{\text{bias}}=3+1+2+1=7 \end{aligned}\;\;\;\;\;\;\; \\ +++channel 1 (02+20+00+01+20+01+20+13+20)channel 2 (01+00+01+10+00+00+11+01+01)channel 3 (10+10+01+01+11+01+01+11+10)bias 1=3+1+2+1=7


4. 多通道多卷积核
卷积的计算过程_第7张图片
计算结果:
卷积的计算过程_第8张图片


深度卷积

所谓深度卷积就是卷积之后再卷积,并且卷积的次数可以是几次,也可以是几十次、甚至可以是几百次。为什么需要深度卷积?可知全连接网络中我们可以通过更深的隐藏层来获取到更高级和更抽象的特征,以此来提高下游任务的精度。因此,采用深度卷积也是处于同样的目的。

你可能感兴趣的:(ML&DL笔记,深度学习)