卷积层的理解

https://zhuanlan.zhihu.com/p/31249821
https://zhuanlan.zhihu.com/p/31657315
https://zhuanlan.zhihu.com/p/32299939
https://zhuanlan.zhihu.com/p/33841176

beginner 献出拙见,我目前的理解是这样的:feature map 由卷积核(Fliter) 和输入做卷积运算得到一个 Fliter 对应卷积后得到一个 feature map不同的Filter (不同的 weight, bias) ,卷积以后得到不同的 feature map,提取不同的特征(得到对应 specialized neuro)举例:同一层: Fliter1 的w1,b1 运算后提取的是 形状边缘的特征: feature map1 Fliter2 的w2,b2 运算后提取的是 颜色深浅的特征: feature map2下一层: Fliter3 的w3,b3 运算后提取的是 直线形状的特征: feature map3 Fliter4 的w4,b4 运算后提取的是 弧线形状的特征: feature map4 Fliter5 的w5,b5 运算后提取的是 红色深浅的特征: feature map5 Fliter6 的w6,b6 运算后提取的是 绿色深浅的特征: feature map6

卷积核为奇数,即33,55,77等等类似的。从卷积核尺寸的选取来看,卷积核尺寸过大,会导致提取图像的特征过于复杂,尺寸过小,难以表示有用的特征。一般选取55或者77的最佳,不过都是在实验室的基础上进行选取的,如果实验表明33的效果更好,那完全可以用3*

3D Visualization of a Convolutional Neural Network

https://www.zhihu.com/question/47732823?sort=created

http://www.cnblogs.com/subconscious/p/5058741.html 神经网络综述

https://www.jianshu.com/p/856a5b424d6b
y=wx+b 与y=xw+b,后者求导更好算。

https://zhuanlan.zhihu.com/p/33667203

你可能感兴趣的:(卷积层的理解)