卷积神经网络中卷积核的参数为什么是四个

卷积神经网络的卷积核参数

笔者最近在学卷积神经网络,想起来我的某位同学问了我一个问题:
为什么卷积神经网络中卷积核的参数是四个,为什么要把输出output也写入,即为什么与输出有关?
刚开始我也困惑?于是查起了相关资料,才发现其实是没有理解卷积层的运算。
卷积神经网络讲解内容可以b站搜索邱锡鹏老师的《神经网络与深度学习》第五章内容以及李宏毅老师的卷积神经网络,若有鱼书在身旁就更好。
回到问题本身,我自己做了些笔记,参考的是鱼书。
附图:
卷积神经网络中卷积核的参数为什么是四个_第1张图片
卷积核四个参数分别是:output_channel,input_channel,height,width
这里主要问题也是为什么有output_channel?
最重要的是理解单通道输入input在经过卷积核计算后得到feature map特征图的维度变化,在拓展到RGB三通道特征图。而且要理解,**卷积核的意义,就是提取特征,一个卷积核可以得到一个特征,所以FN个卷积核可以得到FN个特征图,这就是输出output维度中除了长宽后的深度(通道),即output_channel!**4
以上便是我对这个问题的分析,初学者,有问题请指出,谢谢!

你可能感兴趣的:(深度学习,神经网络,卷积神经网络)