【推荐:CNN可视化理解工具】

文章目录

    • 前言
    • 功能展示
    • 超参数
    • CNN的优点

前言

CNN对于初学者而言,有很多理解起来很困难的地方,偶然找到一个网站,可视化展示CNN:点击下面链接

CNN Explainer
将CNN过程的每一步进行可视化,十分便于新手小白进行学习理解 #新手入门CNN
【推荐:CNN可视化理解工具】_第1张图片

功能展示


CNN包含输入层,卷积层,ReLU,池化层和全连接层。

输入层:图示例子中,输入是(64x64x3)的图像,有RGB三个chanel(通道)。
卷积层:经过10个3x3的kernel(卷积核),没有padding的情况下,得到intermediate(62x62x10)。注:卷积核一般为奇数,例如3x3。卷积核可以理解为特征的过滤器,矩阵中心位置即为特征的中心点。
【推荐:CNN可视化理解工具】_第2张图片
【推荐:CNN可视化理解工具】_第3张图片
-ReLU
卷积后需要经过非线性层。
【推荐:CNN可视化理解工具】_第4张图片
-池化层

池化层这里没有要学习的参数,是降采样的过程,会提高计算速度。
【推荐:CNN可视化理解工具】_第5张图片
全连接层
经过多次卷积,池化后,得到(13x13x10)的张量,展开成1690x1的flatten,通过softmax进行多分类的输出。
【推荐:CNN可视化理解工具】_第6张图片Softmax 的计算方法如下:
【推荐:CNN可视化理解工具】_第7张图片

超参数

***卷积核相关***
	卷积核的空间尺寸:一般为奇数,eg:(3x3)。小特征用小尺寸,大特征用大尺寸。
	卷积核的数量:取决于要提取的特征数量。
	输入数据的深度:取决于输入数据的通道数(number of chanels)
	步长(Stride):卷积核每次平移的距离
	零填充(No Padding):可以控制输出数据体的空间尺寸。
***卷积核相关***

CNN的优点

优点
•共享卷积核,对高维数据处理无压力
•无需手动选取特征,训练好权重,即得特征分类效果好
缺点
• 需要调参,需要大样本量,训练最好要 GPU
•物理含义不明确(也就说,我们并不知道没个卷积层到底提取到的是
什么特征,而且神经网络本身就是一种难以解释的 “ 黑箱模型 ” )

你可能感兴趣的:(DeepLearn,cnn)