卷积神经网络基础与补充

参考自 

  • up主的b站链接:霹雳吧啦Wz的个人空间-霹雳吧啦Wz个人主页-哔哩哔哩视频
  • 这位大佬的博客 https://blog.csdn.net/m0_37867091?type=blog

CNN的历史发展:

卷积神经网络基础与补充_第1张图片

这一点老师上课的时候也有讲到,BP的出现对CNN的发展至关重要

卷积的特性:关于具体体现在哪,上课老师的ppt讲的非常的明白

卷积神经网络基础与补充_第2张图片

目的:进行特征提取,减少训练过程中需要的参数数量

下面这种图也是非常的好,对于理解卷积的过程有很好的理解

卷积神经网络基础与补充_第3张图片

需要注意的是:

1.卷积核的chanel和输入矩阵的阿chanel是一致的

2.根据卷积的过程也可以知道最后输出矩阵的chanel是卷积核的个数

反向传播中误差的计算:softmax/sigmoid

一般是用 交叉熵损失 (Cross Entropy Loss)来计算误差

卷积神经网络基础与补充_第4张图片

权重的更新

卷积神经网络基础与补充_第5张图片

常用优化器:SGD优化器(Stochastic Gradient Descent 随机梯度下降)

  • 缺点:1. 易受样本噪声影响;2. 可能陷入局部最优解
  • 改进:SGD+Momentum优化器

你可能感兴趣的:(CNN图像处理基础,cnn,人工智能,神经网络)