CS231N斯坦福计算机视觉公开课 04 -卷积神经网络

CS231N斯坦福计算机视觉公开课 04 -卷积神经网络

  • 一、卷积层
    • 1.卷积操作
    • 2. 1*1卷积核
  • 二、池化层
  • 三、全连接层

一、卷积层

1.卷积操作

  • 黄色部分:感受野
  • 粉色部分: feature map ,其数量成为通道数( channel
  • 红色数字:卷积核(有多少卷积核就会生成多少 feature map
  • 横向、纵向步长:每次移动的格子数(一般横向、纵向步长相同)

CS231N斯坦福计算机视觉公开课 04 -卷积神经网络_第1张图片

  • 由于上图中边缘的数参与了很少的计算,而中间的数参与了很多次的计算,这样是不公平的
  • 所以我们引入了padding操作,在矩阵的周围补0(补0的圈数可以自己定),这样可以使得边缘值参与更多次的计算

CS231N斯坦福计算机视觉公开课 04 -卷积神经网络_第2张图片

2. 1*1卷积核

  • 工作原理
    • 将所有通道同一位置的特征进行加权求和进行汇总

CS231N斯坦福计算机视觉公开课 04 -卷积神经网络_第3张图片

作用:

  • 进行降维或者升维
  • 跨通道的信息交融(把所有通道都放到了一个 channel 上)
  • 减少参数量(对于边缘计算、移动设备,需要比较轻量化的计算)
  • 增加模型深度,提高非线性表示能力

CS231N斯坦福计算机视觉公开课 04 -卷积神经网络_第4张图片

二、池化层

  • 池化可以给卷积神经网络带来平移不变性(泛化)
  • 缺点:丢失了空间信息
    CS231N斯坦福计算机视觉公开课 04 -卷积神经网络_第5张图片

三、全连接层

  • feature map 拉长成一个长向量,用于模型的汇总
  • 缺点:参数量非常大,且由于需要把 feature map 拉长成一个长向量,也丢失了空间信息
    CS231N斯坦福计算机视觉公开课 04 -卷积神经网络_第6张图片

你可能感兴趣的:(计算机视觉,cnn,深度学习)