机器学习:CNN经典论文之LeNet-5

LeNet-5

论文:《Gradient-Based Learning Applied to Document Recognition》


网络结构:
机器学习:CNN经典论文之LeNet-5_第1张图片


各层详解:

  • INPUT:32×32

    • 属性:输入层
    • 功能:归一化为32×32的尺寸大小
  • C1:28×28×6

    • 输入:32×32
    • 属性:卷积层。
    • 卷积核:5×5@6
    • 步长:1
    • 可训练参数:(5*5+1)*6=156,★每个滤波器有5*5个weight参数和1个bias参数
    • 连接数:156*28*28=122304
  • S2:14×14×6

    • 输入:28×28×6
    • 属性:池化层、下采样层
    • 大小:2×2@6
    • 步长:2
    • 方式:4个输入相加,乘以weight参数再加上1个bias参数
    • 可训练参数:(1+1)*6=12
    • 连接数:5*14*14*6=5880,★每个输入都与weight参数相关且还有1个bias参数
  • C3:10×10×16

    • 输入:14×14×6
    • 属性:卷积层。
    • 卷积核:5×5@16
    • 步长:1
    • 可训练参数:6*(3*5*5+1)+6*(4*5*5+1)+3*(4*5*5+1)+1*(6*5*5+1)=1516
    • 连接数:1516*10*10=151600
    • 连接方式:
      机器学习:CNN经典论文之LeNet-5_第2张图片
  • S4:5×5×16

    • 输入:10×10×16
    • 属性:池化层、下采样层
    • 大小:2×2@16
    • 步长:2
    • 方式:4个输入相加,乘以weight参数再加上1个bias参数
    • 可训练参数:(1+1)*16=32
    • 连接数:5*5*5*16=2000
  • C5:120

    • 输入:5×5×16
    • 属性:卷积层
    • 卷积核:5×5@120(5×5×16@120)
    • 步长:1
    • 可训练参数:(5*5*16+1)*120 = 48120
    • 连接数:(5*5*16+1)*120 = 48120
    • 连接方式:每个卷积核都与16个图相连
  • F6:84

    • 输入:120
    • 属性:全连接层
    • 方式:计算输入向量和weight向量之间的点积,再加上1个bias参数
    • 可训练参数:84*(120+1)=10164
    • 连接数:84*(120+1)=10164
  • OUTPUT:10

    • 输入:84
    • 属性:全连接层
    • 可训练参数:10*(84+1)=850
    • 连接数:10*(84+1)=850
  • 属性:全连接层

    • 可训练参数:10*(84+1)=850
    • 连接数:10*(84+1)=850

你可能感兴趣的:(机器学习)