模型压缩名词理解

模型设计压缩

  • 全连接网络到卷积神经网络
  • 全局池化和 1x1 卷积
    • NIN 相对于 AlexNet
  • vgg、googleNet、SqueezeNet 卷积拆分
    • vgg 相对于 AlexNet 2 个 3x3 替代一个 5x5
    • googleNet 非对称卷积 3x3 分解成 1x3 和 3x1
    • SqueezeNet squeeze 模块 1x1 卷积 + expand 模块 1x1 卷积和 3x3 卷积
  • 从MobileNet系列看分组卷积
    • 分组卷积,即 depthwise separable convolution,depthwise convolution + pointwise convolution
    • input feature map size M ∗ D j ∗ D j M * D_j * D_j MDjDj, kernel size D k ∗ D k D_k * D_k DkDk,output feature map size N ∗ D F ∗ D F N * D_F *D_F NDFDF
    • 标准卷积运算量为 M ∗ D k ∗ D k ∗ N ∗ D F ∗ D F M * D_k * D_k *N * D_F * D_F MDkDkNDFDF, 输出特征图上的每一个像素点都是输入特征图个数个 D k ∗ D k D_k *D_k DkDk 大小的卷积核,在输入特征图上相乘相加得到,输出特征图上一共有 N ∗ D F ∗ D F N * D_F * D_F NDFDF 个像素点
    • depthwise 卷积:输入、输出通道数相等,每一个通道只在这个通道内进行卷积
    • pointwise 卷积:卷积核大小为 1x1,用于融合多通道信息
    • 分组卷积的计算量: M ∗ D k ∗ D k ∗ D F ∗ D F M * D_k * D_k * D_F *D_F MDkDkDFDF + M ∗ 1 ∗ 1 ∗ N ∗ D F ∗ D F M * 1 * 1 * N * D_F * D_F M11NDFDF
    • 计算量为原来的: 1 / N + 1 / ( D K ∗ D K ) 1/N + 1/(D_K *D_K) 1/N+1/(DKDK) , 卷积核的大小通常为 3x3,所以计算量大约减少了 1/9,接近一个数量级
  • 其他,如使用较少的 feature map 数量,DenseNet

你可能感兴趣的:(模型压缩)