【轻量级神经网络】ShuffleNet 网络分析

文章目录

  • [轻量级神经网络“巡礼”(一)—— ShuffleNetV2](https://zhuanlan.zhihu.com/p/67009992)
    • pytorch计算模型计算量FLOPs和参数parameters
    • group convolution 分组卷积:降低参数
    • 四个高效网络设计指南
    • shuffleNet的缺点 和 shuffleNet_v2设计原则

轻量级神经网络“巡礼”(一)—— ShuffleNetV2

pytorch计算模型计算量FLOPs和参数parameters

【轻量级神经网络】ShuffleNet 网络分析_第1张图片【轻量级神经网络】ShuffleNet 网络分析_第2张图片

group convolution 分组卷积:降低参数

【轻量级神经网络】ShuffleNet 网络分析_第3张图片【轻量级神经网络】ShuffleNet 网络分析_第4张图片

四个高效网络设计指南

G1 输入输出具有相同channel的时候,内存消耗是最小的
G2 过多的分组卷积操作会增大MAC,从而使模型速度变慢
G3 模型中的分支数量越少,模型速度越快
G4 Element-wise操作不能被忽略
Element-wise包括Add/Relu/short-cut/depthwise convolution等操作。
【轻量级神经网络】ShuffleNet 网络分析_第5张图片

shuffleNet的缺点 和 shuffleNet_v2设计原则

【轻量级神经网络】ShuffleNet 网络分析_第6张图片

你可能感兴趣的:(轻量级神经网络)