神经网络计算量FLOPs

FLOPS:floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。

FLOPs:floating point operations的缩写(s表复数),意指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。

假设采用滑动窗实现卷积且忽略非线性计算开销,则卷积核的FLOPs为

\textup{FLOPs}=2HW(C_{in}K^{2}+1)C_{out}

其中,HWC_{in}分别为输入特征图(就是输入图片了)的高度、宽度和通道数,K为核宽度,C_{out}为输出通道数。全连接层网络FLOPs为

\textup{FLOPs}=(2I-1)O

其中,I为输入维数,O为输出维数。

Ref: Molchanov P, Tyree S, Karras T, et al. Pruning Convolutional Neural Networks for Resource Efficient Inference[J]. 2016.

你可能感兴趣的:(神经网络计算量FLOPs)