PConv : Run, Don’t Walk: Chasing Higher FLOPS for Faster Neural Networks
摘要为了设计快速的神经网络,许多研究都集中在减少浮点运算(FLOPs)的数量。然而,我们观察到这种FLOPs的减少并不一定会导致相同程度的延迟减少。这主要是由于浮点运算每秒效率较低的问题所致。为了实现更快的网络,我们重新审视了流行的操作算子,并证明这种低FLOPS主要是由于操作算子(尤其是深度卷积)频繁进行内存访问所致。因此我们提出了一种新颖的部分卷积(PConv)方法,通过同时削减冗余计算和内存