(DenseNet)Densely Connected Convolutional Networks--Gao Huang
0、摘要1、引言2、相关工作(略)3、DenseNets和特性介绍4、实验5、一些解释或者结论6、结论通过全短接实现特征重用和特征数的累计(保证每层产生少量特征数,后面也会concat很多特征,因为叠加了),同时这种全短接可能也加快了损失函数的梯度回传,缓解梯度消失。在DenseBlock内部通过1x1卷积瓶颈降低计算量,在DenseBlock之间的转换层通过“压缩”参数控制输入到下一个Dense