《Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification》论文阅读笔记
论文原文:http://arxiv.org/abs/1502.01852论文主要讨论了以ReLU为激活函数的网络的缺陷并提出了改进的激活函数PReLU与新的Kaiming初始化方法1.PReLU前向传播通道独立:f(yi)=max(0,yi)+aimin(0,yi)f\left(y_{i}\right)=\max\left(0,y_{i}\right)+a_{i}\min\left(0,y_{