【深度学习:CNN】Batch Normalization解析(2)-- caffe中batch_norm层代码详细注解
转载:http://blog.csdn.net/mrhiuser/article/details/52575951一:BN的解释:在训练深层神经网络的过程中,由于输入层的参数在不停的变化,因此,导致了当前层的分布在不停的变化,这就导致了在训练的过程中,要求learningrate要设置的非常小,另外,对参数的初始化的要求也很高.作者把这种现象称为internalconvariateshift.Ba