Normalization综述

一、目录

  • 1、什么是Internal Covariate Shift

  • 2、Normalization的种类

  • 3、BatchNorm

  • 4、Layer Normalization

二、什么是Internal Covariate Shift

covariate shift现象的解释

三、 Normalization的种类

BN、WN、LN分别是Batch Normalization、Weight Normalization和Layer Normalization,中文翻译为批标准化,权重标准化,层标准化。

四、BatchNorm

从四个角度来理解:

  • BatchNorm的本质思想
  • 训练阶段如何做BatchNorm
  • 测试阶段如何做BatchNorm
  • BatchNorm的好处
    Batch Normalization
    深入理解Batch Normalization批标准化

五、Layer Normalization

batch是“竖”着来的,各个维度做归一化,所以与batch size有关系。
layer是“横”着来的,对一个样本,不同的神经元neuron间做归一化。

显示了同一层的神经元的情况。假设这个mini-batch一共有N个样本,则Batch Normalization是对每一个维度进行归一。而Layer Normalization对于单个的样本就可以处理。

image

BN和LN都可以比较好的抑制梯度消失和梯度爆炸的情况。BN不适合 RNN,而LN刚好适合

层规范化技术 Layer Normalization

你可能感兴趣的:(Normalization综述)