机器学习笔记

文章目录

  • Batch Normalization
    • 好处

Batch Normalization


尽量使得w1和w2之间呈现为正圆

训练模型的时候, μ \mu μ σ \sigma σ不可以认为是常数,而是包含数据的变量,取值大小和batch中的数据有关。
γ \gamma γ β \beta β是自己认为定义的,虽然两组数据可以相同,但是意义是完全不一样的。

好处

你可能感兴趣的:(机器学习,笔记,人工智能)