深度学习知识点总结(持续更新)

池化层 MaxPooling MeanPooling的反向传播

池化层(pooling)的反向传播是怎么实现的


网络权重初始化方法

网络权重初始化方法总结(上):梯度消失、梯度爆炸与不良的初始化.

网络权重初始化方法总结(下):Lecun、Xavier与He Kaiming


为什么要进行特征归一化标准化?

为什么要做特征归一化/标准化?.


Batch Normalization作用

Batch Normalization详解.


理解numpy中ndarray的内存布局和设计哲学

理解numpy中ndarray的内存布局和设计哲学.


优化算法

优化算法.


你可能感兴趣的:(深度学习,人工智能,神经网络)