深度学习修炼(二)全连接神经网络 | Softmax,交叉熵损失函数 优化AdaGrad,RMSProp等 对抗过拟合 全攻略
文章目录1多层感知机(全连接神经网络)1.1表示1.2基本概念1.3必要组成—激活函数1.4网络结构设计2损失函数2.1SOFTMAX操作2.2交叉熵损失函数3优化3.1求导计算过于复杂?3.2链式法则导致的问题?3.3梯度下降算法的改进3.3.1动量法3.3.2自适应梯度方法1AdaGrad2RMSProp3.3.1Adam4.网络信息流通畅,提高训练效率4.1权值初始化Xavier初始化方法H