深度学习中的激活函数、损失函数、优化算法

深度学习中的激活函数、损失函数、优化算法

  • DL小将
    • 激活函数
      • sigmoid
      • tanh
      • relu
      • gelu
      • softmax
    • 损失函数
      • 分类问题常用的损失函数
      • 回归问题常用的损失函数
    • 优化算法
      • 随机梯度下降SGD
      • Adam
      • 牛顿法

DL小将

本文对深度学习中的激活函数、损失函数和常用到的优化算法进行总结分析、记录学习。优化算法用来更新模参数,经过一系列计算并通过激活函数得

你可能感兴趣的:(DL-def,自然语言处理,深度学习,神经网络)