【人工智能】深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化)

文章目录

  • 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化)
  • 深度神经网络训练
  • 训练深度神经网络
    • 参数共享
  • 卷积神经网络(CNN)
  • 卷积
  • 多卷积核
  • 卷积
  • 全连接
  • 最大池化
  • 卷积+池化
  • 拉平向量
  • 激活函数
  • 优化
  • 小结

深度神经网络训练

Pre-training + Fine-tuning

  • Pre-training(预训练):
    监督逐层训练是多隐层网络训练的有效手段, 每次训练一层隐层结点, 训练时将上一层隐层结点的输出作为输入, 而本层隐结点的输出作为下一层隐结点的输入, 这称为”预训练”.
  • Fine-tuning(微调):
    在预训练全部完成

你可能感兴趣的:(机器学习,人工智能,深度学习,cnn,人工智能,dnn)