深度学习与目标检测系列(三) 本文约(4万字) | 全面解读复现AlexNet | Pytorch |

文章目录

  • 解读
    • Abstract-摘要
      • 翻译
      • 精读
        • 主要内容
    • 1. Introduction—前言
      • 翻译
      • 精读
        • 主要内容:
        • 本文主要贡献:
    • 2.The Dataset-数据集
      • 翻译
      • 精读
        • 主要内容:
        • ImageNet简介:
        • 图像处理方法:
    • 3.The Architecture—网络结构
      • 3.1ReLU Nonlinearity—非线性激活函数ReLU
      • 翻译
      • 精读
        • 传统方法及不足
        • 本文改进方法
        • 本文的改进结果
      • 3.2Training on Multiple GPUs—用多个GPU训练
      • 翻译
      • 精读
        • 传统方法及不足
        • 本文改进方法
        • 本文的改进结果
      • 3.3Local Response Normalization——局部归一化
      • 翻译
      • 精读
        • 传统方法及不足
        • 本文改进方法
        • 本文改进结果
      • 3.4Overlapping Pooling—重叠池化
      • 翻译
      • 精读
        • 传统方法及不足
        • 本文改进方法
        • 本文改进结果
      • 3.5Overall Architecture—整体网络架构
      • 翻译
      • 精读
        • 网络架构
        • 规律
        • Alex运作流程:
    • 4.Reducing Overfitting—减少过拟合
      • 4.1Data Augmentation-数据增强
      • 翻译
      • 精读
        • 第一种数据增强的形式包括生成**平移图像**和**水平翻转图像**。
        • 第二种形式的数据增强包括改变训练图像中RGB通道的强度。
      • 4.2Dropout—随机失活法
      • 翻译
      • 精读
        • 引出dropout:
        • 思想:
        • 方法:
        • 结果:
        • 本文中的应用:
    • 5.Details of learning—学习的细节
      • 5.1SGD随机梯度下降法
      • 翻译
      • 精读
      • 5.2初始化参数
      • 翻译
      • 精读
      • 5.3学习速率
      • 翻译
      • 精读
    • 6.Results—实验结果
      • 翻译
      • 精读
        • 6.1Qualitative Evaluations—定性评估
    • 7.Discussion—讨论
      • 翻译
      • 精读
    • 论文十问
  • 复现
    • 数据集下载
    • 1. model.py
    • 2. train.py
    • 3. predict.py
  • 推荐阅读:
    • 1. 机器学习
    • 2. 深度学习与目标检测
    • 3. YOLOv5
    • 4. YOLOv5改进
    • 5. YOLOv8及其改进
    • 6. Python与PyTorch
    • 7. 工具
    • 8. 小知识点
    • 9. 杂记


解读

论文原文:http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf


Abstract-摘要

翻译

我们训练了一个庞大的深层卷积神经网络,将ImageNet LSVRC-2010比赛中的120万张高分辨率图像分为1000个不同的类别。在测试数据上,我们取得了37.5%和17.0%的前1和前5的错误率,这比以前的先进水平要好得多。具有6000万个参数和650,000个神经元的神经网络由五个卷积层组成,其中一些随后是最大池化层,三个全连接层以及最后的1000个softmax输出。为了加快训练速度,我们使用非饱和神经元和能高效进行卷积运算的GPU实现。为了减少全连接层中的过拟合,我们采用了最近开发的称为“dropout”的正则化方法,该方法证明是非常有效的。我们还在ILSVRC-2012比赛中使用了这种模式的一个变种,取得了15.3%的前五名测试失误率,而第二名的成绩是26.2%。

精读

主要内容

(1)表示了用了

你可能感兴趣的:(深度学习,目标检测,pytorch,AlexNet,人工智能)