AlexNet

一、AlexNet介绍

1、历史背景

       AlexNet赢得了2012年ImageNet竞赛的冠军。AlexNet本质上相当于一个更深更大的LeNet,相比于LeNet的主要改进有下面三个:

  • 丢弃法:用丢弃法来做正则,在多个全连接层组成的多层感知机里面使用了丢弃法(Dropout)。
  • ReLU:将激活函数从LeNet的Sigmoid改成了ReLU,ReLU相对于Sigmoid的梯度更大。
  • MaxPooling:将平均池化改成了最大池化,使得输出的值比较大,梯度相对来说就比较大,训练更加容易。

2、AlexNet与LeNet模型对比

(1)第一层卷积

AlexNet_第1张图片

(2)中间卷积层

AlexNet_第2张图片

(3)多层感知机

AlexNet_第3张图片

3、AlexNet更多细节

       数据增强操作对原始图片进行随机裁剪、随机亮度和随机色温,在输入图片中增加大量变种,减小模型的敏感程度,提高鲁棒性。

AlexNet_第4张图片

4、总结

AlexNet_第5张图片

二、代码实现

你可能感兴趣的:(DeepLearning,人工智能)