CNN缓解过拟合的方法(tensorflow 2.x版)

文章目录

  • 缓解过拟合的方法
    • 1、正则化
    • 2、动量
    • 3、学习率
    • 4、Dropout
    • 5、BatchNormalization
    • 6、池化

缓解过拟合的方法

1、正则化

(1)L1正则化大概率会使很多参数变为零,因此该方法可通过稀疏参数,即减少参数的数量,降低复杂度。

(2)L2正则化会使参数很接近零但不为零,因此该方法可通过减小参数值的大小降低复杂度。

model = keras.models.Sequential()
model.add(keras.layers.Dense(256,kernel_regularizer=keras.regularizers.l2(0.001),activation='relu'))
model.add(keras.layers.Dense(64,kernel_regularizer=keras.regularizers.l2(0.001),activation='relu'))
model.add(keras.layers.Dense(5,activation='softmax'))

2、动量

optimizer=SGD(learning_rate=0.02,momentum=0.9)
optimizer=RMSprop(learning_rate=0.02,momentum=0.9)

optimizer=Adam(learning_rate=0.02,
              beta_1=0.9,
              beta_2=0.999)

3、学习率

学习率越大,参数更新的就越快,但同时受到异常数据的影响也就越大,很容易发散。

optimizer=SGD(learning_rate=0.2)

for epoch in range(100):
    optimizer.learning_rate=0.2*(100-epoch)/100

4、Dropout

随机删掉网络中部分神经元,缓解过拟合的发生。

model = keras.models.Sequential()

model.add(keras.layers.Dense(256,activation='relu'))
model.add(keras.layers.Dense(64,activation='relu'))
model.add(layers.Dropout(0.2))
model.add(keras.layers.Dense(5,activation='softmax'))

5、BatchNormalization

通常加在卷积层与激活层之间

CNN缓解过拟合的方法(tensorflow 2.x版)_第1张图片

6、池化

1)最大池化可以提取图片纹理

2)均值池化可以保留背景特征

你可能感兴趣的:(深度学习,深度学习,tensorflow,卷积神经网络,神经网络,过拟合)