优化器keras.optimizers.Adam()的用法

优化器代码片段:
keras.optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=1e-08, decay=0.0)
参数意义:

lr:float> = 0.学习率。

beta_1:float,0 beta_2:float,0

epsilon:float> = 0.模糊因子。如果None,默认为K.epsilon()。该参数是非常小的数,其为了防止在实现中除以零。

decay:浮动> = 0.每次更新时学习率下降。

你可能感兴趣的:(优化器keras.optimizers.Adam()的用法)