optimizer--adam

optimizer--adam_第1张图片

1、tensorflow

tf.train.AdamOptimizer()     只需要调整学习率就可以了

def __init__(self, learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-8,
             use_locking=False, name="Adam"):

2、keras

from keras.optimizers import Adam

Adam()                 

                       epsilon 默认为:_EPSILON = 1e-7

            decay: float >= 0. Learning rate decay over each update.
def __init__(self, lr=0.001, beta_1=0.9, beta_2=0.999,
             epsilon=None, decay=0., amsgrad=False, **kwargs):

你可能感兴趣的:(AI学习)