compile参数详解

compile参数介绍

model.compile(
   optimizer, 
   loss = None, 
   metrics = None, 
   loss_weights = None, 
   sample_weight_mode = None, 
   weighted_metrics = None, 
   target_tensors = None
)
  • optimizer:优化器,用于控制梯度裁剪。必选项
  • loss:损失函数(或称目标函数、优化评分函数)。必选项
  • metrics:评价函数用于评估当前训练模型的性能。当模型编译后(compile),评价函数应该作为 metrics 的参数来输入。评价函数和损失函数相似,只不过评价函数的结果不会用于训练过程中。
    在使用过程中常用的就是这三个参数。

optimizer

optimizer中文文档
你可以先实例化一个优化器对象,然后将它传入 model.compile(),像示例中一样, 或者你可以通过名称来调用优化器。在后一种情况下,将使用优化器的默认参数。

from keras import optimizers
model = Sequential()
model.add(Dense(64, kernel_initializer='uniform', input_shape=(10,)))
model.add(Activation('softmax'))
sgd = optimizers.SGD(lr=0.01, clipvalue=0.5)
model.compile(optimizer=sgd,loss='mse')
# 传入优化器名称: 默认参数将被采用
model.compile(loss='mean_squared_error', optimizer='sgd')

optimizer可用参数:

  • SGD:随机梯度下降优化器。包含扩展功能的支持: - 动量(momentum)优化, - 学习率衰减(每次参数更新后) - Nestrov 动量 (NAG) 优化。参数:
    • lr: float >= 0. 学习率。
    • momentum : float>= 0. 参数,用于加速 SGD 在相关方向上前进,并抑制震荡。
    • decay: float >= 0. 每次参数更新后学习率衰减值。
    • nesterov: boolean. 是否使用 Nesterov 动量。
keras.optimizers.SGD(lr=0.01, momentum=0.0, decay=0.0, nesterov=False)
  • RMSprop:RMSProp 优化器,MSProp优化算法是AdaGrad算法的一种改进。将梯度除以最近幅度的移动平均值。这个优化器通常是训练循环神经网络RNN的不错选择。参考文献
    参数:
    • lr: float >= 0. 学习率。
    • rho: float >= 0. RMSProp梯度平方的移动均值的衰减率.
    • epsilon: float >= 0. 模糊因子. 若为 None, 默认为 K.epsilon()。
    • decay: float >= 0. 每次参数更新后学习率衰减值。
keras.optimizers.RMSprop(lr=0.001, rho=0.9, epsilon=None, decay=0.0)
  • Adagrad:Adagrad 是一种具有特定参数学习率的优化器,它根据参数在训练期间的更新频率进行自适应调整。参数接收的更新越多,更新越小。建议使用优化器的默认参数。参考文献

参数:

  • lr: float >= 0. 学习率。
  • epsilon: float >= 0. 模糊因子.若为 None, 默认为 K.epsilon()。
  • decay: float >= 0. 每次参数更新后学习率衰减值。
keras.optimizers.Adagrad(lr=0.01, epsilon=None, decay=0.0)
  • Adadelta:Adadelta 是 Adagrad 的一个具有更强鲁棒性的的扩展版本,它不是累积所有过去的梯度,而是根据渐变更新的移动窗口调整学习速率。参考文献
    参数:
    • lr: float >= 0. 学习率,建议保留默认值。
    • rho: float >= 0. Adadelta梯度平方移动均值的衰减率。
    • epsilon: float >= 0. 模糊因子. 若为 None, 默认为 K.epsilon()。
    • decay: float >= 0. 每次参数更新后学习率衰减值。
keras.optimizers.Adadelta(lr=1.0, rho=0.95, epsilon=None, decay=0.0)
  • Adam:
keras.optimizers.Adam(lr=0.001, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0, amsgrad=False)
  • Adamax:
keras.optimizers.Adamax(lr=0.002, beta_1=0.9, beta_2=0.999, epsilon=None, decay=0.0)
  • Nadam:
keras.optimizers.Nadam(lr=0.002, beta_1=0.9, beta_2=0.999, epsilon=None, schedule_decay=0.004)

loss

loss可用参数

  • mean_squared_error:均方误差
def mean_squared_error(y_true, y_pred):
    return K.mean(K.square(y_pred - y_true), axis=-1)
  • mean_absolute_error:平均绝对误差
def mean_absolute_error(y_true, y_pred):
    return K.mean(K.abs(y_pred - y_true), axis=-1)
  • mean_absolute_percentage_error:平均绝对百分比误差
def mean_absolute_percentage_error(y_true, y_pred):
    diff = K.abs((y_true - y_pred) / K.clip(K.abs(y_true),
                                            K.epsilon(),
                                            None))
    return 100. * K.mean(diff, axis=-1)
  • mean_squared_logarithmic_error:均方对数误差
def mean_squared_logarithmic_error(y_true, y_pred):
    first_log = K.log(K.clip(y_pred, K.epsilon(), None) + 1.)
    second_log = K.log(K.clip(y_true, K.epsilon(), None) + 1.)
    return K.mean(K.square(first_log - second_log), axis=-1)
  • squared_hinge:
def squared_hinge(y_true, y_pred):
    return K.mean(K.square(K.maximum(1. - y_true * y_pred, 0.)), axis=-1)
  • hinge:
def hinge(y_true, y_pred):
    return K.mean(K.maximum(1. - y_true * y_pred, 0.), axis=-1)
  • categorical_hinge
def categorical_hinge(y_true, y_pred):
    pos = K.sum(y_true * y_pred, axis=-1)
    neg = K.max((1. - y_true) * y_pred, axis=-1)
    return K.maximum(0., neg - pos + 1.)
  • logcosh:预测误差的双曲余弦的对数。
def logcosh(y_true, y_pred):
    '''Logarithm of the hyperbolic cosine of the prediction error.

    `log(cosh(x))` is approximately equal to `(x ** 2) / 2` for small `x` and
    to `abs(x) - log(2)` for large `x`. This means that 'logcosh' works mostly
    like the mean squared error, but will not be so strongly affected by the
    occasional wildly incorrect prediction.

    # Arguments
        y_true: tensor of true targets.
        y_pred: tensor of predicted targets.

    # Returns
        Tensor with one scalar loss entry per sample.
    '''
    def _logcosh(x):
        return x + K.softplus(-2. * x) - K.log(2.)
    return K.mean(_logcosh(y_pred - y_true), axis=-1)
  • categorical_crossentropy:分类交叉熵。
def categorical_crossentropy(y_true, y_pred):
    return K.categorical_crossentropy(y_true, y_pred)
  • sparse_categorical_crossentropy:稀疏的分类交叉熵。
def sparse_categorical_crossentropy(y_true, y_pred):
    return K.sparse_categorical_crossentropy(y_true, y_pred)
  • binary_crossentropy:二元交叉熵。
def binary_crossentropy(y_true, y_pred):
    return K.mean(K.binary_crossentropy(y_true, y_pred), axis=-1)
  • kullback_leibler_divergence:
def kullback_leibler_divergence(y_true, y_pred):
    y_true = K.clip(y_true, K.epsilon(), 1)
    y_pred = K.clip(y_pred, K.epsilon(), 1)
    return K.sum(y_true * K.log(y_true / y_pred), axis=-1)
  • poisson:泊松。
def poisson(y_true, y_pred):
    return K.mean(y_pred - y_true * K.log(y_pred + K.epsilon()), axis=-1)
  • cosine_proximity:余弦值。
def cosine_proximity(y_true, y_pred):
    y_true = K.l2_normalize(y_true, axis=-1)
    y_pred = K.l2_normalize(y_pred, axis=-1)
    return -K.sum(y_true * y_pred, axis=-1)
mse = MSE = mean_squared_error             # 均方误差
mae = MAE = mean_absolute_error            # 平均绝对误差
mape = MAPE = mean_absolute_percentage_error        # 平均绝对百分比误差
msle = MSLE = mean_squared_logarithmic_error           # 均方对数误差
kld = KLD = kullback_leibler_divergence      # 
cosine = cosine_proximity                            # 余弦值

你可能感兴趣的:(compile参数详解)