损失函数loss大总结

目标函数objectives

目标函数,或称损失函数,是编译一个模型必须的两个参数之一:

model.compile(loss='mean_squared_error', optimizer='sgd')

可以通过传递预定义目标函数名字指定目标函数,也可以传递一个Theano/TensroFlow的符号函数作为目标函数,该函数对每个数据点应该只返回一个标量值,并以下列两个参数为参数:

  • y_true:真实的数据标签,Theano/TensorFlow张量

  • y_pred:预测值,与y_true相同shape的Theano/TensorFlow张量

from keras import losses

model.compile(loss=losses.mean_squared_error, optimizer='sgd')

真实的优化目标函数是在各个数据点得到的损失函数值之和的均值

请参考目标实现代码获取更多信息

可用的目标函数

  • mean_squared_error或mse

  • mean_absolute_error或mae

  • mean_absolute_percentage_error或mape

  • mean_squared_logarithmic_error或msle

  • squared_hinge

  • hinge

  • categorical_hinge

  • binary_crossentropy(亦称作对数损失,logloss)

  • logcosh

  • categorical_crossentropy:亦称作多类的对数损失,注意使用该目标函数时,需要将标签转化为形如(nb_samples, nb_classes)的二值序列

  • sparse_categorical_crossentrop:如上,但接受稀疏标签。注意,使用该函数时仍然需要你的标签与输出值的维度相同,你可能需要在标签数据上增加一个维度:np.expand_dims(y,-1)

  • kullback_leibler_divergence:从预测值概率分布Q到真值概率分布P的信息增益,用以度量两个分布的差异.

  • poisson:即(predictions - targets * log(predictions))的均值

  • cosine_proximity:即预测值与真实标签的余弦距离平均值的相反数

注意: 当使用"categorical_crossentropy"作为目标函数时,标签应该为多类模式,即one-hot编码的向量,而不是单个数值. 可以使用工具中的to_categorical函数完成该转换.示例如下:

from keras.utils.np_utils import to_categorical

categorical_labels = to_categorical(int_labels, num_classes=None)

 

分类任务loss:

 

二分类交叉熵损失sigmoid_cross_entropy:

损失函数loss大总结_第1张图片

TensorFlow 接口:

 
  1. tf.losses.sigmoid_cross_entropy(

  2. multi_class_labels,

  3. logits,

  4. weights=1.0,

  5. label_smoothing=0,

  6. scope=None,

  7. loss_collection=tf.GraphKeys.LOSSES,

  8. reduction=Reduction.SUM_BY_NONZERO_WEIGHTS

  9. )

  10. tf.nn.sigmoid_cross_entropy_with_logits(

  11. _sentinel=None,

  12. labels=None,

  13. logits=None,

  14. name=None

  15. )

keras 接口:

binary_crossentropy(y_true, y_pred)

 

二分类平衡交叉熵损失balanced_sigmoid_cross_entropy:

 

该损失也是用于2分类的任务,相比于sigmoid_cross_entrop的优势在于引入了平衡参数 ,可以进行正负样本的平衡,得到比sigmoid_cross_entrop更好的效果。

损失函数loss大总结_第2张图片

多分类交叉熵损失softmax_cross_entropy:

损失函数loss大总结_第3张图片

TensorFlow 接口:

 
  1. tf.losses.softmax_cross_entropy(

  2. onehot_labels,

  3. logits,

  4. weights=1.0,

  5. label_smoothing=0,

  6. scope=None,

  7. loss_collection=tf.GraphKeys.LOSSES,

  8. reduction=Reduction.SUM_BY_NONZERO_WEIGHTS

  9. )

  10. tf.nn.softmax_cross_entropy_with_logits(

  11. _sentinel=None,

  12. labels=None,

  13. logits=None,

  14. dim=-1,

  15. name=None

  16. )

  17. tf.nn.sparse_softmax_cross_entropy_with_logits(

  18. _sentinel=None,

  19. labels=None,

  20. logits=None,

  21. name=None

  22. )

keras 接口:

 
  1. categorical_crossentropy(y_true, y_pred)

  2. sparse_categorical_crossentropy(y_true, y_pred)

focal loss:

focal loss为凯明大神的大作,主要用于解决多分类任务中样本不平衡的现象,可以获得比softmax_cross_entropy更好的分类效果。

损失函数loss大总结_第4张图片

论文中α=0.25,γ=2效果最好。

损失函数loss大总结_第5张图片

dice loss:

 

2分类任务时使用的loss,本质就是不断学习,使得交比并越来越大。

TensorFlow 接口:

 
  1. def dice_coefficient(y_true_cls, y_pred_cls):

  2. '''

  3. dice loss

  4. :param y_true_cls:

  5. :param y_pred_cls:

  6. :return:

  7. '''

  8. eps = 1e-5

  9. intersection = tf.reduce_sum(y_true_cls * y_pred_cls )

  10. union = tf.reduce_sum(y_true_cls ) + tf.reduce_sum(y_pred_cls) + eps

  11. loss = 1. - (2 * intersection / union)

  12. tf.summary.scalar('classification_dice_loss', loss)

  13. return loss

 

合页损失hinge_loss:

也叫铰链损失,是svm中使用的损失函数。

由于合页损失优化到满足小于一定gap距离就会停止优化,而交叉熵损失却是一直在优化,所以,通常情况下,交叉熵损失效果优于合页损失。

损失函数loss大总结_第6张图片

TensorFlow 接口:

 
  1. tf.losses.hinge_loss(

  2. labels,

  3. logits,

  4. weights=1.0,

  5. scope=None,

  6. loss_collection=tf.GraphKeys.LOSSES,

  7. reduction=Reduction.SUM_BY_NONZERO_WEIGHTS

  8. )

keras 接口:

hinge(y_true, y_pred)

 

Connectionisttemporal classification(ctc loss):

对于预测的序列和label序列长度不一致的情况下,可以使用ctc计算该2个序列的loss,主要用于文本分类识别和语音识别中。

TensorFlow 接口:

 
  1. tf.nn.ctc_loss(

  2. labels,

  3. inputs,

  4. sequence_length,

  5. preprocess_collapse_repeated=False,

  6. ctc_merge_repeated=True,

  7. ignore_longer_outputs_than_inputs=False,

  8. time_major=True

  9. )

keras 接口:

 
  1. tf.keras.backend.ctc_batch_cost(

  2. y_true,

  3. y_pred,

  4. input_length,

  5. label_length

  6. )

编辑距离 edit loss:

编辑距离,也叫莱文斯坦Levenshtein 距离,指的是两个字符串之间,由一个转换成另一个所需的最少编辑操作次数。许可的编辑操作包括将一个字符替换成另一个字符,插入一个字符,删除一个字符。
该损失函数的优势在于类似于ctc loss可以计算2个长度不等的序列的损失。
TensorFlow 接口:

 
  1. tf.edit_distance(

  2. hypothesis,

  3. truth,

  4. normalize=True,

  5. name='edit_distance'

  6. )

KL散度:

KL散度( Kullback–Leibler divergence),也叫相对熵,是描述两个概率分布P和Q差异的一种方法。它是非对称的,这意味着D(P||Q) ≠ D(Q||P)。特别的,在信息论中,D(P||Q)表示当用概率分布Q来拟合真实分布P时,产生的信息损耗,其中P表示真实分布,Q表示P的拟合分布。

TensorFlow 接口:

 
  1. tf.distributions.kl_divergence(

  2. distribution_a,

  3. distribution_b,

  4. allow_nan_stats=True,

  5. name=None

  6. )

  7.  
  8. tf.contrib.distributions.kl(

  9. dist_a,

  10. dist_b,

  11. allow_nan =False,

  12. name=None

  13. )

最大间隔损失large margin softmax loss:

用于拉大类间距离的损失函数,可以训练得到比传统softmax loss更好的分类效果。

损失函数loss大总结_第7张图片

最大间隔损失主要引入了夹角cos值进行距离的度量。假设bias为0的情况下,就可以得出如上的公式。

其中fai(seita)需要满足下面的条件。

损失函数loss大总结_第8张图片

 

为了进行距离的度量,在cos夹角中引入了参数m。该m为一个正整数,可以起到控制类间间隔的作用。M越大,类间间隔越大。当m=1时,等价于传统交叉熵损失。基本原理如下面公式

 

 

论文中提供的满足该条件的公式如下

损失函数loss大总结_第9张图片

 

中心损失center loss:

中心损失主要主要用于减少类内距离,虽然只是减少了累内距离,效果上却可以表现出累内距离小了,类间距离就可以增大的效果。该损失不可以直接使用,需要配合传统的softmax loss一起使用。可以起到比单纯softmax loss更好的分类效果。

损失函数loss大总结_第10张图片



回归任务loss:

 

均方误差mean squareerror(MSE)和L2范数:

MSE表示了预测值与目标值之间差值的平方和然后求平均

损失函数loss大总结_第11张图片

L2损失表示了预测值与目标值之间差值的平方和然后开更方,L2表示的是欧几里得距离。

损失函数loss大总结_第12张图片

MSE和L2的曲线走势都一样。区别在于一个是求的平均np.mean(),一个是求的更方np.sqrt()

损失函数loss大总结_第13张图片

TensorFlow 接口:

 
  1. tf.losses.mean_squared_error(

  2. labels,

  3. predictions,

  4. weights=1.0,

  5. scope=None,

  6. loss_collection=tf.GraphKeys.LOSSES,

  7. reduction=Reduction.SUM_BY_NONZERO_WEIGHTS

  8. )

  9. tf.metrics.mean_squared_error(

  10. labels,

  11. predictions,

  12. weights=None,

  13. metrics_collections=None,

  14. updates_collections=None,

  15. name=None

  16. )

keras 接口:

mean_squared_error(y_true, y_pred)

平均绝对误差meanabsolute error(MAE )和L1范数:

MAE表示了预测值与目标值之间差值的绝对值然后求平均

损失函数loss大总结_第14张图片

L1表示了预测值与目标值之间差值的绝对值,L1也叫做曼哈顿距离

损失函数loss大总结_第15张图片

MAE和L1的区别在于一个求了均值np.mean(),一个没有求np.sum()。2者的曲线走势也是完全一致的。

损失函数loss大总结_第16张图片

TensorFlow 接口:

 
  1. tf.metrics.mean_absolute_error(

  2. labels,

  3. predictions,

  4. weights=None,

  5. metrics_collections=None,

  6. updates_collections=None,

  7. name=None

  8. )

keras 接口:

mean_absolute_error(y_true, y_pred)

MSE,MAE对比:

损失函数loss大总结_第17张图片

MAE损失对于局外点更鲁棒,但它的导数不连续使得寻找最优解的过程低效;MSE损失对于局外点敏感,但在优化过程中更为稳定和准确。

Huber Loss和smooth L1:

Huber loss具备了MAE和MSE各自的优点,当δ趋向于0时它就退化成了MAE,而当δ趋向于无穷时则退化为了MSE。

损失函数loss大总结_第18张图片

Smooth L1 loss也具备了L1 loss和L2 loss各自的优点,本质就是L1和L2的组合。

损失函数loss大总结_第19张图片

Huber loss和Smooth L1 loss具有相同的曲线走势,当Huber loss中的δ等于1时,Huber loss等价于Smooth L1 loss。

损失函数loss大总结_第20张图片

对于Huber损失来说,δ的选择十分重要,它决定了模型处理局外点的行为。当残差大于δ时使用L1损失,很小时则使用更为合适的L2损失来进行优化。

Huber损失函数克服了MAE和MSE的缺点,不仅可以保持损失函数具有连续的导数,同时可以利用MSE梯度随误差减小的特性来得到更精确的最小值,也对局外点具有更好的鲁棒性。

但Huber损失函数的良好表现得益于精心训练的超参数δ。

TensorFlow接口:

 
  1. tf.losses.huber_loss(

  2. labels,

  3. predictions,

  4. weights=1.0,

  5. delta=1.0,

  6. scope=None,

  7. loss_collection=tf.GraphKeys.LOSSES,

  8. reduction=Reduction.SUM_BY_NONZERO_WEIGHTS

  9. )

对数双曲余弦logcosh:

损失函数loss大总结_第21张图片

损失函数loss大总结_第22张图片

其优点在于对于很小的误差来说log(cosh(x))与(x**2)/2很相近,而对于很大的误差则与abs(x)-log2很相近。这意味着logcosh损失函数可以在拥有MSE优点的同时也不会受到局外点的太多影响。它拥有Huber的所有优点,并且在每一个点都是二次可导的。

keras 接口:

logcosh(y_true, y_pred)

你可能感兴趣的:(ML&DL)