tensorflow2.0 损失函数

# 1. tf.losses.mean_squared_error:均方根误差(MSE) —— 回归问题中最常用的损失函数
# 优点是便于梯度下降,误差大时下降快,误差小时下降慢,有利于函数收敛。
# 缺点是受明显偏离正常范围的离群样本的影响较大
mse=tf.losses.mean_squared_error(y_true,y_pred)
mse=tf.reduce_mean(tf.square(y_true-y_pred))

2. tf.losses.absolute_difference:平均绝对误差(MAE) —— 想格外增强对离群样本的健壮性时使用
# 优点是其克服了 MSE 的缺点,受偏离正常范围的离群样本影响较小。
# 缺点是收敛速度比 MSE 慢,因为当误差大或小时其都保持同等速度下降,而且在某一点处还不可导,计算机求导比较困难。
maes=tf.compat.v1.losses.absolute_difference(y_true,y_pred)
maes_loss=tf.reduce_sum(maes)


# 3. tf.losses.huber_loss:Huber loss —— 集合 MSE 和 MAE 的优点,但是需要手动调超参数
# 核心思想是,检测真实值(y_true)和预测值(y_pred)之差的绝对值在超参数 δ 内时,
# 使用 MSE 来计算 loss, 在 δ 外时使用类 MAE 计算 loss。sklearn 
# 关于 huber 回归的文档中建议将 δ=1.35 以达到 95% 的有效性。
hubers=tf.compat.v1.losses.huber_loss(y_true,y_pred)
hubers_loss=tf.reduce_sum(hubers)


# 处理分类问题
# 1. tf.nn.sigmoid_cross_entropy_with_logits:先 sigmoid 再求交叉熵 —— 二分类问题首选
# 使用时,一定不要将预测值(y_pred)进行 sigmoid 处理,
# 否则会影响训练的准确性,因为函数内部已经包含了 sigmoid 激活(若已先行 sigmoid 处理过了,
# 则 tensorflow 提供了另外的函数) 。真实值(y_true)则要求是 One-hot 编码形式。

# 函数求得的结果是一组向量,是每个维度单独的交叉熵,如果想求总的交叉熵,
# 使用 tf.reduce_sum() 相加即可;如果想求 loss ,则使用 tf.reduce_mean() 进行平均。
sigmoids=tf.nn.sigmoid_cross_entropy_with_logits(labels=y,logits=y_pred)
sigmoids_loss=tf.reduce_mean(sigmoids)
# 手工
y_pred_si=1.0/(1+tf.exp(-y_pred))
sigmoids1=-y_true*tf.compat.v1.log(y_pred_si)-(1-y_true)*tf.compat.v1.log(1-y_pred_si)
sigmoids_loss1=tf.reduce_mean(sigmoids1)


# 2. tf.losses.log_loss:交叉熵 —— 效果同上,预测值格式略有不同
# 预测值(y_pred)计算完成后,若已先行进行了 sigmoid 处理,
# 则使用此函数求 loss ,若还没经过 sigmoid 处理,可直接使用 sigmoid_cross_entropy_with_logits。
logs=tf.compat.v1.losses.log_loss(labels=y,logits=y_pred)
logs_loss=tf.reduce_mean(logs)
#手工
logs=-y_true*tf.compat.v1.log(y_pred)-(1-y_true)*tf.compat.v1.log(1-y_pred)
logs_loss=tf.reduce_mean(logs)

# 3. tf.nn.softmax_cross_entropy_with_logits_v2:先 softmax 再求交叉熵 —— 多分类问题首选
# 使用时,预测值(y_pred)同样是没有经过 softmax 处理过的值,真实值(y_true)要求是 One-hot 编码形式。
softmaxs=tf.nn.softmax_cross_entropy_with_logits(labels=y,logits=y_pred)
softmax_loss=tf.reduce_mean(softmaxs)

# tf.nn.sparse_softmax_cross_entropy_with_logits:效果同上,真实值格式略有不同
# 若真实值(y_true)不是 One-hot 格式的,可以使用此函数,可省略一步转换
softmax_sparse=tf.nn.sparse_softmax_cross_entropy_with_logits(labels=y,logits=y_pred)
softmax_sparse_loss=tf.reduce_mean(softmax_sparse)

# tf.nn.weighted_cross_entropy_with_logits:带权重的 sigmoid 交叉熵 —— 适用于正、负样本数量差距过大时
# 增加了一个权重的系数,用来平衡正、负样本差距,可在一定程度上解决差距过大时训练结果严重偏向大样本的情况。
sigmoids_weighted=tf.nn.weighted_cross_entropy_with_logits(targets=y,logits=y_pred
                                                          )
simoids_weighted_loss=tf.reduce_mean(sigmoids_weighted)
#手工
sigmoids_weighted=-y_true*tf.compat.v1.log(y_pred)*weight-(1-y_true)*tf.compat.v1.log(1-y_pred)
sigmoids_loss=tf.reduce_mean(sigmoids_weighted)


# 6. tf.losses.hinge_loss:铰链损失函数 —— SVM 中使用
# hing_loss 是为了求出不同类别间的“最大间隔”,此特性尤其适用于 SVM(支持向量机)。使用 SVM 做分类,
# 与 LR(Logistic Regression 对数几率回归)
# 相比,其优点是小样本量便有不错效果、对噪点包容性强,缺点是样本量大时效率低、有时很难找到合适的区分方法。
hings=tf.compat.v1.losses.hinge_loss(labels=y,logits=y_pred)
hings_loss=tf.reduce_mean(hings)


# 三、自定义损失函数
# 标准的损失函数并不合适所有场景,
# 有些实际的背景需要采用自己构造的损失函数,Tensorflow 也提供了丰富的基础函数供自行构建。
# 例如下面的例子:当预测值(y_pred)比真实值(y_true)大时,
# 使用 (y_pred-y_true)*loss_more 作为 loss,反之,使用 (y_true-y_pred)*loss_less
loss=tf.reduce_sum(tf.where(tf.greater(y_pred,y_true),(y_pred-y_true)*loss_more,(y_true-y_pred)*loss_less))
# tf.greater(x, y):判断 x 是否大于 y,当维度不一致时广播后比较
# tf.where(condition, x, y):当 condition 为 true 时返回 x,否则返回 y
# tf.reduce_mean():沿维度求平均
# tf.reduce_sum():沿维度相加
# tf.reduce_prod():沿维度相乘
# tf.reduce_min():沿维度找最小
# tf.reduce_max():沿维度找最大
# 使用 Tensorflow 提供的方法可自行构造想要的损失函数。





 

你可能感兴趣的:(机器学习)