机器学习:交叉熵损失函数

1. 世上并无负样本

softmax的标签是一个向量,但是这个向量中只有一个值为1,所以损失函数中也只会有一项是有值的,其他都是0,所以值也都为0。但是交叉熵损失函数中,不管0还是1都是有只的,正样本的时候,值为 log p \text{log} p logp,负样本的时候值为 log ( 1 − p ) \text{log}(1-p)

你可能感兴趣的:(机器学习面试,机器学习,概率论,深度学习)