7.类神经网络训练不起来怎么办(四)损失函数的影响

类神经网络训练不起来怎么办(四)

分类

Class as one-hot vector

y = ( 1 , 0 , 0 ) T o r ( 0 , 1 , 0 ) T o r ( 0 , 0 , 1 ) T y=(1,0,0)^Tor(0,1,0)^Tor(0,0,1)^T y=(1,0,0)Tor(0,1,0)Tor(0,0,1)T

y ^ ← y ′ = s o f t m a x ( y ) \hat y\leftarrow y^{'}=softmax(y) y^y=softmax(y)

Soft-max

y = exp ⁡ ( y i ) ∑ j exp ⁡ ( y j ) y=\frac{\exp(y_i)}{\sum_{j}\exp{(y_j)}} y=jexp(yj)exp(yi)

让y变到0-1之间,各个输出之间的差距更大

两个class用sigmoid和softmax是一样的

分类问题的损失函数

Cross-entropy: e = − ∑ i y i ln ⁡ y ^ i e=-\sum_{i}y_i\ln\hat y_i e=iyilny^i

损失函数也会影响训练

你可能感兴趣的:(李宏毅机器(深度)学习笔记,神经网络,深度学习)