李宏毅机器学习笔记Day6——神经网络训练技术

训练技术:Adaptive Learning Rate
当parameters在critical point 附近时,Loss已经很小时(trainings stuck),gradient并没有很小。
李宏毅机器学习笔记Day6——神经网络训练技术_第1张图片
Learning rate 不能是one-size-fits-all,不同的参数需要不同的Learning rate,引入Parameter dependent。
李宏毅机器学习笔记Day6——神经网络训练技术_第2张图片
Root mean square :用在Adagrad里。坡度小,σ小,learning rate大,step大,坡度大,σ大,learning rate小,step小,从而可以自动调整learning rate 的大小。
李宏毅机器学习笔记Day6——神经网络训练技术_第3张图片
当error surface非常复杂时,同一个参数也有可能需要调整learning rate
李宏毅机器学习笔记Day6——神经网络训练技术_第4张图片
方法:RMSProp
Adam:RMSProp+Momentum
李宏毅机器学习笔记Day6——神经网络训练技术_第5张图片
Learning rate scheduling
加上Learning rate decay
李宏毅机器学习笔记Day6——神经网络训练技术_第6张图片
Warm up
李宏毅机器学习笔记Day6——神经网络训练技术_第7张图片
Optimization的总结
对gradient descent进行了改正
李宏毅机器学习笔记Day6——神经网络训练技术_第8张图片
Classification
把class用one-hot vector表示,用softmax将output 调到0到1之间,output与y_hat越接近越好
李宏毅机器学习笔记Day6——神经网络训练技术_第9张图片
李宏毅机器学习笔记Day6——神经网络训练技术_第10张图片
Loss of classification
用cross-entropy
李宏毅机器学习笔记Day6——神经网络训练技术_第11张图片
可以改变loss function,降低error surface的复杂度,从而降低难度。
李宏毅机器学习笔记Day6——神经网络训练技术_第12张图片

你可能感兴趣的:(机器学习,人工智能,深度学习)