loss波动变化,准确率变化也不大

最近在做多分类,然后训练的时候发现loss在慢慢下降(越到后面越慢),但是准确率却一直在一个区间内上下波动

解决方法:调整学习率,调大或调小一点,自己试试。

为什么这样子可以解决?
答:在学习梯度下降的时候,要使得目标函数最小,则我们需要寻找最优的参数theta,
theta的更新方式为:
theta = theta - a*梯度(其中a是学习率)

当学习率不合适的时候,可能就会出现如图的情况
loss波动变化,准确率变化也不大_第1张图片

(横坐标是theta,纵坐标是loss,画图时忘了)
起始点为A,因为学习率比较大,所以更新参数theta后,loss可能不下降反而增大,就会变到B的位置,最后变到C的位置的时候,由于C点的梯度比较大,所以经过
theta = theta - a*梯度,之后会得到比前一次更好的theta,所以loss会下降一点。然后就这样一直反复,在上升和下降之间来回波动

个人见解,不一定正确,有问题的话欢迎指出

你可能感兴趣的:(深度学习)