yolov8训练心得 持续更新

目录

学习率衰减

600个batch衰减0.7,发现效果不错


我用Yolov8训练自己的数据集,带预训练模型

发现原版优化器是SGD,初始学习率0.1,训练后第一个epoch精度不错,后面就连续下降

换成adamw后,前面的精度比SGD低很多,

学习率衰减

600个batch衰减0.7,发现效果较好

一个epoch衰减两次,效果也挺好。

我怀疑是学习率衰减比较慢,导致后面精度又下降了,尝试让学习率衰减快一点试试,


我训练yolov8时,想让学习率衰减快一些,但是结果好像没有

self.scheduler = torch.optim.lr_scheduler.StepLR(self.optimizer, step_size=1, gamma=0.7)

然后在batch迭代500次时调用step
打印学习率并没有衰减

self.optimizer.param_groups[0]['lr']

你可能感兴趣的:(深度学习宝典,yolo,YOLO,深度学习,机器学习)