目录
尝试1--唯一运行成功的
尝试2
尝试3
尝试4--希望最大
尝试5
前提:虽然成功训练完了,但是想到以后万一训练轮数太少没收敛,怎么在已经训练好的模型基础上继续进行多轮epoch的训练。或者训练着突然中断,之前训练的岂不是功亏一篑。
起因:在kaggle上训练完150轮之后查看结果,mAP值和recall值感觉不是特别高,思考是不是再多训练几轮网络会更收敛。寻找继续训练的方法。
找了好多解决办法,都没解决问题,一下午没了,已经没有动力debug了,记录一下,方便下次有同样的问题拿来再尝试。
继续训练包括两种方式:
思路:
直接用last.pt权重,epoch=要继续训练的轮数,比如想在训练100轮,epoch=100
!python train.py --weights /kaggle/input/face-mask/last.pt --epochs 100 --device 0
思考:
相当于重新在原来基础上重新训练,并不是继续训练,结果也并没有很好,有一种不连贯的感觉。
参考博客:Kaggle平台持续运行项目最多9小时的解决方法
!python tarin.py --epoch 200 --weights last.pt路径 # 根据理解写出更改部分
博主提到的什么“代码里加上一句,把之前训练好的模型加入到现在的日志文件中。”然后对代码的修改,怀疑该方法不适用于yolov5,因为看其他博主都会提到resume参数的设置。
参考博客:yolov5 显示每个类别的mAP以及如何继续训练
思路:
1、将resume参数设置为Ture
2、设置weights参数中的default = ''填入想要继续训练的生成的exp中的last.pt的路径
思考:
这位博主并没有提到他的继续训练是针对于哪种情况,暂时归到第二种情况下,他本来在源代码上修改,我觉得没有必要,可以直接在终端输入指令:
!python train.py --weights last.pt路径 --resume True
后来又看到一篇博文说要在源代码上改才行,虽然心里不理解,后来在源代码上更改之后还是报错。
AssertionError: ERROR: --resume checkpoint does not exist
解决过程:一步解决:AssertionError: ERROR: --resume checkpoint does not exist
结果:并没有解决,开始报其他错。唉!
Traceback (most recent call last):
File "train.py", line 621, in
main(opt)
File "train.py", line 492, in main
with open(Path(ckpt).parent.parent / 'opt.yaml', errors='ignore') as f:
FileNotFoundError: [Errno 2] No such file or directory: '/kaggle/input/opt.yaml'
参考博客:yolov5 继续训练
思路:
断电、或者什么原因中断了,比如设定epoch为200,但是在90这里中断了,想从断点这里继续训练到200 epoch。
直接在train.py设置resume参数为True即可
parser.add_argument('--resume', default=True, help='resume most recent training') # 感觉很靠谱,还没有遇到过这个情况,如果遇到就参考这个
思路:
1、说是把resume改为ture,epoch改为300,然而下面的提示代码确实更改weights的,不理解为什么,到底改不改weights??
2、在train代码中#epoch部分下添加:
ckpt['epoch'] = 200 # 我认为应该是199,虽然训练了200轮,但是其实是0-199
思考:
不知道要不要改权重文件,理解resume和epoch确实要改,weights要不要改不确定,但是两种都试也报错:
AssertionError: ERROR: --resume checkpoint does not exist # 醉了
参考博文:yolov5——断点训练/继续训练【解决方法、使用教程】
思路:适用情况1
1、改resume参数为True
2、更改权重为last.pt
3、开始训练
python train.py --weights last.pt路径
思考:
该方法针对于情况1,我没遇到过,遇到后可尝试。我的情况使用后好像还是报了一样的错误,resume checkpoint does not exist