[我参加NVIDIA Sky Hackathon](模型训练yolo系列)

由于NVIDIA在CV APPLICATIONS->Object Detection提供了yolov3和yolov4的模型配置及训练部署教程,并且yolov4相对于yolov3性能较好,所以选择了yolov4进行训练,backbone选择resnet18。

1.Generate anchor shape

通过tlt yolo_v4 kmean生成anchor shape。

tlt yolo_v4 kmeans [-h] -l 
                        -i 
                        -x 
                        -y 
                        [-n ]
                        [--max_steps ]
                        [--min_x ]
                        [--min_y ]

2.训练结果

在训练yolov4-resnet18时,预训练模型为resnet_18.hdf5,loss很大,训练结束后选择loss最小的一个模型作为预训练模型,接着训练,最后的训练结果如下图1所示。

max map 0.75398008182529
min train loss 25.208847
min val loss 28.75248098242053

[我参加NVIDIA Sky Hackathon](模型训练yolo系列)_第1张图片

图1 

进行数据清洗,提高epoch到500,训练结果图如图二,各项指标均有所提升。

max map 0.7899611925678601
min train loss 16.976751
min val loss 23.535720474418554

[我参加NVIDIA Sky Hackathon](模型训练yolo系列)_第2张图片

图2

你可能感兴趣的:(深度学习,计算机视觉,目标检测)