利用yolov4快速训练学习模型

前言

本次训练利用到了 https://github.com/bubbliiiing/yolov4-keras,修改了部门内容上传到个人仓库。
https://github.com/wallEVA96/yolov4-keras中, 本文主要是对训练过程的学习总结。
首先确保vs code 支持 git bash,这个能极大方便我们代码跟踪和终端的命令行控制。

  1. 先安装 git bash 到电脑上,
  2. 进入vs code的 Terminal › Integrated › Automation Shell: Windows
  3. 添加如下 配置:
    {
    “explorer.confirmDelete”: false,
    “python.showStartPage”: false,
    “workbench.startupEditor”: “newUntitledFile”,
    “terminal.integrated.shell.windows”: “F:/Program Files (x86)/Git/bin/bash.exe”,
    “explorer.confirmDragAndDrop”: false,
    “terminal.integrated.automationShell.windows”: “”
    }

训练步骤

通过https://github.com/wallEVA96/yolov4-keras仓库中的downloa_img.py从百度下载科比的图片数据到 VOCdevkit\VOC2007\JPEGImage,确保之后有可标志的图片数据可以使用。
0. 下载预训练权重文件,用于之后的模型迁移学习,放到model_data文件夹。
链接:https://pan.baidu.com/s/1a87loCG68p3vFhTQXwziog
提取码:o5sh

  1. 首先先通过labelImg的工具,生成数据集到VOCdevkit\VOC2007AnnotationJPEGImages文件夹中, 比如科比的图像数据集。
  2. 运行VOCdevkit\VOC2007\voc2yolo4.py之后,会在
    yolov4-keras\VOCdevkit\VOC2007\ImageSets下生成 test.txt train.txt trainval.txt val.txt, 这些用于yolo训练文件索引
  3. 运行 voc_annotation.py文件,会根据上述的索引文件,将我们的数据集文件生成出带标签信息的索引文件** 2007_val.txt 2007_train.txt 2007_val.txt**, 这些文件之后将用于模型的训练。
  4. 运行 kmeans_for_anchors.py 代码 ,用于生成先验框文件 yolo_anchors.txt, 该文件位于 model/data
  5. 运行train.py文件, 记得修改一下train代码文件里面的路径。 ,最终,生成的权重文件放在了logs文件下。
    annotation_path = '2007_train.txt'
    # 获取classes和anchor的位置
    classes_path = 'model_data/gt_classes.txt'
    anchors_path = 'model_data/yolo_anchors.txt'
    #------------------------------------------------------#
    # 权值文件
    weights_path = 'logs/ep062-loss21.590-val_loss21.515.h5'
  1. 等训练结束之后, 修改一下yolo.py文件中的 "model_path": 'model_data/kobe.h5'"model_path": 'logs/last1.h5', 运行 predict.py 之后输入要预测的文件名, 便可以进行目标检测。如下是训练效果图:
    利用yolov4快速训练学习模型_第1张图片

你可能感兴趣的:(YOLOv#,Python)