1、到Anaconda Prompt 输入查看虚拟环境
conda env list
2、创建新的虚拟环境
conda create -n yolov8 python==3.8.0
3、激活虚拟环境
activate yolov8
4、安装pytorch框架
pip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 torchaudio==0.9.0 -f https://download.pytorch.org/whl/torch_stable.html
5、下载yolo模型
①去github官网
新建标签页 (github.com)
https://github.com/
②自己分享一个百度网盘,里面有模型代码+权重文件
链接:https://pan.baidu.com/s/1nK_L0Oi4PomadSXXyJttMA
提取码:dgri
6、安装相关依赖包
切换cmd路径到自己刚刚下载的yolo模型的文件夹路径
cd /d 自己路径复制过来
cd /d D:\yolov8-ultralytics-main
安装requirements.txt文件里依赖包
pip install -r requirements.txt
7、安装yolov8,它这里其实叫ultralytics
pip install ultralytics
8、测验成功与否
假如我们用yolov8s.pt来测试 :
yolo task=segment mode=predict model=wighte/yolov8s.pt source=ultralytics/assets/bus.jpg save=true
测试视频/摄像头/文件夹:(source=自己的绝对路径就行,照片也可以用绝对路径,我前面是相对路径)#测试图片
yolo task=segment mode=predict model=wighte/yolov8s.pt source=ultralytics/assets/bus.jpg save=true
#测试视频
yolo task=segment mode=predict model=wighte/yolov8s.pt source=D:\car.mp4 show=true
#测试摄像头
yolo task=segment mode=predict model=wighte/yolov8s.pt source=0 show=true
#测试文件夹
yolo task=segment mode=predict model=wighte/yolov8s.pt source=D:\myimgs
结果保存到了对应的文件夹下的runs\detect\predict。里面会有个测试好的图。
训练自己的模型
pip install labelimg -i https://pypi.tuna.tsinghua.edu.cn/simple
下载完后打开软件,注意大小写
labelImg
调整模式,点击一次变成PascalVOC,再点击一次变成YOLO,我们选择YOLO格式进行标注
voc标注方式,生成的是xml格式文件
当然也可以直接从xml转txt
yolo标注方式,生成的是txt格式文件,也会生成一个类别文件classes.txt
快捷键:W是启动标注,A是上一张,D是下一张图片,在view里面点击自动保存。
创建数据集
创建images文件和labels文件
里面分别放置,train和val及test文件夹,当然test可选
图片文件夹下放置的是图片,labels下放置的是txt文件
from ultralytics import YOLO
# 加载模型
# 从头开始构建新模型
model = YOLO("yolov8n.yaml")
# 加载预训练模型(建议用于训练)
model = YOLO("C:/Users/16350/Desktop/yolov8/ultralytics-main/ultralytics/yolo/weights/yolov8n.pt")
# 使用模型
## 训练模型
model.train(data="coco128.yaml", epochs=3)
# 在验证集上评估模型性能
metrics = model.val()
# 对图像进行预测
results = model("C:/Users/16350/Desktop/yolov8/datasets/coco128/images/train2017")