首先去自己的anaconda的安装的envs(虚拟环境),在导航栏输入cmd,进入命令窗口。
确保python>=3.7;CUDA>=10.1,PYtorch>=1.7
小编后面的:python=3.8.8;CUDA=11.6,PYtorch=1.12.1
1、创建一个虚拟环境
conda create -n torch1.12.1 python=3.8.8
激活刚建的虚拟环境
activate torch1.12.1
到官方网站下载yolo模型 ,下载好后解压,里面有个文件requirements.txt
mirrors / ultralytics / ultralytics · GitCode
安装一个整体包:
pip install -r .\requirements.txt
直接按照路径会有问题,找到自己 requirements.txt 文件路径,我这里是pip install -r D:\ultralytics-main\ultralytics-main\requirements.txt
然后安装ultralytics ,这是必须的。可以用镜像地址。
pip install ultralytics -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com
安装下载好包,接下来就是验证:
yolo predict model=yolov8n.pt source='ultralytics/assets/bus.jpg' show=True save=True
目录
一、安装Anaconda3
1、下载
2、安装
3、验证
二、搭建windows上yolov8环境
1、cuda+pytorch+python版本选择
①查看自己电脑的cuda型号
②显卡驱动版本对应选择
2、创建虚拟环境
3、激活环境
编辑
4、安装pytorch框架
①安装框架pytorch 1.9.0
②换镜像源
③pip install 和conda install的区别
三、安装yolov8
1、下载代码
2、命令行安装相关文件
① 切换路径到自己下载好的路径
② 安装依赖包
3、安装yolov8,它这里其实叫ultralytics
4、 测试
四、制作自己的数据集
1、https://roboflow.com
2、labelme
①安装:在创建的虚拟环境中安装
②画标签
③把labelme格式转化成yolov8支持的数据集格式
五、用yolov8模型训练数据
六、模型预测结果
七、总结简明的步骤
到官网:
Index of /anaconda/archive/ | 清华大学开源软件镜像站 | Tsinghua Open Source Mirror
双击exe——Next——I Argee——just me ——选择路径(建议自定义,不要安装到c盘,且安装路径不要出现中文)——两个勾都勾上,不然配置环境很麻烦——Install——接下来页面两个勾不选——fnish完成安装。
开始去找到这个
点开能进入命令框,输入python,可以看到python版本。print(“hi”)
首先搜索栏找到设备管理器——显示适配器——NVIDIA(有这个才可以,说明电脑有GPU独显,否则就是只有集成显卡Intel,如图所以,很多比如联想台式电脑就没有独显,那么跑深度学习就得有服务器)
在电脑上按键win+r——输入cmd——输入nvidia-smi
(1)理论上显卡越新越好,但是有的新的会不稳定,显示花屏等异常出现,所以不能一味追求新。而且太新了可能还没来得及出来对应的pytorch版本,就没法匹配。
(2)安装的驱动版本<=电脑上显示的(支持最高cuda版本号),如本台电脑是12.0,那么安装的必须<=12.0,不能大于它。
(3)如果显卡<=PTX2080,推荐安装cuda10.2+cudnn7.6.5,或者其他版本;
如果显卡>=PTX3050,则必须安装cuda>=11.0。
NVIDIA CUDA 官方文档
torch | torchvision | Python |
main/nightly | main/nightly | >=3.8,<=3.11 |
2.0 | 0.15 | >=3.8,<=3.11 |
1.13 | 0.14 | >=3.7.2,<=3.10 |
1.12 | 0.13 | >=3.7,<=3.10 |
1.11 | 0.12 | >=3.7,<=3.10 |
1.10 | 0.11 | >=3.6,<=3.9 |
1.9 | 0.10 | >=3.6,<=3.9 |
1.8 | 0.9 | >=3.6,<=3.9 |
1.7 | 0.8 | >=3.6,<=3.9 |
1.6 | 0.7 | >=3.6,<=3.8 |
1.5 | 0.6 | >=3.5,<=3.8 |
1.4 | 0.5 | >=3.8,<=3.11 |
1.3 | 0.4.2/0.4.3 | ==2.7,>=3.5,<=3.8 |
1.2 | 0.4.1 | ==2.7,>=3.5,<=3.7 |
1.1 | 0.3 | ==2.7,>=3.5,<=3.7 |
<=1.0 | 0.2 | ==2.7,>=3.5,<=3.7 |
conda create -n 自己起名字 python==
如:conda create -n yolov8 python==3.8.0
这里就可以写上python版本,不然默认使用anaconda自带的python版本。
创建完了可以输入命令查看,没创建前anaconda本身只有一个base。
接下来进入自己虚拟环境,前面base变成了自己的环境名称,就可以接下来在这个环境里为所欲为了,安装卸载,即使弄错了,去anaconda安装路径找envs文件夹,里面有你的虚拟环境可以整个复制或者删除。
(1475条消息) [pytorch]pytorch官方安装法_torch==1.13.1+cu117_FL1623863129的博客-CSDN博客
pip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 torchaudio==0.9.0 -f https://download.pytorch.org/whl/torch_stable.html
慢慢等待下载,我这里用了清华源。接下来补充两个知识点:
conda ≈ pip(python包管理)+虚拟环境+非python依赖包管理
用conda下来接下来的包,这样的话下载一次,如果你其虚拟环境也要,他优先从上一目录找,如果有直接安装,就是说一次下载多次安装使用。
pip只能下载python包,而且下载安装到仅仅是当前环境,下次环境要用就得再下载。
下载包的时候优先推荐conda,不行再用pip。
删除用pip uninstall 包名 或者 conda uninstall 包名,效果一样,只删除当前环境下的包。
下载好只后可以输入命令pip list 查看:
github官网
GitHub - ultralytics/ultralytics: NEW - YOLOv8 in PyTorch > ONNX > OpenVINO > CoreML > TFLite
下面也有模型点击直接下载
新建一个weights文件夹,把下载的模型放进去。
cd /d 自己路径复制过来
pip install -r requirements.txt
如果安装不成功,可能和网络有关,重新执行,多安装几次就行。
也可以如下从镜像源下载安装。 直接输入 -i 源名,因为前面我设置了默认清华源,所以我直接安装。
pip install ultralytics
假如我们用yolov8s.pt来测试 :
yolo task=segment mode=predict model=wighte/yolov8s.pt source=ultralytics/assets/bus.jpg save=true
结果保存到了对应的文件夹下的runs\detect\predict
测试视频/摄像头/文件夹:(source=自己的绝对路径就行,照片也可以用绝对路径,我前面是相对路径)
#测试图片
yolo task=segment mode=predict model=wighte/yolov8s.pt source=ultralytics/assets/bus.jpg save=true
#测试视频
yolo task=segment mode=predict model=wighte/yolov8s.pt source=D:\car.mp4 show=true
#测试摄像头
yolo task=segment mode=predict model=wighte/yolov8s.pt source=0
#测试文件夹
yolo task=segment mode=predict model=wighte/yolov8s.pt source=D:\myimgs
Roboflow: Give your software the power to see objects in images and videohttps://roboflow.com/一个外网页,可以制作,很好用,但是因为是外网会卡。
Roboflow制作yolov8数据集_彩色面团儿的博客-CSDN博客
这个网页可以直接就制作成yolov8需要的数据集格式;主要是有个功能不需要自己手动描边缘,有个类似于区域生长的按钮,自动描,可以试一下
conda activate yolov8
pip install labelme
polygons多边形做实例分割,保存的数据标签为json格式。
目标检测就是画一些框就行,不需要考虑边缘;而实例分割要边缘都描出来的。
(1476条消息) labelme制作自己数据集以及图片格式问题_labelme数据集格式_彩色面团儿的博客-CSDN博客
(1)利用一个py脚本文件。 (json3txt.py)修改最后一行路径,在命令行如下图运行就行,或者用pycharm打开运行。
(2)需要自己在labelme先画好标签(做好数据集)
labelme-dogcat-test.zip - 蓝奏云 (lanzouw.com)
上面是一个标签文件,猫和狗的。框的,没有边缘,也能粗略做分割。
yolo task=segment mode=train model=mydata\yolov8s-seg.yaml data=mydata\coco128-seg.yaml epochs=100 batch=4(显卡内存大就设置大点好) save=true workers=4 device=0(第几个显卡) pretrained=true
上面其他三个images和labels和labels.txt是数据格式转化的时候生成的。
框起来的两个yaml是用yolov8s模型做的。如果要用其他版本可以对应找出来改。
其他的一些代码
这些里面没有权值,所以也不能用。就只能在命令行输入那种运行了。
yolo task=segment mode=train model=mydata\yolov8s-seg.yaml data=mydata\coco128-seg.yaml epochs=100 batch=4 save=true workers=1 device=0 pretrained=true
yolo task=segment mode=predict model=runs\segment\train\weights\best.pt source=D:\torch1\yolov8-ultralytics-main\mydata\ceshi\1.jpg save=true
1、到Anaconda Prompt 输入查看虚拟环境
conda env list
2、创建新的虚拟环境
conda create -n yolov8 python==3.8.0
3、激活虚拟环境
activate yolov8
4、安装pytorch框架
pip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 torchaudio==0.9.0 -f https://download.pytorch.org/whl/torch_stable.html
5、下载yolo模型
①去github官网新建标签页 (github.com)https://github.com/
②自己分享一个百度网盘,里面有模型代码+权重文件
链接:https://pan.baidu.com/s/1nK_L0Oi4PomadSXXyJttMA
提取码:dgri
6、安装相关依赖包
切换cmd路径到自己刚刚下载的yolo模型的文件夹路径
cd /d 自己路径复制过来
cd /d D:\yolov8-ultralytics-main
安装requirements.txt文件里依赖包
pip install -r requirements.txt
7、安装yolov8,它这里其实叫ultralytics
pip install ultralytics
8、测验成功与否
假如我们用yolov8s.pt来测试 :
yolo task=segment mode=predict model=wighte/yolov8s.pt source=ultralytics/assets/bus.jpg save=true
结果保存到了对应的文件夹下的runs\detect\predict。里面会有个测试好的图。