conda create -n paddle_env python=3.9
conda activate paddle_env
# conda设置为清华源
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --set show_channel_urls yes
# 安装paddlepaddle的gpu版本及cudakittool(gpu版本可以使用cpu)
# 但是这里不是最新版本的,最新版本上官网
conda install paddlepaddle-gpu==2.0.2 cudatoolkit=10.2 --channel https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/Paddle/
# 已有numpy,此处安装PIL或matplotlib或OpenCV用于图片显示
pip install nibabel
conda install opencv
# 安装anaconda基本库,速度有慢,报错信息,只要不停止,一直等待即可
# 这一步时间较久
conda install anaconda
# 安装paddleseg
pip install paddleseg -i https://mirror.baidu.com/pypi/simple
python
import paddle
paddle.utils.run_check()
出现successfully,即为成功
X2Paddle 是飞桨生态下的模型转换工具, 目前已经支持 Caffe/TensorFlow/ONNX/PyTorch 四大框架的预测模型的转换,PyTorch 训练项目的转换,涵盖了目前市面主流深度学习框架,一条命令即可完成转换。
pip install x2paddle
pip install onnx -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install onnxruntime -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install paddlepaddle -i https://mirror.baidu.com/pypi/simple
pip install x2paddle -i https://mirror.baidu.com/pypi/simple
python ./export.py --weights plate_detect.pt --img 640 --batch 1
参数说明:
data: 数据集yaml文件路径
weights:自己的模型路径
imgsz:图片尺寸
batch-size:默认为1,不用更改
device:运行设备,若cpu,则直接写cpu,若gpu,则写0或0,1,2,3
half: 半精度,建议改为False,否则转换inference模型时会出错
dynamic:建议改为False
simplify:建议为True
opset:onnx协议,建议改为11或12
include:列表形式,储存你需要转换的模型后缀,支持torchscript, onnx, engine, coreml, saved_model, pb, tflite, tfjs
ONNX export success. saved as …。现在就已经有了onnx模型。默认和原模型同名称,同路径。
可以从三种框架下转成paddle下需要的模型,一句话搞定,具体如下:
x2paddle --framework=onnx --model=onnx_model.onnx --save_dir=pd_model #从onnx时
x2paddle --framework=tensorflow --model=tf_model.pb --save_dir=pd_model #从tensorflow时
x2paddle --framework=caffe --prototxt=deploy.prototxt --weight=deploy.caffemodel --save_dir=pd_model #从caffe时
此处是从onnx转,运行第一句即可。其中的命令参数如下:
–freamework 需要转换的模型类型(即tensorflow、onnx、caffe)
–model 需要转换的模型路径
–save_dir 保存转换后的模型路径
–prototxt caffe模型的proto文件路径
–weight caffe模型的参数文件路径
执行如下语句开始导出:(paddle_inference是我自己建的文件夹)
x2paddle --framework=onnx --model=plate_detect.onnx --save_dir=paddle_inference
pip install onnx==1.10.0 -i https://mirror.baidu.com/pypi/simple
The opset version of the onnx model is 12, only model with opset_version 10/11 is supported.
parser.add_argument('--opset', type=int, default=12, help='ONNX: opset version')
parser.add_argument('--opset', type=int, default=11, help='ONNX: opset version')
然后删除那个onnx模型重新执行python export.py即可。
上边导出的paddle_inference文件夹下有如下文件和文件夹。
其他模型topaddle的时候, x2paddle都可以代劳,但是tensorflow2.0模型需要经过一个中间步骤onnx,因为paddle还不支持对.pb模型的直接转换,详见
所有模型转paddle官方文档
现在是2023-5-27,好像yolo已经集成了很多模型在export里边,包含但不限于torchscript, onnx, openvino, engine, coreml, saved_model, pb, tflite, edgetpu, tfjs, paddle,而且导出之后直接是paddleinfer格式。