llama-factory微调qwen2.5-vl

本文不生产技术,只做技术的搬运工!!!

前言

        目前大模型百花齐放,微调方法复杂多样,且教程复杂,工程端想要进行垂域模型适配困难重重,本篇博客详细介绍了qwen2.5-vl的全流程微调过程,包括环境配置、数据集制作、模型训练、模型导出、模型部署、模型推理等过程,希望对工程端的朋友们有帮助。

环境配置

        一定注意微调环境和推理环境要隔离,避免版本冲突

Llama-factory安装

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

推理环境安装

git clone https://github.com/QwenLM/Qwen2.5-VL.git
cd Qwen2.5-VL
conda create -n qwen2.5-vl python=3.11 -y
pip install -r requirements_web_demo.txt
pip install flash-attn==2.6.1
pip install vllm==0.7.3

数据集制作

数据格式

你可能感兴趣的:(llama,人工智能,计算机视觉)