ChatGLM微调基于P-Tuning/LoRA/Full parameter(上)

1. 准备环境

        首先必须有7个G的显存以上,torch >= 1.10 需要根据你的cuda版本

1.1 模型下载

$ git lfs install
$ git clone https://huggingface.co/THUDM/chatglm-6b

1.2 docker环境搭建

环境搭建

$ sudo docker pull slpcat/chatglm-6b:latest
$ sudo docker run -it -d -v /data/:/workspace --name chatglm --gpus all -p 9017:9017 -p 9018:22 slpcat/chatglm-6b:latest bash 
$ sudo docker exec -it chatglm bash

备份环境

$ sudo docker pull trentaml/chatglm-6b:202303252200

1.2.1 容器中搭建ssh(便于远程开发)

$ apt update && apt install openssh-server
$ mkdir /var/run/sshd && echo 'root:passwd' | chpasswd
$ sed -i 's/PermitRootLogin prohibit-password/PermitRootLogin yes/' /etc/ssh/sshd_config
$ sed 's@session\srequired\spam_loginuid.so&

你可能感兴趣的:(ChatGLM实战教程,深度学习,人工智能)