LLM 大模型

name model weights note
LLaMA 7B, 13B, 33B, 65B
Vicuna vicuna-7b
Vicuna vicuna-13b
Alpaca Alpaca-7B 基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到
Alpaca Alpaca-13B
Chinese-Vicuna Vicuna-lora-7b 基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到
Chinese-Vicuna Vicuna-lora-13b 基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到
Chinese-LLaMA-Alpaca Chinese-LLaMA-7B 基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到
Chinese-LLaMA-Alpaca Chinese-LLaMA-Plus-7B 基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到
Chinese-LLaMA-Alpaca Chinese-LLaMA-13B 基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到
Chinese-LLaMA-Alpaca Chinese-LLaMA-Plus-13B 基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到
Chinese-LLaMA-Alpaca Chinese-LLaMA-33B 基于 LLaMA,使用 LoRA 做 Fine-Tuning 得到
Chinese-LLaMA-Alpaca Chinese-Alpaca-7B 基于 Chinese-LLaMA,使用 LoRA 做 Fine-Tuning 得到
Chinese-LLaMA-Alpaca Chinese-Alpaca-Plus-7B 基于 Chinese-LLaMA,使用 LoRA 做 Fine-Tuning 得到
Chinese-LLaMA-Alpaca Chinese-Alpaca-13B 基于 Chinese-LLaMA,使用 LoRA 做 Fine-Tuning 得到
Chinese-LLaMA-Alpaca Chinese-Alpaca-Plus-13B 基于 Chinese-LLaMA,使用 LoRA 做 Fine-Tuning 得到
Chinese-LLaMA-Alpaca Chinese-Alpaca-33B 基于 Chinese-LLaMA,使用 LoRA 做 Fine-Tuning 得到
ChatGLM-6B ChatGLM-6B
VisualGLM-6B VisualGLM-6B 基于 ChatGLM-6B,使用 LoRA 做 Fine-Tuning 得到
GLM-130B
OPT-175B

https://my.oschina.net/oscpyaqxylk/blog/8727824

你可能感兴趣的:(人工智能,LLM)