LangChain+ChatGLM整合LLaMa模型(二)

开源大模型语言LLaMa

        • LLaMa模型GitHub地址
        • 添加LLaMa模型配置
        • 启用LLaMa模型

LangChain+ChatGLM大模型应用落地实践(一)

LLaMa模型GitHub地址

git lfs clone https://huggingface.co/huggyllama/llama-7b

添加LLaMa模型配置

在Langchain-ChatGLM/configs/model_config.py中llm_model_dict添加

"llama-7b": {
        "name": "llama-7b",
        "pretrained_model_name": "/home/user/data/your_path/llama-7b",
        "local_model_path": "/home/user/data/your_path/llama-7b",
        "provides": "LLamaLLMChain"
    }

LangChain+ChatGLM整合LLaMa模型(二)_第1张图片

启用LLaMa模型

进入Web UI选择LLaMa模型
LangChain+ChatGLM整合LLaMa模型(二)_第2张图片
在这里插入图片描述

LLAMA-7B(中文提问当作翻译回答了…看来训练的中文语料不太行,但是英文也算是答对了)
LangChain+ChatGLM整合LLaMa模型(二)_第3张图片
具体为什么LLaMa为什么这样回答,等待后续。

你可能感兴趣的:(AI,langchain,llama,ChatGLM,大模型,python)