本地部署CodeLlama +GTX1080显卡 对接open-interpreter对接wxbot(一)

 1.效果展示

本地部署CodeLlama +GTX1080显卡 对接open-interpreter对接wxbot(一)_第1张图片本地部署CodeLlama +GTX1080显卡 对接open-interpreter对接wxbot(一)_第2张图片

本地部署CodeLlama +GTX1080显卡 对接open-interpreter对接wxbot(一)_第3张图片

 开源项目GitHub - oobabooga/text-generation-webui: A Gradio web UI for Large Language Models. Supports transformers, GPTQ, llama.cpp (GGUF), Llama models.

"Code Llama" 是一个大型代码语言模型的系列,基于 "Llama 2" 构建,为编程任务提供了无监督指导能力,并在开放模型中表现出了最先进的性能。它为各种应用提供了多种版本,包括基础模型(Code Llama)、Python专门化版本(Code Llama - Python)以及指导模型(Code Llama - Instr

你可能感兴趣的:(llama,codellame,wxbot,interpreter)