一款神奇的本地快速部署开源大模型的工具——ollama

第一次使用ollama我就被惊艳到了,惊掉了我的下巴。

开源大模型越来越多,大有百家争鸣之势。面对层出不穷的大模型,我们如何才能快速上手体验呢?答案就是:ollama。

什么是ollama

一款神奇的本地快速部署开源大模型的工具——ollama_第1张图片

ollama可以帮助我们在本地启动并运行大语言模型。

我们不仅可以使用Llama 2、Code Llama等模型,还可以使用自己自定义创建的模型。

ollama支持的模型

以下是ollama已经支持的开源大模型,大家可以根据需要自行体验。

  • gemma
  • llama2
  • mistral
  • mixtral
  • command-r
  • llava
  • codellama
  • dolphin-mixtral
  • qwen
  • llama2-uncensored
  • mistral-openorca
  • deepseek-coder
  • phi
  • nous-hermes2
  • orca-mini
  • dolphin-mistral
  • wizard-vicuna-uncensored
  • vicuna
  • nomic-embed-text
  • tinydolphin
  • llama2-chinese

太多了,就不再一一罗列了,几乎涵盖了所有的开源大模型

安装

你可能感兴趣的:(大模型,大模型,ollama,开源)