Langchain + Ollama

文章目录


方式一:Ollama 运行起来后,使用 langchain 加载

from langchain.llms import Ollama
ollama = Ollama(base_url='http://localhost:11434',
model="llama2")
print(ollama("why is the sky blue"))

方式二:使用 langchain_community

1、下载 Ollama : https://ollama.com/download

2、运行命令,拉取模型

ollama pull llama2

3、运行代码

from langchain_community.llms import Ollama
llm = Ollama(model="llama2")

llm.invoke("how can langsmith help with testing?")

参考:https://python.langchain.com/docs/get_started/quickstart


参考文章:

  • 5分钟本地部署各种大模型,还可以和langchain一起玩 (Docker)
    https://mp.weixin.qq.com/s/oyOK162eFHlpxdqQCT86GQ
  • OLLama 如何通过已有文档建立知识库进行问答?OLLama + LangChain给你助力。
    https://mp.weixin.qq.com/s/k-OF_L-x85B6H73xMoxpcg
  • Using LangChain with Ollama in Python
    https://github.com/ollama/ollama/blob/main/docs/tutorials/langchainpy.md
  • Ollama 我的笔记
    https://ezcode.blog.csdn.net/article/details/136482825
  • langchain
    https://python.langchain.com/docs/get_started/introduction

伊织 2024-03-20

你可能感兴趣的:(LLM,&,AIGC,langchain,ollama,rag)