DeepSeek+LLMAnything本地Docker网络版部署+本地知识库搭建

通过本地部署Anything LLM来建立本地知识库,同时配置为调用本地部署的的DeepSeek模型,这样可以把DeepSeek模型的模型能力和本地知识库功能集成到一起使用;

支持多用户使用及用户权限管理;

同时支持API调用,可以和自己的应用程序进行集成;

方案特点:这种方式的有点是对硬件要求高,需要配置算力显卡,适合中小型团队或者公司使用。

一.DeepSeek本地部署

1.下载并安装:ollama

https://ollama.com/download  

你可能感兴趣的:(AI实战应用,docker,容器,人工智能)