Dify大语言模型应用开发平台的简单本地部署

如果你想自己编写一个应用来调用本地DeepSeek大模型来处理业务逻辑,创建属于你自己的界面设计,借助Dift应用开发平台无疑是最简单的实现,无代码可视化的界面设计,足够亲民了。

更多内容,可关注公众号“ 一名程序媛 ”,我们一起从 0 - 1 学编程

1 拉取Github源代码

官方已经将Docker启动所需的配置编写好,我们只需拉取下来仓库源码执行即可

git clone https://github.com/langgenius/dify.git

2 创建环境配置文件

上一步已经拉取了源码文件,切换进入docker目录,拷贝一份示例配置作为默认配置文件

cd dify/docker
cp .env.example .env

3 拉取Docker镜像并创建容器

这一步可能会卡住一些人,没有更好的办法,只能找一些当前可用的Registry Mirrors镜像加速站点来下载镜像(安全性如何,我也不确定,姑且能用)

docker compose up -d

4 浏览访问

如果以上步骤都没能拦住你,那说明你的Dify已经安装成功,默认容器里开放了80端口供Web访问,打开浏览器,输入你的Docker主机IP试一下吧,我这边是输入IP回车后,即进入了管理员账号密码设置界面

http://192.168.220.50

5 配置本地大模型

  1. 点击右上角用户头像 》 设置
  2. 选择左侧“模型供应商”,右侧即会出现大模型相应的插件
  3. 下拉找到Ollama点击“安装”,稍等片刻即会出现在上方的“模型列表”中
  4. 点击“添加模型”,
    1. 类型:LLM
    2. 模型名称:deepseek-r1:1.5b(这个要选择你在ollama中拉取时的名称),
    3. 基础URLhttp://192.168.220.50:11434(也即你的Ollama访问地址)
    4. 其他保持默认,点击“保存”即可
  5. 最后点击“系统模型设置”,确认下你的“系统推理模型”是否加载进来(因为只添加了一个模型,这里出现的即是deepseek
  6. 点击右上角的Esc退出到外部控制台,切换到“工作室”即可“创建空白应用”来调取大模型啦

后续的更多玩法,敬请期待啦……

更多内容,可关注公众号“ 一名程序媛 ”,我们一起从 0 - 1 学编程
Dify大语言模型应用开发平台的简单本地部署_第1张图片

你可能感兴趣的:(AI,语言模型,人工智能,自然语言处理,dify,ollama,deepseek,docker)