Ollama 提供了一套原生 API,用于与本地部署的模型进行交互。以下是 Ollama 原生 API 的主要接口及其功能说明
地址:http://localhost:11434
/api/generate
{
"model": "deepseek-r1:7b", // 模型名称
"prompt": "你好,介绍一下你自己", // 输入提示
"stream": false, // 是否流式输出(默认false)
"options": { // 可选参数
"temperature": 0.7, // 温度参数,控制生成多样性
"max_tokens": 100, // 最大生成token数
"top_p": 0.9 // Top-p采样参数
}
}
{
"response": "你好,我是一个基于DeepSeek模型的人工智能助手,可以回答你的问题。",
"done": true // 是否完成
}
/api/generate
{
"model": "deepseek-r1:7b",
"prompt": "写一篇关于AI的文章",
"stream": true // 开启流式输出
}
{"response": "AI", "done": false}
{"response": "是", "done": false}
{"response": "未来", "done": false}
{"response": "的", "done": false}
{"response": "趋势。", "done": true}
/api/tags
{
"models": [
{
"name": "deepseek-r1:7b",
"modified_at": "2024-01-01T12:00:00Z"
},
{
"name": "llama2:13b",
"modified_at": "2024-01-02T12:00:00Z"
}
]
}
/api/pull
{
"name": "deepseek-r1:7b" // 模型名称
}
{
"status": "downloading",
"progress": 0.5 // 下载进度
}
/api/delete
{
"name": "deepseek-r1:7b" // 模型名称
}
{
"status": "success"
}
/api/show
{
"name": "deepseek-r1:7b" // 模型名称
}
{
"name": "deepseek-r1:7b",
"size": "7B",
"modified_at": "2024-01-01T12:00:00Z",
"details": {
"architecture": "Transformer",
"quantization": "4-bit"
}
}
/api/chat
{
"model": "deepseek-r1:7b",
"messages": [
{"role": "user", "content": "你好"},
{"role": "assistant", "content": "你好,有什么可以帮你的?"},
{"role": "user", "content": "介绍一下AI"}
],
"stream": false // 是否流式输出
}
{
"message": {
"role": "assistant",
"content": "AI是人工智能的缩写,旨在模拟人类智能..."
},
"done": true
}
/api/health
{
"status": "healthy"
}
/api/config
{
"model_path": "/custom/path/to/models",
"port": 11435
}
/api/stop
{
"task_id": "12345" // 任务ID
}
Ollama 的原生 API 提供了丰富的功能,包括模型管理、文本生成、对话交互等。你可以通过这些 API 实现以下功能:
如果需要更高级的功能(如知识库检索),可以结合 AnythingLLM 或 Dify 等工具,利用它们的 API 接口实现更复杂的业务逻辑。
作者:Teddy (公众号:码尚云软件)
ok!到这里就大功告成,小编(Teddy)在这里先感谢大家的到来。
虽然不是太详细,小编已经很努力,给小编来个一键三连(点赞,关注,收藏),小编会越来越努力。。。