python调用ollama库详解

0 准备

1)准备Ollama软件(注意:两个不是同一个东西)

详见上次的文章 Ollama通过gguf文件加载AI模型(补充:关于Ollama加载AI模型的补充)

2)准备ollama库

如果您还未安装ollama库,请使用pip安装:

pip install ollama

#1 ollama库的基本使用

import ollama

# 普通输出(请先按照准备工作中的要求安装模型)
back = ollama.chat(model="你的模型名称",messages=[{"role": "user","content": "生成一句简短的话"}],
                   stream = False, # 是否流式输出)
print(back)

#流式输出
back = ollama.chat(model="你的模型名称",messages=[{"role": "user","content": "生成一句简短的话"}],
                   stream = True, # 是否流式输出)
for i in back:
    print(back,end = "")

#2 ollama库的进阶使用

1)options参数设置

import ollama
back = ollama.chat(model="你的模型名称",messages=[{"role": "user","content": "生成一句简短的话"}],
                   options = {"temperature":1145141919810, # 模型温度
                              "num_ctx":4096               # 返回的最大token数
                             } # ...
                   stream = True, # 是否流式输出)
for i in back:
    print(back,end = "")
参数 默认值 解释
num_keep 5 保留的上下文数量。
seed 42 随机数生成器的种子,用于控制随机性。
num_predict -1 预测的单词数量。(此处已修改,原先的默认值100是不对的!)
top_k 20 从概率分布中选择最高概率的前k个候选项。
top_p 0.9 从概率分布中选择累积概率达到阈值p的候选项。
min_p 0.0 最低概率阈值,低于此阈值的候选项将被忽略。
tfs_z 0.5 温度缩放因子,用于调整概率分布的形状。
typical_p 0.7 典型性惩罚系数,用于调整概率分布的形状。
repeat_last_n 33 重复最后n个词的概率。
temperature 0.8 温度参数,用于调整概率分布的形状。
repeat_penalty 1.2 重复惩罚系数,用于调整重复词的概率。
presence_penalty 1.5 存在惩罚系数,用于调整已出现的词的概率。
frequency_penalty 1.0 频率惩罚系数,用于调整频繁出现的词的概率。
mirostat 1 Mirostat算法的启用状态(0表示禁用,1表示启用)。
mirostat_tau 0.8 Mirostat算法的温度参数。
mirostat_eta 0.6 Mirostat算法的学习率参数。
penalize_newline True 是否对换行符进行惩罚。
stop [" ", "user:"] 停止生成的条件列表。
numa False 是否启用NUMA(非一致性内存访问)优化。
num_ctx 1024 上下文的最大长度。
num_batch 2 批处理大小。
num_gpu 1 使用的GPU数量。
main_gpu 0 主GPU的索引。
low_vram False 是否启用低显存模式。
f16_kv True 是否使用半精度浮点数存储键值对。
vocab_only False 是否仅加载词汇表,不加载模型权重。
use_mmap True 是否使用内存映射文件。
use_mlock False 是否锁定内存以防止交换。
num_thread 8 使用的线程数量。

20240829:

        终于找到了官方释义:docs/modelfile.md 的 ·OLLAMA/OLLAMA - Gitee.com

2)返回的json对象处理

返回的json对象在没有问题的情况下应该是类似这种结构的:

1.无流式输出:
{
  "model": "qwen_q2",
  "created_at": "2024-08-26T04:36:19.6943135Z",
  "response": "请问你有什么需要帮助的吗?",
  "done": true,
  "context": [1, 2, 3],
  "total_duration": 5043500667,
  "load_duration": 5025959,
  "prompt_eval_count": 26,
  "prompt_eval_duration": 325953000,
  "eval_count": 290,
  "eval_duration": 4709213000
}
2.流式输出(过程中)
{
 'model': 'qwen_q2', 
 'created_at': '2024-08-26T04:40:30.6774372Z', 
 'message':
         {
          'role': 'assistant',
          'content': '我的'
         }, 
 'done': False
}
3.流式输出(输出完毕的最后一个)
{
  'model': 'qwen_q2',
  'created_at': '2024-08-26T04:44:04.4184675Z', 
  'message': 
            {
             'role': 'assistant', 
             'content': ''
            }, 
  'done_reason': 'stop', 
  'done': True, 
  'total_duration': 13224925100, 
  'load_duration': 298635100, 
  'prompt_eval_count': 16, 
  'prompt_eval_duration': 4843681000, 
  'eval_count': 11, 
  'eval_duration': 8048190000
}

可以根据"done"的内容判断输出是否完成。

流式输出时可以在每次获得输出时记录时间,以计算实时响应速度。

不使用流式输出和使用流式输出时都可以在输出完毕后通过  'eval_count' 和 'eval_duration' 参数来计算这次对话中的平均响应速度(token/s)


制作不易,感谢大家的支持!

你可能感兴趣的:(python,开发语言,人工智能,经验分享,语言模型)