大模型的应用与微调:如何调用 LLM?从 OpenAI API 到本地部署

本篇文章将详细介绍如何调用大语言模型(LLM),涵盖 OpenAI API、DeepSeek、Manus、通义千问等模型的调用方式,并探讨如何在本地部署 LLM 进行推理。


1. 调用 OpenAI API(GPT 系列)

OpenAI 提供了 RESTful API 供开发者调用 GPT 系列模型。

示例:使用 Python 调用 OpenAI API

import openai

openai.api_key = "your_api_key"

response = openai.ChatCompletion.create(
    model="gpt-4",
    messages=[{"role": "system", "content": "You are a helpful assistant."},
              {"role": "user", "content": "给我写一段Python代码,实现冒泡排序。"}]
)
print(response["choices"][0]["message"]["content"])

2. 调用 DeepSeek API

DeepSeek 提供了 LLM 及代码生成模型 Deep

你可能感兴趣的:(AI,大模型,ai,语言模型,gpt,人工智能)