提示:如果你认为本文对你有帮助,请点一下关注,后面会有更多人工智能方面的文章。
chatgpt接口官方的名字叫做Chat completions,是指ChatGPT在用户输入一部分内容后,为用户推荐的可能的自动完成内容。这些自动完成的内容可以是一个词、短语、句子甚至是一篇文章等等。Chat completions可以让用户更快地输入想要表达的内容,同时也能提高用户的交互效率和满意度。
使用OpenAI chatgpt API,您可以使用gpt-3.5-turbo和gpt-4构建自己的应用程序,从而实现许多有趣的功能,例如:
还有更多功能可以自行尝试
本文将向您介绍如何调用聊天模型的API,并分享一些使用技巧。您也可以在OpenAI Playground中测试效果。
聊天模型接受一系列消息作为输入,并生成一条由模型生成的消息作为输出。虽然聊天模式旨在使多轮对话容易进行,但它同样
适用于单次任务,而无需进行任何对话。简单的说就是输入一条消息给chatgpt他会给你生成一个回答返回过来,问答可以是多伦
的 像正常的聊天一样。
简单的介绍完了 我们看一下如何使用chatgpt接口。
一个简单的API调用示例如下(python):
import openai
openai.api_key = 'XXXXX'
messages=[]
messages.append({'role': 'system', 'content': "我希望你扮演一个小说家。您将提出富有创意和引人入胜的故事"})
messages.append({'role': 'user', 'content': "你好"})
messages.append({'role': 'assistant', 'content': "你好,请问我能为你做些什么?"})
messages.append({'role': 'user', 'content': "帮我写一篇关于冒险的小说"})
response = openai.ChatCompletion.create(
model='gpt-3.5-turbo',
messages=messages,
)
#上面的GPT-3.5-turbo是使用的GPT3.5模型 可以替换为其他模型如:
# gpt-4
# gpt-4-0314
# gpt-4-32k
# gpt-4-32k-0314
ai_response = response.choices[0].message['content']
print(ai_response)
http请求代码:
curl https://api.openai.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-d '{
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello!"}]
}'
如果你是用的python可以使用python代码,如果你用的是其他语言比如php或者c++等可以使用http请求的方式调用
上面代码主要参数是messages参数。messages必须是一个对象数组,其中每个对象都有一个角色(“system”、“user”或
“assistant”)和内容(消息的内容)。对话可以很短,也可以很长。
一般情况,messages内容先是system消息,然后是交替出现的user和assistant。
类型 | 作用 |
---|---|
system | 设置chatgpt的角色。 |
user | 消息是 给chatgpt提交的我们的问题。 |
assistant | 消息 是chatgpt给返回的消息。 |
其中system消息有助于设置助手的行为。通俗点讲就是可以给chatgpt设定一个角色让它取扮演,例如我上面代码是,指定让
chatgpt“扮演一个小说家”。这样我们后面的问答都是在这个前提下进行的,就是chatgpt会一直扮演一个小说家和我们对话。
system不是必须的,也可以不设置。
注意我上面代码使用了4条消息,分别是“system”、“user” 、“assistant”、“user”
其中system是设定的角色,后面的“user” 、“assistant”是历史记录 就是曾经我问过chatgpt的内容和他回答我的内容
最后一个user才是本次我要问他的内容。为什么要这样呢,因为chatgpt官方没有提供给我们数据存储的功能,所以只能我们
自己存储数据每次需要把历史记录提交给他,chatgpt才能有上下文的功能。当然这样也会浪费更多的tokens。
当我们提交上面的请求,chatgpt会给我们响应,响应格式:
{
'id': 'chatcmpl-6p9XYPYSTTRi0xEviKjjilqrWU2Ve',
'object': 'chat.completion',
'created': 1677649420,
'model': 'gpt-3.5-turbo',
'usage': {'prompt_tokens': 56, 'completion_tokens': 31, 'total_tokens': 87},
'choices': [
{
'message': {
'role': 'assistant',
'content': 'The 2020 World Series was played in Arlington, Texas at the Globe Life Field, which was the new home stadium for the Texas Rangers.'},
'finish_reason': 'stop',
'index': 0
}
]
}
我们可以ai_response = response.choices[0].message[‘content’]这样取出返回的内容
每个响应都包含一个finish_reason。finish_reason的可能值包括:
值 | 说明 |
---|---|
stop | API返回完整的模型输出 |
length | 由于max_tokens参数或令牌限制而导致的不完整模型输出 |
content_filter | 由于我们的内容过滤器的标志而省略的内容 |
null | API响应仍在进行中或不完整 |
finish_reason的值在这个事例中作用体现不大,后面开发流式传输(steam)会有用,后面会专门讲如何开发流式传输实现打字机的效果
usage字段:在ChatGPT接口返回的内容中,usage字段是用来记录API调用时消耗的token数目的,具体含义如下:
值 | 说明 |
---|---|
prompt_tokens | 表示消息输入中使用的token数目,即API请求时消息的token数目。 |
completion_tokens | 表示API返回的响应消息中使用的token数目,即模型预测生成的响应消息的token数目。 |
total_tokens | 表示整个API调用过程中使用的总token数目,包括输入和输出的所有token数目。 |
需要注意的是,每个API调用的token数目将影响API的调用时间和费用,并且总token数目必须在模型允许的最大token限制(例
如gpt-3.5-turbo-0301模型的最大限制为4096个token)以内。如果超出了这个限制,则需要缩短输入或者输出的token数目以符合
模型的最大限制。
管理tokens
语言模型以称为token的块读取文本。在英语中,token可以短至一个字符或长至一个单词(例如a或apple),在某些语言中,
token甚至可以比一个字符更短或比一个单词更长。
例如,字符串“ChatGPT is great!”被编码为六个令牌:[“Chat”, “G”, “PT”, " is", " great", “!”]。
而在中文中:1个汉字大致是2~2.5个token。
API调用中的令牌总数影响:
1 | 接口根据token多少收费,token越多费用越高 |
2 | 总token必须低于模型的最大限制(gpt-3.5-turbo-0301的最大令牌数为4096) |
3 | 使用的token越多 API响应时间越长 |
输入和输出令牌都计入这些数量。例如,如果您的API调用在消息输入中使用了10个token,并且您收到了20个token的消息输
出,则将为您计费30个token。**
要查看API调用使用了多少令牌,请检查API响应中的usage字段(例如,response[‘usage’][‘total_tokens’])。
像gpt-3.5-turbo和gpt-4这样的聊天模型以与其他模型相同的方式使用令牌,但由于它们是基于消息格式的,因此更难以计算一个
对话将使用多少令牌。
如何计算聊天API调用的令牌
要查看文本字符串中有多少令牌而不进行API调用,请使用OpenAI的tiktoken Python库。有关如何使用tiktoken计算令牌的指南可
以在OpenAI Cookbook中找到示例代码。后面会专门讲一下
本文展示了如何调用OpenAI ChatGPT API,以及一些参数的说明,提供了使用技巧和Python和HTTP请求代码示例。下一篇讲一
下其他的一些参数的作用,例如温度等。