【OpenAI官方课程】第一课:GPT-Prompt 的构建原则指南

欢迎来到ChatGPT 开发人员提示工程课程(ChatGPT Prompt Engineering for Developers)!本课程将教您如何通过OpenAI API有效地利用大型语言模型(LLM)来创建强大的应用程序。

本课程由OpenAI 的Isa Fulford和 DeepLearning.AI 的Andrew Ng主讲,深入了解 LLM 的运作方式,提供即时工程的最佳实践,并演示 LLM API 在各种应用程序中的使用。

指南提示

在本课程中,您将练习两个提示原则及其相关策略,以编写大型语言模型的有效提示。

一、设置

1.1 加载 API 密钥和相关的 Python 库

在本课程中,我们提供了一些代码,用于为您加载 OpenAI API 密钥。
Input:

import openai
import os

from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())

openai.api_key  = os.getenv('OPENAI_API_KEY')

1.2 辅助函数

在整个课程中,我们将使用 OpenAI 的 gpt-3.5-turbo 模型和聊天完成端点。

这个辅助函数将使您更容易使用提示,并查看生成的输出:
Input:

def get_completion(prompt, model="gpt-3.5-turbo"):
    messages = [{
   "role": "user", "content": prompt}]
    response = openai.ChatCompletion.create(
        model=model,
        messages=messages,
        temperature=0, # 这是模型输出的随机程度
    )
    return response.choices[0].message["content"]

二、提示原则

原则 1:编写清晰具体的说明
原则 2:给模型时间“思考”

2.1 原则 1:编写清晰具体的说明

策略 1:使用界定符清楚指示输入的不同部分
  • 界定符可以是任何内容,如:```, “”", < >, < tag> < /tag>, :

Input:

你可能感兴趣的:(ChatGPT,Prompt官方课程,gpt,prompt,人工智能)