吴恩达老师上新课了《开发者的ChatGPT提示工程课程》。
链接地址为ChatGPT Prompt Engineering for Developers
01. 课程介绍(吴恩达 x Open AI ChatGPT 提示工程教程)https://www.bilibili.com/video/BV1s24y1F7eq/?spm_id_from=333.1007.top_right_bar_window_history.content.click&vd_source=2a987c3774539d2fa53ee052ab6a2381
prompt-engineering-for-developers
这门课是Isa Fulford和吴恩达老师一起教授。Isa Fulford是OpenAI的技术人员,负责开发ChatGPT检索插件,并教授如何在产品中使用大型语言模型技术。
课程将分享ChatGPT提示的最佳实践,重点是如何使用LLM的API调用快速构建软件应用程序。课程内容涵盖软件开发的最佳实践、常见的用例(摘要、推理、转换、扩展)和构建聊天机器人。希望课程能激发学员的想象力,帮助他们构建新的应用程序。
课程将探讨如何使用LLM API调用快速构建软件应用程序,并介绍软件开发的最佳实践。我们将讨论一些常见的用例,如摘要、推理、转换和扩展,并引导您使用LLM构建一个聊天机器人。我们希望通过这门课程激发您的想象力,帮助您构建出新的应用程序。
第一个原则是编写清晰和具体的说明,第二个原则是给模型足够的时间来思考。
给模型足够的时间来思考其实是:指示模型先解决问题,然后再得出结论。举例来说,我们要求模型判断学生的数学解决方案是否正确。学生的解决方案有一个错误,但在快速阅读时可能不易察觉。为了解决这个问题,我们让模型独立计算并比较解决方案。我们使用特定的格式,包括问题、学生的解决方案、正确的解决方案,然后判断是否一致,并给出学生的评分。这样,模型会先进行自己的计算,得到正确答案,然后在比较时发现不一致,推断学生的解决方案是错误的。这个示例说明了要求模型先解决问题,然后再比较解决方案的重要性,以获得更准确的结果。
通过在文本中使用分隔符,我们可以清楚地告诉模型哪部分文本是我们想要进行摘要的内容。分隔符可以是各种标点符号,例如三个反引号、引号、XML标签或章节标题,只要它们能明确地将特定文本部分与提示的其余部分分隔开即可。这种方法有助于避免提示注入的问题,即用户可能会在提示中添加一些与我们期望的操作冲突的指令,从而使模型按照用户的指令执行而不是我们希望的操作。
要求模型检查条件是否满足。如果任务基于并不一定满足的假设,我们可以告诉模型首先检查这些假设。如果假设不满足,就指示模型指出这一点,并停止尝试完全完成任务。您还可以考虑潜在的边界情况以及模型应该如何处理它们,以避免意外的错误或结果。
我们的下一个策略是
可能虚构听起来合理但实际上不正确的内容。