LLM 词汇表

Context window

“上下文窗口”是指语言模型在生成新文本时能够回溯和参考的文本量。这不同于语言模型训练时所使用的大量数据集,而是代表了模型的“工作记忆”。较大的上下文窗口可以让模型理解和响应更复杂和更长的提示,而较小的上下文窗口可能会限制模型处理较长提示或在长时间对话中保持连贯性的能力。

Fine-tuning

微调是使用额外的数据进一步训练预训练语言模型的过程。这使得模型开始表示和模仿微调数据集的模式和特征。Claude并不是一个单纯的语言模型;它已经经过微调以成为一个有用的助手。我们的API目前不提供微调服务,但如果您有兴趣探索此选项,请联系您的Anthropic联系人。微调可以用于将语言模型适应特定领域、任务或写作风格,但需要仔细考虑微调数据及其对模型性能和偏见的潜在影响。

HHH

这三个H代表了确保LLM对社会有益的目标:

  • 一个有用的AI将尝试尽其所能完成任务或回答问题,提供相关且有用的信息。
  • 一个诚实的AI将提供准确的信息,而不会凭空捏造或虚构。当适当时,它会承认自己的局限性和不确定性。
  • 一个无害的AI不会冒犯或歧视,当被要求协助进行危险或不道德的行为时,AI应礼貌地拒绝并解释为什么不能配合。

Latency

在生成式AI和大型语言模型的背景下,延迟指的是模型对给定提示作出响应所需的时间。它是从提交提示到接收到生成输出之间的延迟。较低的延迟意味着更快的响应时间,这对于实时应用、聊天机器人和互动体验至关重要。影响延迟的因素包括模型大小、硬件能力、网络状况、提示和生成响应的复杂性。

LLM

大型语

你可能感兴趣的:(LLMs,NLP,大语言模型,大模型,llama,人工智能)