分类目录:《自然语言处理从入门到应用》总目录
在《自然语言处理从入门到应用——LangChain:快速入门》系列文章中我们会用最简练的语言与范例带领大家快速调试并上手LangChain,读者读完本系列的文章后,就会对LangChain有一个大致的了解并可以将LangChain运用到自己开发的程序中。但如果读者想对LangChain的各个模块进行更深入的了解,可以继续学习《自然语言处理从入门到应用——LangChain:核心模块的详细解释》系列文章。本文主要是阐述了LangChain的安装与环境配置过程,最后还会带领读者通过LangChain搭建一个简单的LLM模型。
使用以下命令安装 LangChain:
pip install langchain
或者:
conda install langchain -c conda-forge
使用LangChain通常需要与一个或多个模型提供程序、数据存储、 API 等集成。对于这个例子,我们将使用OpenAI的API,所以我们首先需要安装OpenAI的SDK:
pip install openai
然后我们需要在终端设置环境变量:
export OPENAI_API_KEY="..."
或者,你可以在Jupyter Notebook或Python脚本内完成:
import os
os.environ["OPENAI_API_KEY"] = "..."
现在我们已经安装了LangChain并设置了我们的环境,我们可以开始构建我们的语言模型应用程序了。LangChain提供了许多可用于构建语言模型应用程序的模块。模块可以组合起来创建更复杂的应用程序,或者单独用于简单的应用程序。
LangChain最基本的构建块是对某些输入调用 LLM。让我们来看一个简单的例子。假设我们正在构建一个基于公司产品生成公司名称的服务。为此,我们首先需要导入 LLM 包装器:
from langchain.llms import OpenAI
然后我们可以用任何参数初始化包装器。在这个例子中,我们可能希望输出更加随机,所以我们将以温度(Temperature)为0.9来初始化它。
llm = OpenAI(temperature=0.9)
我们现在可以根据一些输入调用它:
text = "What would be a good company name for a company that makes colorful socks?"
print(llm(text))
输出:
Feetful of Fun
有关如何在LangChain中使用LLM的详细信息,可以参阅LLM入门指南。
调用 LLM是第一步,但这仅仅是个开始。通常在应用程序中使用LLM时,不会将用户输入直接发送到LLM。相反,您可能接受用户输入并构造一个提示符,然后将其发送给LLM。例如,在前一个示例中,我们传入的文本被硬编码为询问一家生产彩色袜子的公司的名称。在这个虚构的服务中,我们希望只获取描述公司业务的用户输入,然后用这些信息格式化提示符。如果使用LangChain,这个事情将会变得很简单。首先让我们定义提示模板:
from langchain.prompts import PromptTemplate
prompt = PromptTemplate(
input_variables=["product"],
template="What is a good name for a company that makes {product}?",
)
我们可以调用.format
方法来格式化它。
print(prompt.format(product="colorful socks"))
输出:
What is a good name for a company that makes colorful socks?
参考文献:
[1] LangChain ️ 中文网,跟着LangChain一起学LLM/GPT开发