跳转到主要内容

如何链式调用 runnables

关于 LangChain 表达式语言 的一点是,任何两个 runnable 都可以“链式”连接成序列。前一个 runnable 的 .invoke() 调用的输出将作为下一个 runnable 的输入传递。这可以使用 .pipe() 方法完成。

生成的 RunnableSequence 本身也是一个 runnable,这意味着它可以像任何其他 runnable 一样被调用、流式传输或进一步链式连接。以这种方式链式连接 runnable 的优点是高效的流式传输(序列将在输出可用时立即流式传输),以及使用 LangSmith 等工具进行调试和追踪。

先决条件

pipe 方法

为了展示其工作原理,让我们看一个例子。我们将逐步介绍 LangChain 中的常见模式:使用 提示模板 将输入格式化为 聊天模型,最后使用 输出解析器 将聊天消息输出转换为字符串。

选择您的聊天模型

安装依赖

提示

请参阅 此部分 获取有关安装集成包的通用说明.

yarn add @langchain/groq 

添加环境变量

GROQ_API_KEY=your-api-key

实例化模型

import { ChatGroq } from "@langchain/groq";

const model = new ChatGroq({
model: "llama-3.3-70b-versatile",
temperature: 0
});
提示

请参阅 此部分 获取有关安装集成包的通用说明。

yarn add langchain @langchain/core
import { StringOutputParser } from "@langchain/core/output_parsers";
import { ChatPromptTemplate } from "@langchain/core/prompts";

const prompt = ChatPromptTemplate.fromTemplate("tell me a joke about {topic}");

const chain = prompt.pipe(model).pipe(new StringOutputParser());

提示和模型都是 runnable,并且来自提示调用的输出类型与聊天模型的输入类型相同,因此我们可以将它们链接在一起。然后,我们可以像任何其他 runnable 一样调用生成的序列

await chain.invoke({ topic: "bears" });
"Here's a bear joke for you:\n\nWhy did the bear dissolve in water?\nBecause it was a polar bear!"

强制转换

我们甚至可以将此链与更多 runnable 组合以创建另一个链。这可能涉及使用其他类型的 runnable 进行一些输入/输出格式化,具体取决于链组件的所需输入和输出。

例如,假设我们想将笑话生成链与另一个评估生成的笑话是否有趣的链组合起来。

我们需要小心如何将输入格式化到下一个链中。在下面的示例中,链中的字典会自动解析并转换为 RunnableParallel,它并行运行其所有值并返回包含结果的字典。

这恰好是下一个提示模板期望的相同格式。这是它的实际效果

import { RunnableLambda } from "@langchain/core/runnables";

const analysisPrompt = ChatPromptTemplate.fromTemplate(
"is this a funny joke? {joke}"
);

const composedChain = new RunnableLambda({
func: async (input: { topic: string }) => {
const result = await chain.invoke(input);
return { joke: result };
},
})
.pipe(analysisPrompt)
.pipe(model)
.pipe(new StringOutputParser());

await composedChain.invoke({ topic: "bears" });
'Haha, that\'s a clever play on words! Using "polar" to imply the bear dissolved or became polar/polarized when put in water. Not the most hilarious joke ever, but it has a cute, groan-worthy pun that makes it mildly amusing. I appreciate a good pun or wordplay joke.'

函数也会被强制转换为 runnable,因此您也可以向您的链添加自定义逻辑。下面的链产生与之前相同的逻辑流程

import { RunnableSequence } from "@langchain/core/runnables";

const composedChainWithLambda = RunnableSequence.from([
chain,
(input) => ({ joke: input }),
analysisPrompt,
model,
new StringOutputParser(),
]);

await composedChainWithLambda.invoke({ topic: "beets" });
"Haha, that's a cute and punny joke! I like how it plays on the idea of beets blushing or turning red like someone blushing. Food puns can be quite amusing. While not a total knee-slapper, it's a light-hearted, groan-worthy dad joke that would make me chuckle and shake my head. Simple vegetable humor!"

请参阅上面运行的 LangSmith 跟踪 此处

但是,请记住,像这样使用函数可能会干扰流式传输等操作。有关更多信息,请参阅 此部分

下一步

您现在了解了一些将两个 runnable 链接在一起的方法。

要了解更多信息,请参阅 此部分 中关于 runnable 的其他操作指南。


此页对您有帮助吗?


您也可以留下详细的反馈 在 GitHub 上.