跳至主要内容

ChatCloudflareWorkersAI

Workers AI 允许您从自己的代码中运行 Cloudflare 网络上的机器学习模型。

这将帮助您开始使用 Cloudflare Workers AI 聊天模型。有关所有 ChatCloudflareWorkersAI 功能和配置的详细文档,请转到 API 参考.

概述

集成详细信息

本地可序列化PY 支持包下载包最新
ChatCloudflareWorkersAI@langchain/cloudflareNPM - DownloadsNPM - Version

模型功能

有关如何使用特定功能的指南,请参阅下方表头中的链接。

工具调用结构化输出JSON 模式图像输入音频输入视频输入令牌级流式传输令牌使用情况Logprobs

设置

要访问 Cloudflare Workers AI 模型,您需要创建一个 Cloudflare 帐户,获取 API 密钥并安装 @langchain/cloudflare 集成包。

凭据

前往 此页面 注册 Cloudflare 并生成 API 密钥。完成此操作后,记下您的 CLOUDFLARE_ACCOUNT_IDCLOUDFLARE_API_TOKEN

Cloudflare Worker 中的绑定传递尚未支持。

安装

LangChain ChatCloudflareWorkersAI 集成位于 @langchain/cloudflare 包中

提示

有关安装集成包的一般说明,请参阅 此部分.

yarn add @langchain/cloudflare

实例化

现在我们可以实例化我们的模型对象并生成聊天完成内容

import { ChatCloudflareWorkersAI } from "@langchain/cloudflare";

const llm = new ChatCloudflareWorkersAI({
model: "@cf/meta/llama-2-7b-chat-int8", // Default value
cloudflareAccountId: CLOUDFLARE_ACCOUNT_ID,
cloudflareApiToken: CLOUDFLARE_API_TOKEN,
// Pass a custom base URL to use Cloudflare AI Gateway
// baseUrl: `https://gateway.ai.cloudflare.com/v1/{YOUR_ACCOUNT_ID}/{GATEWAY_NAME}/workers-ai/`,
});

调用

const aiMsg = await llm.invoke([
[
"system",
"You are a helpful assistant that translates English to French. Translate the user sentence.",
],
["human", "I love programming."],
]);
aiMsg;
AIMessage {
lc_serializable: true,
lc_kwargs: {
content: 'I can help with that! The translation of "I love programming" in French is:\n' +
"\n" +
`"J'adore le programmati`... 4 more characters,
tool_calls: [],
invalid_tool_calls: [],
additional_kwargs: {},
response_metadata: {}
},
lc_namespace: [ "langchain_core", "messages" ],
content: 'I can help with that! The translation of "I love programming" in French is:\n' +
"\n" +
`"J'adore le programmati`... 4 more characters,
name: undefined,
additional_kwargs: {},
response_metadata: {},
tool_calls: [],
invalid_tool_calls: []
}
console.log(aiMsg.content);
I can help with that! The translation of "I love programming" in French is:

"J'adore le programmation."

链式连接

我们可以使用提示模板将我们的模型 链式连接,如下所示

import { ChatPromptTemplate } from "@langchain/core/prompts";

const prompt = ChatPromptTemplate.fromMessages([
[
"system",
"You are a helpful assistant that translates {input_language} to {output_language}.",
],
["human", "{input}"],
]);

const chain = prompt.pipe(llm);
await chain.invoke({
input_language: "English",
output_language: "German",
input: "I love programming.",
});
AIMessage {
lc_serializable: true,
lc_kwargs: {
content: "Das Programmieren ist für mich sehr Valent sein!",
tool_calls: [],
invalid_tool_calls: [],
additional_kwargs: {},
response_metadata: {}
},
lc_namespace: [ "langchain_core", "messages" ],
content: "Das Programmieren ist für mich sehr Valent sein!",
name: undefined,
additional_kwargs: {},
response_metadata: {},
tool_calls: [],
invalid_tool_calls: []
}

API 参考

有关所有 ChatCloudflareWorkersAI 功能和配置的详细文档,请转到 API 参考:https://api.js.langchain.com/classes/langchain_cloudflare.ChatCloudflareWorkersAI.html


此页面对您有帮助吗?


您也可以在 GitHub 上留下详细的反馈 GitHub.