跳到主要内容

ChatDeepInfra

LangChain 支持由 Deep Infra 托管的聊天模型,通过 ChatDeepInfra 封装器。首先,您需要安装 @langchain/community

npm install @langchain/community @langchain/core

您需要获取 API 密钥并将其设置为名为 DEEPINFRA_API_TOKEN 的环境变量(或者将其传递到构造函数中),然后如下所示调用模型

import { ChatDeepInfra } from "@langchain/community/chat_models/deepinfra";
import { HumanMessage } from "@langchain/core/messages";

const apiKey = process.env.DEEPINFRA_API_TOKEN;

const model = "meta-llama/Meta-Llama-3-70B-Instruct";

const chat = new ChatDeepInfra({
model,
apiKey,
});

const messages = [new HumanMessage("Hello")];

const res = await chat.invoke(messages);

console.log(res);

API 参考


此页内容是否对您有帮助?


您也可以留下详细的反馈 在 GitHub 上.