跳到主要内容

如何跟踪令牌使用情况

先决条件

本指南假设熟悉以下概念

此笔记本介绍了如何跟踪特定 LLM 调用的令牌使用情况。这仅由一些提供商(包括 OpenAI)实现。

以下是如何通过回调跟踪单个 LLM 调用的令牌使用情况的示例

npm install @langchain/openai @langchain/core
import { OpenAI } from "@langchain/openai";

const llm = new OpenAI({
model: "gpt-3.5-turbo-instruct",
callbacks: [
{
handleLLMEnd(output) {
console.log(JSON.stringify(output, null, 2));
},
},
],
});

await llm.invoke("Tell me a joke.");

/*
{
"generations": [
[
{
"text": "\n\nWhy don't scientists trust atoms?\n\nBecause they make up everything.",
"generationInfo": {
"finishReason": "stop",
"logprobs": null
}
}
]
],
"llmOutput": {
"tokenUsage": {
"completionTokens": 14,
"promptTokens": 5,
"totalTokens": 19
}
}
}
*/

API 参考

  • OpenAI 来自 @langchain/openai

如果此模型传递给多次调用它的链或代理,它将在每次调用时记录输出。

下一步

现在您已经了解了如何获取受支持的 LLM 提供商的令牌使用情况。

接下来,查看本节中的其他操作指南,例如 如何实现你自己的自定义 LLM.


此页面对您有帮助吗?


你也可以留下详细的反馈 在 GitHub 上.