Vespa Retriever
本文展示了如何将 Vespa.ai 用作 LangChain 检索器。Vespa.ai 是一个用于高效结构化文本和向量搜索的平台。请参考 Vespa.ai 获取更多信息。
以下设置了一个检索器,用于从 Vespa 的文档搜索中获取结果
import { VespaRetriever } from "@langchain/community/retrievers/vespa";
export const run = async () => {
const url = "https://doc-search.vespa.oath.cloud";
const query_body = {
yql: "select content from paragraph where userQuery()",
hits: 5,
ranking: "documentation",
locale: "en-us",
};
const content_field = "content";
const retriever = new VespaRetriever({
url,
auth: false,
query_body,
content_field,
});
const result = await retriever.invoke("what is vespa?");
console.log(result);
};
API 文档
- VespaRetriever 来自
@langchain/community/retrievers/vespa
这里,最多从 `paragraph` 文档类型的 `content` 字段中检索 5 个结果,使用 `documentation` 作为排序方法。`userQuery()` 将被替换为从 LangChain 传递的实际查询。
请参考 pyvespa 文档获取更多信息。
URL 是 Vespa 应用程序的端点。你可以连接到任何 Vespa 端点,无论是远程服务还是使用 Docker 的本地实例。然而,大多数 Vespa Cloud 实例都受到 mTLS 保护。如果属于这种情况,你可以例如设置一个 CloudFlare Worker,其中包含连接到实例所需的凭据。
现在你可以返回结果并在 LangChain 中继续使用它们。