跳至主要内容

Vespa Retriever

这展示了如何使用 Vespa.ai 作为 LangChain 检索器。Vespa.ai 是一个用于高效结构化文本和向量搜索的平台。有关更多信息,请参考 Vespa.ai

以下设置了一个检索器,该检索器从 Vespa 的文档搜索中获取结果

import { VespaRetriever } from "@langchain/community/retrievers/vespa";

export const run = async () => {
const url = "https://doc-search.vespa.oath.cloud";
const query_body = {
yql: "select content from paragraph where userQuery()",
hits: 5,
ranking: "documentation",
locale: "en-us",
};
const content_field = "content";

const retriever = new VespaRetriever({
url,
auth: false,
query_body,
content_field,
});

const result = await retriever.invoke("what is vespa?");
console.log(result);
};

API 参考

这里,使用 documentation 作为排名方法,从 paragraph 文档类型中的 content 字段检索最多 5 个结果。userQuery() 被替换为从 LangChain 传递的实际查询。

有关更多信息,请参考 pyvespa 文档

URL 是 Vespa 应用程序的端点。您可以连接到任何 Vespa 端点,无论是远程服务还是使用 Docker 的本地实例。但是,大多数 Vespa 云实例都受 mTLS 保护。如果是这种情况,您可以例如设置一个 CloudFlare Worker,其中包含连接到实例所需的凭据。

现在,您可以返回结果并继续在 LangChain 中使用它们。


此页面对您有帮助吗?


您也可以在 GitHub 上留下详细的反馈 on GitHub.