PineconeStore
Pinecone 是一个向量数据库,帮助为世界上一些最优秀的公司提供 AI 支持。
本指南快速概述了如何开始使用 Pinecone 向量存储。有关所有 PineconeStore
功能和配置的详细文档,请访问 API 参考。
概述
集成细节
类 | 包 | PY 支持 | 最新包 |
---|---|---|---|
PineconeStore | @langchain/pinecone | ✅ |
设置
要使用 Pinecone 向量存储,您需要创建一个 Pinecone 帐户,初始化一个索引,并安装 @langchain/pinecone
集成包。您还需要安装 官方 Pinecone SDK 以初始化一个客户端,将其传递到 PineconeStore
实例中。
本指南还将使用 OpenAI 嵌入,这要求您安装 @langchain/openai
集成包。如果您愿意,也可以使用 其他支持的嵌入模型。
有关安装集成包的一般说明,请参阅 此部分。
- npm
- yarn
- pnpm
npm i @langchain/pinecone @langchain/openai @langchain/core @pinecone-database/pinecone
yarn add @langchain/pinecone @langchain/openai @langchain/core @pinecone-database/pinecone
pnpm add @langchain/pinecone @langchain/openai @langchain/core @pinecone-database/pinecone
凭据
注册一个 Pinecone 帐户并创建一个索引。确保维度与您要使用的嵌入的维度相匹配(OpenAI 的 text-embedding-3-small
的默认值为 1536)。完成此操作后,设置 PINECONE_INDEX
、PINECONE_API_KEY
和(可选)PINECONE_ENVIRONMENT
环境变量
process.env.PINECONE_API_KEY = "your-pinecone-api-key";
process.env.PINECONE_INDEX = "your-pinecone-index";
// Optional
process.env.PINECONE_ENVIRONMENT = "your-pinecone-environment";
如果您在本指南中使用 OpenAI 嵌入,则还需要设置 OpenAI 密钥
process.env.OPENAI_API_KEY = "YOUR_API_KEY";
如果您希望自动跟踪模型调用,还可以通过取消注释以下内容来设置 LangSmith API 密钥
// process.env.LANGCHAIN_TRACING_V2="true"
// process.env.LANGCHAIN_API_KEY="your-api-key"
实例化
import { PineconeStore } from "@langchain/pinecone";
import { OpenAIEmbeddings } from "@langchain/openai";
import { Pinecone as PineconeClient } from "@pinecone-database/pinecone";
const embeddings = new OpenAIEmbeddings({
model: "text-embedding-3-small",
});
const pinecone = new PineconeClient();
// Will automatically read the PINECONE_API_KEY and PINECONE_ENVIRONMENT env vars
const pineconeIndex = pinecone.Index(process.env.PINECONE_INDEX!);
const vectorStore = await PineconeStore.fromExistingIndex(embeddings, {
pineconeIndex,
// Maximum number of batch requests to allow at once. Each batch is 1000 vectors.
maxConcurrency: 5,
// You can pass a namespace here too
// namespace: "foo",
});
管理向量存储
将项目添加到向量存储
import type { Document } from "@langchain/core/documents";
const document1: Document = {
pageContent: "The powerhouse of the cell is the mitochondria",
metadata: { source: "https://example.com" },
};
const document2: Document = {
pageContent: "Buildings are made out of brick",
metadata: { source: "https://example.com" },
};
const document3: Document = {
pageContent: "Mitochondria are made out of lipids",
metadata: { source: "https://example.com" },
};
const document4: Document = {
pageContent: "The 2024 Olympics are in Paris",
metadata: { source: "https://example.com" },
};
const documents = [document1, document2, document3, document4];
await vectorStore.addDocuments(documents, { ids: ["1", "2", "3", "4"] });
[ '1', '2', '3', '4' ]
注意:添加文档后,它们需要一段时间才能变得可查询。
从向量存储中删除项目
await vectorStore.delete({ ids: ["4"] });
查询向量存储
一旦您的向量存储创建完毕,并且相关文档添加完毕,您很可能希望在链或代理运行期间查询它。
直接查询
可以执行简单的相似性搜索,如下所示
// Optional filter
const filter = { source: "https://example.com" };
const similaritySearchResults = await vectorStore.similaritySearch(
"biology",
2,
filter
);
for (const doc of similaritySearchResults) {
console.log(`* ${doc.pageContent} [${JSON.stringify(doc.metadata, null)}]`);
}
* The powerhouse of the cell is the mitochondria [{"source":"https://example.com"}]
* Mitochondria are made out of lipids [{"source":"https://example.com"}]
如果您想执行相似性搜索并接收相应的得分,您可以运行
const similaritySearchWithScoreResults =
await vectorStore.similaritySearchWithScore("biology", 2, filter);
for (const [doc, score] of similaritySearchWithScoreResults) {
console.log(
`* [SIM=${score.toFixed(3)}] ${doc.pageContent} [${JSON.stringify(
doc.metadata
)}]`
);
}
* [SIM=0.165] The powerhouse of the cell is the mitochondria [{"source":"https://example.com"}]
* [SIM=0.148] Mitochondria are made out of lipids [{"source":"https://example.com"}]
通过转换为检索器进行查询
您还可以将向量存储转换为 检索器,以便更轻松地将其用于您的链中。
const retriever = vectorStore.asRetriever({
// Optional filter
filter: filter,
k: 2,
});
await retriever.invoke("biology");
[
Document {
pageContent: 'The powerhouse of the cell is the mitochondria',
metadata: { source: 'https://example.com' },
id: undefined
},
Document {
pageContent: 'Mitochondria are made out of lipids',
metadata: { source: 'https://example.com' },
id: undefined
}
]
检索增强生成的使用
有关如何使用此向量存储进行检索增强生成 (RAG) 的指南,请参阅以下部分
API 参考
有关所有 PineconeStore
功能和配置的详细文档,请访问 API 参考。