跳到主要内容

检索增强生成 (RAG)

[准备工作]

概述

检索增强生成 (RAG) 是一种强大的技术,它通过将语言模型与外部知识库相结合来增强语言模型的能力。RAG 解决了模型的一个关键限制:模型依赖于固定的训练数据集,这可能导致信息过时或不完整。当给定一个查询时,RAG 系统首先在知识库中搜索相关信息。然后,系统将检索到的信息整合到模型的提示中。模型使用提供的上下文来生成对查询的响应。通过弥合大型语言模型和动态、有针对性的信息检索之间的差距,RAG 是构建更强大和更可靠的 AI 系统的强大技术。

关键概念

Conceptual Overview

(1) 检索系统:从知识库中检索相关信息。

(2) 添加外部知识:将检索到的信息传递给模型。

检索系统

模型具有内部知识,这些知识通常是固定的,或者至少由于训练成本高昂而不会频繁更新。这限制了它们回答有关当前事件的问题或提供特定领域知识的能力。为了解决这个问题,有各种知识注入技术,例如微调或持续预训练。两者都成本高昂,并且通常不适合事实检索。使用检索系统具有以下几个优点

  • 最新的信息:RAG 可以访问和利用最新的数据,保持响应的及时性。
  • 领域特定的专业知识:借助领域特定的知识库,RAG 可以在特定领域提供答案。
  • 减少幻觉:将响应建立在检索到的事实上,有助于最大限度地减少虚假或捏造的信息。
  • 高性价比的知识整合:RAG 提供了一种比昂贵的模型微调更有效的替代方案。
[延伸阅读]

请参阅我们的关于检索的概念指南。

添加外部知识

在建立了检索系统之后,我们需要将来自该系统的知识传递给模型。RAG 管道通常通过以下步骤实现这一点

  • 接收输入查询。
  • 使用检索系统根据查询搜索相关信息。
  • 将检索到的信息整合到发送给 LLM 的提示中。
  • 生成利用检索到的上下文的响应。

例如,这是一个简单的 RAG 工作流程,它将信息从检索器传递到聊天模型

import { ChatOpenAI } from "@langchain/openai";

// Define a system prompt that tells the model how to use the retrieved context
const systemPrompt = `You are an assistant for question-answering tasks.
Use the following pieces of retrieved context to answer the question.
If you don't know the answer, just say that you don't know.
Use three sentences maximum and keep the answer concise.
Context: {context}:`;

// Define a question
const question =
"What are the main components of an LLM-powered autonomous agent system?";

// Retrieve relevant documents
const docs = await retriever.invoke(question);

// Combine the documents into a single string
const docsText = docs.map((d) => d.pageContent).join("");

// Populate the system prompt with the retrieved context
const systemPromptFmt = systemPrompt.replace("{context}", docsText);

// Create a model
const model = new ChatOpenAI({
model: "gpt-4o",
temperature: 0,
});

// Generate a response
const questions = await model.invoke([
{
role: "system",
content: systemPromptFmt,
},
{
role: "user",
content: question,
},
]);
[延伸阅读]

RAG 是一个深入的领域,有许多可能的优化和设计选择


此页是否对您有帮助?


您也可以留下详细的反馈 在 GitHub 上.