ChatDeepSeek
这将帮助您开始使用 DeepSeek 聊天模型。有关所有 ChatDeepSeek
功能和配置的详细文档,请访问 API 参考。
概述
集成详情
类 | 包 | 本地 | 可序列化 | PY 支持 | 包下载量 | 最新包 |
---|---|---|---|---|---|---|
ChatDeepSeek | @langchain/deepseek | ❌(参见 Ollama) | beta | ✅ | ![]() | ![]() |
模型功能
请参阅下表标题中的链接,以获取有关如何使用特定功能的指南。
工具调用 | 结构化输出 | JSON 模式 | 图像输入 | 音频输入 | 视频输入 | 令牌级流式传输 | 令牌使用量 | Logprobs |
---|---|---|---|---|---|---|---|---|
✅ | ✅ | ✅ | ❌ | ❌ | ❌ | ✅ | ✅ | ✅ |
请注意,截至 2025 年 1 月 27 日,deepseek-reasoner
尚不支持工具调用和结构化输出。
设置
要访问 DeepSeek 模型,您需要创建一个 DeepSeek 帐户,获取 API 密钥,并安装 @langchain/deepseek
集成包。
您还可以通过 Together AI 或 Ollama 等提供商访问 DeepSeek API。
凭证
访问 https://deepseek.com/ 注册 DeepSeek 并生成 API 密钥。完成后,设置 DEEPSEEK_API_KEY
环境变量
export DEEPSEEK_API_KEY="your-api-key"
如果您希望获得模型调用的自动追踪,您还可以通过取消注释以下内容来设置您的 LangSmith API 密钥
# export LANGSMITH_TRACING="true"
# export LANGSMITH_API_KEY="your-api-key"
安装
LangChain ChatDeepSeek 集成位于 @langchain/deepseek
包中
提示
请参阅此部分,了解有关安装集成包的一般说明。
- npm
- yarn
- pnpm
npm i @langchain/deepseek @langchain/core
yarn add @langchain/deepseek @langchain/core
pnpm add @langchain/deepseek @langchain/core
实例化
现在我们可以实例化我们的模型对象并生成聊天完成
import { ChatDeepSeek } from "@langchain/deepseek";
const llm = new ChatDeepSeek({
model: "deepseek-reasoner",
temperature: 0,
// other params...
});
const aiMsg = await llm.invoke([
[
"system",
"You are a helpful assistant that translates English to French. Translate the user sentence.",
],
["human", "I love programming."],
]);
aiMsg;
AIMessage {
"id": "e2874482-68a7-4552-8154-b6a245bab429",
"content": "J'adore la programmation.",
"additional_kwargs": {,
"reasoning_content": "...",
},
"response_metadata": {
"tokenUsage": {
"promptTokens": 23,
"completionTokens": 7,
"totalTokens": 30
},
"finish_reason": "stop",
"model_name": "deepseek-reasoner",
"usage": {
"prompt_tokens": 23,
"completion_tokens": 7,
"total_tokens": 30,
"prompt_tokens_details": {
"cached_tokens": 0
},
"prompt_cache_hit_tokens": 0,
"prompt_cache_miss_tokens": 23
},
"system_fingerprint": "fp_3a5770e1b4"
},
"tool_calls": [],
"invalid_tool_calls": [],
"usage_metadata": {
"output_tokens": 7,
"input_tokens": 23,
"total_tokens": 30,
"input_token_details": {
"cache_read": 0
},
"output_token_details": {}
}
}
console.log(aiMsg.content);
J'adore la programmation.
链接
我们可以像这样使用提示模板链接我们的模型
import { ChatPromptTemplate } from "@langchain/core/prompts";
const prompt = ChatPromptTemplate.fromMessages([
[
"system",
"You are a helpful assistant that translates {input_language} to {output_language}.",
],
["human", "{input}"],
]);
const chain = prompt.pipe(llm);
await chain.invoke({
input_language: "English",
output_language: "German",
input: "I love programming.",
});
AIMessage {
"id": "6e7f6f8c-8d7a-4dad-be07-425384038fd4",
"content": "Ich liebe es zu programmieren.",
"additional_kwargs": {,
"reasoning_content": "...",
},
"response_metadata": {
"tokenUsage": {
"promptTokens": 18,
"completionTokens": 9,
"totalTokens": 27
},
"finish_reason": "stop",
"model_name": "deepseek-reasoner",
"usage": {
"prompt_tokens": 18,
"completion_tokens": 9,
"total_tokens": 27,
"prompt_tokens_details": {
"cached_tokens": 0
},
"prompt_cache_hit_tokens": 0,
"prompt_cache_miss_tokens": 18
},
"system_fingerprint": "fp_3a5770e1b4"
},
"tool_calls": [],
"invalid_tool_calls": [],
"usage_metadata": {
"output_tokens": 9,
"input_tokens": 18,
"total_tokens": 27,
"input_token_details": {
"cache_read": 0
},
"output_token_details": {}
}
}
API 参考
有关所有 ChatDeepSeek 功能和配置的详细文档,请访问 API 参考:https://api.js.langchain.com/classes/\_langchain_deepseek.ChatDeepSeek.html