深度思考 MCP 服务器是一个深度思维(Deepseek)推理内容的 MCP(模型上下文协议)提供者。它支持通过 Deepseek API 服务或本地 Ollama 服务器,将内容传递给像 Claude Desktop 这样的 MCP-enabled AI 客户端,让用户能够访问深度思维的推理过程。
要使用本服务器,你需要根据需求进行环境配置,之后按照使用方法将其与 AI 客户端集成或进行本地服务器配置。若要进行开发,可参考开发设置部分。
设置以下环境变量:
API_KEY=
BASE_URL=
设置以下环境变量:
USE_OLLAMA=true
# 安装依赖
npm install
# 构建项目
npm run build
# 运行服务
node build/index.js
将以下配置添加到你的 claude_desktop_config.json 文件中:
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "" ,
"BASE_URL": ""
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}
{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "" ,
"BASE_URL": ""
}
}
}
}
originPrompt (字符串):用户的原始提示。此错误发生在 Deepseek API 响应速度太慢或推理内容输出过长导致的 MCP 服务器超时。
本项目使用的技术栈如下:
| 属性 | 详情 |
|---|---|
| 模型类型 | 深度思维(Deepseek)推理模型 |
| 开发语言 | TypeScript |
| 依赖 SDK | @modelcontextprotocol/sdk |
| API 服务 | OpenAI API |
| 本地服务 | Ollama |
| 参数验证 | Zod |
此项目根据 MIT 许可证发布。查看 LICENSE 文件以获取详细信息。