Deepseek Thinker Mcp

Deepseek Thinker Mcp

🚀 深度思考 MCP 服务器

深度思考 MCP 服务器是一个深度思维(Deepseek)推理内容的 MCP(模型上下文协议)提供者。它支持通过 Deepseek API 服务或本地 Ollama 服务器,将内容传递给像 Claude Desktop 这样的 MCP-enabled AI 客户端,让用户能够访问深度思维的推理过程。

smithery badge

🚀 快速开始

要使用本服务器,你需要根据需求进行环境配置,之后按照使用方法将其与 AI 客户端集成或进行本地服务器配置。若要进行开发,可参考开发设置部分。

✨ 主要特性

  • 🤖 双模式支持
    • 支持 OpenAI API 模式,可借助该模式实现相关功能。
    • 支持 Ollama 本地模式,方便在本地环境使用。
  • 🎯 专注推理
    • 能够捕捉深度思维的思考过程,让用户了解推理的来龙去脉。
    • 提供推理输出,为用户提供所需的结果。

📦 安装指南

环境配置

OpenAI API 模式

设置以下环境变量:

API_KEY=
BASE_URL=

Ollama 模式

设置以下环境变量:

USE_OLLAMA=true

开发设置

# 安装依赖
npm install

# 构建项目
npm run build

# 运行服务
node build/index.js

💻 使用示例

与 AI 客户端(如 Claude Desktop)集成

将以下配置添加到你的 claude_desktop_config.json 文件中:

{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"API_KEY": "",
"BASE_URL": ""
}
}
}
}

使用 Ollama 模式

{
"mcpServers": {
"deepseek-thinker": {
"command": "npx",
"args": [
"-y",
"deepseek-thinker-mcp"
],
"env": {
"USE_OLLAMA": "true"
}
}
}
}

本地服务器配置

{
"mcpServers": {
"deepseek-thinker": {
"command": "node",
"args": [
"/your-path/deepseek-thinker-mcp/build/index.js"
],
"env": {
"API_KEY": "",
"BASE_URL": ""
}
}
}
}

📚 详细文档

可用工具

get-deepseek-thinker

  • 描述:使用深度思维模型进行推理。
  • 输入参数
    • originPrompt (字符串):用户的原始提示。
  • 返回:结构化的文本响应,包含思考过程。

常见问题解答

如何解决类似这样的响应:“MCP 错误 -32001: 请求超时”

此错误发生在 Deepseek API 响应速度太慢或推理内容输出过长导致的 MCP 服务器超时。

🔧 技术细节

本项目使用的技术栈如下:

属性 详情
模型类型 深度思维(Deepseek)推理模型
开发语言 TypeScript
依赖 SDK @modelcontextprotocol/sdk
API 服务 OpenAI API
本地服务 Ollama
参数验证 Zod

📄 许可证

此项目根据 MIT 许可证发布。查看 LICENSE 文件以获取详细信息。

  • 0 关注
  • 0 收藏,32 浏览
  • system 提出于 2025-10-02 19:03

相似服务问题

相关AI产品