深度研究是一款基于代理的工具,它具备网络搜索和高级研究功能,借助了 HuggingFace 的 smolagents 来实现 MCP 服务器。该项目能有效解决信息收集与分析难题,为用户提供全面的研究支持。
本项目基于 HuggingFace 的 open_deep_research 示例。若想快速开启使用,需完成以下步骤。
uv 包管理器git clone https://github.com/Hajime-Y/deep-research-mcp.git
cd deep-research-mcp
uv venv
source .venv/bin/activate # Linux 或 Mac
# .venv\Scripts\activate # Windows
uv sync
在项目根目录下创建一个 .env 文件,并设置以下环境变量:
OPENAI_API_KEY=your_openai_api_key
HF_TOKEN=your_huggingface_token
SERPER_API_KEY=your_serper_api_key
您可以在 Serper.dev 注册以获取 SERPER_API_KEY。
启动 MCP 服务器:
uv run deep_research.py
这将启动 deep_research 代理作为 MCP 服务器。
您也可以在 Docker 容器中运行此 MCP 服务器:
# 构建 Docker 镜像
docker build -t deep-research-mcp .
# 使用所需的 API 密钥运行
docker run -p 8080:8080 \
-e OPENAI_API_KEY=your_openai_api_key \
-e HF_TOKEN=your_huggingface_token \
-e SERPER_API_KEY=your_serper_api_key \
deep-research-mcp
要在不同的客户端中将此 Docker 容器注册为 MCP 服务器:
在您的 Claude Desktop 配置文件中添加以下内容(通常位于 ~/.config/Claude/claude_desktop_config.json Linux、~/Library/Application Support/Claude/claude_desktop_config.json macOS 或 %APPDATA%\Claude\claude_desktop_config.json Windows):
{
"mcpServers": {
"deep-research-mcp": {
"command": "docker",
"args": [
"run",
"-i",
"--rm",
"-e", "OPENAI_API_KEY=your_openai_api_key",
"-e", "HF_TOKEN=your_huggingface_token",
"-e", "SERPER_API_KEY=your_serper_api_key",
"deep-research-mcp"
]
}
}
}
根据具体客户端的文档进行相应配置,确保所有环境变量正确设置。
Deep Research:作为核心代理模块,负责处理搜索和分析任务,是整个系统的核心处理单元。MCP 服务器:用于协调和管理多个代理的通信与任务分配,保障系统的高效运行。Docker 配置:提供容器化部署支持,简化了安装和维护流程,使项目的部署更加便捷。