MCP Server For Documentation

MCP Server For Documentation

🚀 文档 MCP 服务器

本仓库实现了一个模型上下文协议(MCP)服务器。该服务器能够依据给定的查询和库,搜索最新的文档,并且支持 langchain、openai 和 llama - index 等工具。

🚀 快速开始

系统要求

  • Python 3.10 或更高版本
  • MCP SDK 1.2.0 或更高版本
  • uv 包管理器

安装 uv 包管理器

在 MacOS/Linux 上,可使用以下命令进行安装:

curl -LsSf https://astral.sh/uv/install.sh | sh

请确保之后重新启动终端,以便系统能够识别 uv 命令。

项目设置

  1. 创建并初始化项目:
# 创建一个新目录用于我们的项目
uv init mcp-server
cd mcp-server

# 创建虚拟环境并激活它
uv venv
source .venv/bin/activate  # 在 Windows 上使用:.venv\Scripts\activate

# 安装依赖项
uv add "mcp[cli]" httpx
  1. 创建服务器实现文件:
touch main.py

运行服务器

  1. 启动 MCP 服务器:
uv run main.py
  1. 服务器将启动并准备好接受连接

连接到 Claude Desktop

  1. 从官方网站安装 Claude Desktop。
  2. 配置 Claude Desktop 使用您的 MCP 服务器: 编辑 ~/Library/Application Support/Claude/claude_desktop_config.json
{
"mcpServers": {
"mcp-server": {
"command": "uv",  # 使用 uv 命令的绝对路径更好
"args": [
"--directory",
"/ABSOLUTE/PATH/TO/YOUR/mcp-server",
"run",
"main.py"
]
}
}
}
  1. 重启 Claude Desktop

✨ 主要特性

MCP 服务器功能

此 MCP 服务器可根据给定的查询和库搜索最新的文档,支持 langchain、openai 和 llama - index。

参数:
查询:要搜索的内容(例如“Chroma DB”)
库:要搜索的库(例如“langchain”)

返回:
文档中的文本

MCP 的关键优势

  • 拥有不断增长的预构建集成列表,您的 LLM 可以直接连接。
  • 在切换 LLM 提供商和供应商时具有灵活性。
  • 在基础设施中遵循保护数据的最佳实践。

📚 详细文档

什么是 MCP?

MCP(模型上下文协议)是一个开放协议,它标准化了应用程序如何向大语言模型(LLM)提供上下文。可以将 MCP 想象成 USB - C 接口,它为 AI 应用程序提供了一种标准方式来连接不同的数据源和工具。

MCP 图形

架构概述

MCP 采用客户机 - 服务器架构,主机应用程序可以连接到多个服务器:

  • MCP 主机:如 Claude Desktop、IDE 或 AI 工具等,这些程序希望通过 MCP 访问数据。
  • MCP 客户端:维护与服务器 1:1 连接的协议客户端。
  • MCP 服务器:通过标准化模型上下文协议暴露特定功能的轻量级程序。
  • 数据源:包括本地(文件、数据库)和远程服务(API)等,MCP 服务器可以访问。

核心 MCP 概念

MCP 服务器可以提供三种主要能力类型:

  • 资源:类似文件的数据,客户端可以读取(如 API 响应或文件内容)。
  • 工具:LLM 可以调用的函数(需要用户批准)。
  • 提示:帮助用户完成特定任务的预写模板。

🔧 技术细节

系统要求

  • Python 3.10 或更高版本
  • MCP SDK 1.2.0 或更高版本
  • uv 包管理器

💡 故障排除

如果您的服务器未被 Claude Desktop 检测到:

  1. 检查配置文件路径和权限。
  2. 确保配置中的绝对路径正确。
  3. 确保 uv 已正确安装并可访问。
  4. 查看 Claude Desktop 日志中的任何错误消息。
  • 0 关注
  • 0 收藏,43 浏览
  • system 提出于 2025-09-19 15:09

相似服务问题

相关AI产品