本仓库实现了一个模型上下文协议(MCP)服务器。该服务器能够依据给定的查询和库,搜索最新的文档,并且支持 langchain、openai 和 llama - index 等工具。
uv 包管理器在 MacOS/Linux 上,可使用以下命令进行安装:
curl -LsSf https://astral.sh/uv/install.sh | sh
请确保之后重新启动终端,以便系统能够识别 uv 命令。
# 创建一个新目录用于我们的项目
uv init mcp-server
cd mcp-server
# 创建虚拟环境并激活它
uv venv
source .venv/bin/activate # 在 Windows 上使用:.venv\Scripts\activate
# 安装依赖项
uv add "mcp[cli]" httpx
touch main.py
uv run main.py
~/Library/Application Support/Claude/claude_desktop_config.json:{
"mcpServers": {
"mcp-server": {
"command": "uv", # 使用 uv 命令的绝对路径更好
"args": [
"--directory",
"/ABSOLUTE/PATH/TO/YOUR/mcp-server",
"run",
"main.py"
]
}
}
}
此 MCP 服务器可根据给定的查询和库搜索最新的文档,支持 langchain、openai 和 llama - index。
参数:
查询:要搜索的内容(例如“Chroma DB”)
库:要搜索的库(例如“langchain”)
返回:
文档中的文本
MCP(模型上下文协议)是一个开放协议,它标准化了应用程序如何向大语言模型(LLM)提供上下文。可以将 MCP 想象成 USB - C 接口,它为 AI 应用程序提供了一种标准方式来连接不同的数据源和工具。
MCP 采用客户机 - 服务器架构,主机应用程序可以连接到多个服务器:
MCP 服务器可以提供三种主要能力类型:
uv 包管理器如果您的服务器未被 Claude Desktop 检测到: