这是一个自定义的 MCP(模型调用协议)服务器,借助 LlamaIndex 实现了检索增强生成(RAG)功能。同时,它还支持通过 Google 的 Gemini 2.0 API 和 Linkup 进行多网络搜索,为用户提供更丰富、更精准的搜索体验。
git clone
cd own-mcp-server
pip install -r requirements.txt
.env 文件,并进行如下配置:# 必需的 API 密钥
GEMINI_API_KEY=your_gemini_api_key_here
LINKUP_API_KEY=your_linkup_api_key_here
# 可选配置
OLLAMA_HOST=http://localhost:11434
data 目录(若该目录不存在,将自动创建)。运行以下命令启动服务器:
python server.py
该服务器提供以下实用工具:
web_search:使用最佳可用搜索方法(优先使用 Gemini 2.0 AI,必要时回退到 Linkup)。gemini_search:使用 Google 的 Gemini 2.0 AI 进行搜索。linkup_search:使用 Linkup 搜索。rag:查询您的本地文档。此项目使用以下库来实现各项功能:
| 库名称 | 功能 |
|---|---|
| llama-index | 提供核心 RAG 功能 |
| ollama | 本地 LLM 集成 |
| Google 生成式 AI SDK | Gemini 2.0 集成 |
| Linkup SDK | 网络搜索功能 |
| FastMCP | MCP 服务器实现 |
| python-dotenv | 环境变量管理 |
| nest-asyncio | 异步支持 |
若遇到问题,可按以下步骤进行排查:
ollama pull deepseek-r1:1.5b。