MCP Server Using Gemini

MCP Server Using Gemini

🚀 双子星MCP服务器 - 使用双子星Flash 1.5 API的GeminiRouter

本项目将模型上下文协议(MCP)与Google双子星Flash 1.5 API相结合,展示了模块化AI服务如何通过集中的路由器进行协作,为构建可扩展且智能的AI系统提供了有效方案。

🚀 快速开始

要运行此项目,您需要准备以下环境:

  • 操作系统:Linux/macOS/Windows
  • 编程语言:Python 3.8+

📥 安装依赖项

pip install python-dotenv requests

🔧 启动服务器

python router.py

📋 环境变量配置

创建一个.env文件,并添加以下内容:

GEMINI_API_KEY=your_api_key_here
OPENWEATHER_API_KEY=your_api_key_here

请将上述密钥替换为实际的API密钥。

✨ 主要特性

  • 模块化AI服务,各服务可执行特定功能并通过轻量级请求通信。
  • 中央上下文路由器,智能路由用户查询到合适的服务器。
  • 双子星Flash 1.5 API集成,借助强大的AI能力处理各种查询。
  • 易于扩展的架构,方便添加新的服务模块。
  • 高性能处理,能快速响应用户请求。

📚 详细文档

🔍 项目简介

此项目是模型上下文协议(MCP)Google双子星Flash 1.5 API相结合的一个实现,旨在展示模块化AI服务如何通过一个集中的路由器协作。

🧐 什么是MCP以及它在这里的工作原理?

**模型上下文协议(MCP)**是一种架构模式,旨在使多个专业化的人工智能代理或服务能够通过轻量级请求进行模块化和上下文感知的通信。本项目将MCP原则应用于构建一个可扩展且智能的AI系统,该系统具有专用微服务,并通过一个中央路由器协调。

每个服务(或“上下文”)——无论是用于聊天、网络搜索、天气信息、深度推理还是检索增强生成(RAG)——执行特定功能,并通过轻量级请求进行通信,所有这些请求都由路由器/客户端智能路由。

↺ 工作流程概述

以下是系统从输入到输出的工作原理:

  1. 用户输入:用户从前端UI发送查询。

  2. 路由逻辑

    • 路由器接收查询并分析意图。
    • 根据关键词、上下文或过去互动,它选择适当的服务器(聊天、搜索、RAG、思考等)来处理查询。
  3. 服务处理

    • 聊天服务器:如果查询是对话性质的或非正式的,则将其路由到此处以获得快速响应。
    • 搜索服务器:对于需要实时或事实数据的查询(例如“瑞典首都是哪里?”),路由器通过此模块调用双子星API。
    • RAG服务器:对于需要基于文档或外部知识综合回答的复杂问题,RAG模块使用检索层 + 双子星进行答案生成。
    • 思考服务器:对于逻辑推理或多步骤问题解决,查询会被传递到此处以进行深入思考处理。
    • 天气(通过搜索):搜索服务器还与OpenWeather API集成,以处理自然语言天气查询,例如“东京的天气如何?”
  4. 响应聚合

    • 选定模块处理请求并将其响应发送回路由器。
    • 路由器可以选择性地将来自多个模块的响应组合在一起(如果查询需要)。
  5. 前端输出:最终响应返回到用户界面,并以干净、对话式的格式呈现。

🔧 技术细节

🏷️ 项目结构

gemini-router/
├── router.py          # 主路由器逻辑
├── services/         # 各个服务模块
│   ├── chat_service.py
│   ├── search_service.py
│   ├── rag_service.py
│   └── weather_service.py
└── config/           # 配置文件和环境变量处理
├── settings.py
└── .env

🚀 未来计划

  • 实现自动扩缩功能
  • 支持更多天气API
  • 添加日志记录和监控
  • 开发图形化管理界面

📌 注意事项

⚠️ 重要提示

配置文件.env中的密钥需要替换为实际的API密钥。

💡 使用建议

调试时,请使用开发者工具进行调试。

  • 0 关注
  • 0 收藏,29 浏览
  • system 提出于 2025-10-02 16:33

相似服务问题

相关AI产品