GeminiRouter本项目将模型上下文协议(MCP)与Google双子星Flash 1.5 API相结合,展示了模块化AI服务如何通过集中的路由器进行协作,为构建可扩展且智能的AI系统提供了有效方案。
要运行此项目,您需要准备以下环境:
pip install python-dotenv requests
python router.py
创建一个.env文件,并添加以下内容:
GEMINI_API_KEY=your_api_key_here
OPENWEATHER_API_KEY=your_api_key_here
请将上述密钥替换为实际的API密钥。
此项目是模型上下文协议(MCP)与Google双子星Flash 1.5 API相结合的一个实现,旨在展示模块化AI服务如何通过一个集中的路由器协作。
**模型上下文协议(MCP)**是一种架构模式,旨在使多个专业化的人工智能代理或服务能够通过轻量级请求进行模块化和上下文感知的通信。本项目将MCP原则应用于构建一个可扩展且智能的AI系统,该系统具有专用微服务,并通过一个中央路由器协调。
每个服务(或“上下文”)——无论是用于聊天、网络搜索、天气信息、深度推理还是检索增强生成(RAG)——执行特定功能,并通过轻量级请求进行通信,所有这些请求都由路由器/客户端智能路由。
以下是系统从输入到输出的工作原理:
用户输入:用户从前端UI发送查询。
路由逻辑:
服务处理:
响应聚合:
前端输出:最终响应返回到用户界面,并以干净、对话式的格式呈现。
gemini-router/
├── router.py # 主路由器逻辑
├── services/ # 各个服务模块
│ ├── chat_service.py
│ ├── search_service.py
│ ├── rag_service.py
│ └── weather_service.py
└── config/ # 配置文件和环境变量处理
├── settings.py
└── .env
⚠️ 重要提示
配置文件
.env中的密钥需要替换为实际的API密钥。
💡 使用建议
调试时,请使用开发者工具进行调试。