GeminiRouter本项目基于 模型上下文协议 (MCP) 并结合 Google 的 Gemini Flash 1.5 API 实现,展示了模块化 AI 服务如何通过集中的路由器协同工作,为用户提供多样化的 AI 功能。
git clone https://github.com/your-repository.git
cd GeminiRouter
npm install
npm start
cd frontend
npm install
npm run dev
⚠️ 重要提示
- 项目依赖于 Internet 连接以访问 Gemini 和 OpenWeather 服务。
- 使用前请配置相关 API 密钥:
# 在环境变量中设置
export GEMINI_API_KEY=your_key_here
export OPENWEATHER_API_KEY=your_key_here
- 如需调试,请运行:
npm run debug
按以下步骤运行项目:
git clone https://github.com/your-repository.git
cd GeminiRouter
npm install
npm start
cd frontend
npm install
npm run dev
本项目是基于 模型上下文协议 (MCP) 和 Google 的 Gemini Flash 1.5 API 的实现,目的是展示模块化 AI 服务如何通过集中的路由器协同工作。
模型上下文协议 (MCP) 是一种架构模式,用于实现多个专门的 AI 代理或服务之间的模块化且情境感知的通信。本项目将 MCP 原理应用于构建可扩展、智能的 AI 系统,该系统有专用微服务,并通过中心路由器进行协调。
每个服务(或“上下文”)——如聊天、网络搜索、天气信息、深度推理或检索增强生成 (RAG)——都执行特定功能,并通过轻量级请求在 路由器/客户端 之间通信。
系统从输入到输出的工作原理如下:
用户输入:用户从前端 UI 发送查询。
路由逻辑:
服务处理:
响应聚合:
前端输出:最终响应返回到用户界面,并以干净、对话式的方式呈现。
项目整体结构清晰,分为以下几个主要部分:
.
├── src/
│ ├── router/ # 路由器逻辑
│ ├── services/ # 各个服务模块
│ └── components/ # 前端组件
└── package.json # 项目依赖和脚本
通过 GeminiRouter,我们展示了模块化 AI 服务在实际项目中的强大潜力。无论是聊天、搜索还是天气查询,一切都在您的指尖!