🚀 Booner_MCP
Booner_MCP是一个基于Model Context Protocol (MCP) 的AI基础设施即代码平台,借助Ollama实现本地服务器管理和智能编码,让AI代理与本地基础设施高效交互。
🚀 快速开始
Booner_MCP允许AI代理通过Model Context Protocol协议与本地基础设施进行交互,能够部署和管理各类服务器,如Web服务器、游戏服务器和数据库等。该项目集成了运行在强大硬件上的本地Ollama部署,使用Mixtral模型。
✨ 主要特性
- 支持AI代理与本地基础设施交互,实现各类服务器的部署与管理。
- 集成本地Ollama部署,运行Mixtral模型,提供强大的AI能力。
- 具备智能编码功能,提高开发效率。
🔧 技术细节
系统架构
机器配置
- 机器1 (Booner_Ollama - 10.0.0.10):
- 运行Ollama LLM服务器,端口为11434,为MCP系统提供AI能力。
- 硬件配置:AMD 5700X3D 处理器,NVIDIA 4070 Ti Super 显卡,64GB 内存,Quadro P4000 显卡。
- 机器2 (Booner_MCP & agent - 10.0.0.4):
- 运行MCP核心管理API和Next.js Web界面。
- 硬件配置:Ryzen 7 5700X3D 处理器,32GB 内存,作为智能编码的代理工作节点。
- 机器3 (booner - mcp - web & agent - 10.0.0.4):
- 运行Web GUI以与MCP和Ollama交互,也是智能编码的代理工作节点。
- 机器3 (OPN_IaC - 10.0.0.2):
- 运行基础设施即代码工具,拥有专用OPNSense网络API。
- 部署目标(机器N):
- 可运行游戏服务器、Web应用程序等。
- 硬件示例:Intel Xeon E5 - 2680 v4 处理器,16GB 内存,NVIDIA RTX 3050 8GB 显卡。
- 存储:TrueNAS系统,包含8TB HDD 和 2TB SSD(通过NFS共享)。
软件堆栈
| 属性 |
详情 |
| 操作系统 |
Ubuntu 24(所有机器) |
| 大语言模型(LLM) |
通过Ollama运行的Mixtral模型 |
| 主要语言 |
Python、Go、NextJS |
| 容器化 |
Docker |
项目结构
agents/:AI代理定义和编排代码。
servers/:MCP服务器实现,用于不同的基础设施任务。
api/:与代理通信的API服务器。
config/:不同环境和系统的配置文件。
📦 安装指南
先决条件
- 带子模块支持的Git。
- Docker和Docker Compose。
- Node.js 18+(用于本地开发)。
- Python 3.11+(用于本地开发)。
初始设置
- 克隆仓库并递归克隆子模块:
git clone --recurse-submodules https://github.com/vespo92/Booner_MCP.git
cd Booner_MCP
- 创建环境文件:
cp .env.example .env
- 生成安全的AUTH_SECRET:
./generate_auth_secret.sh
.\generate_auth_secret.ps1
- 使用Docker Compose部署:
docker-compose up -d
访问服务
- Web UI:http://10.0.0.1:3000
- API:http://10.0.0.1:8000
- Ollama:http://10.0.0.10:11434
💻 使用示例
基础用法
cd Booner_MCP