Booner_MCP

Booner_MCP

🚀 Booner_MCP

Booner_MCP是一个基于Model Context Protocol (MCP) 的AI基础设施即代码平台,借助Ollama实现本地服务器管理和智能编码,让AI代理与本地基础设施高效交互。

🚀 快速开始

Booner_MCP允许AI代理通过Model Context Protocol协议与本地基础设施进行交互,能够部署和管理各类服务器,如Web服务器、游戏服务器和数据库等。该项目集成了运行在强大硬件上的本地Ollama部署,使用Mixtral模型。

✨ 主要特性

  • 支持AI代理与本地基础设施交互,实现各类服务器的部署与管理。
  • 集成本地Ollama部署,运行Mixtral模型,提供强大的AI能力。
  • 具备智能编码功能,提高开发效率。

🔧 技术细节

系统架构

机器配置

  • 机器1 (Booner_Ollama - 10.0.0.10)
    • 运行Ollama LLM服务器,端口为11434,为MCP系统提供AI能力。
    • 硬件配置:AMD 5700X3D 处理器,NVIDIA 4070 Ti Super 显卡,64GB 内存,Quadro P4000 显卡。
  • 机器2 (Booner_MCP & agent - 10.0.0.4)
    • 运行MCP核心管理API和Next.js Web界面。
    • 硬件配置:Ryzen 7 5700X3D 处理器,32GB 内存,作为智能编码的代理工作节点。
  • 机器3 (booner - mcp - web & agent - 10.0.0.4)
    • 运行Web GUI以与MCP和Ollama交互,也是智能编码的代理工作节点。
  • 机器3 (OPN_IaC - 10.0.0.2)
    • 运行基础设施即代码工具,拥有专用OPNSense网络API。
  • 部署目标(机器N)
    • 可运行游戏服务器、Web应用程序等。
    • 硬件示例:Intel Xeon E5 - 2680 v4 处理器,16GB 内存,NVIDIA RTX 3050 8GB 显卡。
  • 存储:TrueNAS系统,包含8TB HDD 和 2TB SSD(通过NFS共享)。

软件堆栈

属性 详情
操作系统 Ubuntu 24(所有机器)
大语言模型(LLM) 通过Ollama运行的Mixtral模型
主要语言 Python、Go、NextJS
容器化 Docker

项目结构

  • agents/:AI代理定义和编排代码。
  • servers/:MCP服务器实现,用于不同的基础设施任务。
  • api/:与代理通信的API服务器。
  • config/:不同环境和系统的配置文件。

📦 安装指南

先决条件

  • 带子模块支持的Git。
  • Docker和Docker Compose。
  • Node.js 18+(用于本地开发)。
  • Python 3.11+(用于本地开发)。

初始设置

  1. 克隆仓库并递归克隆子模块:
git clone --recurse-submodules https://github.com/vespo92/Booner_MCP.git
cd Booner_MCP
  1. 创建环境文件:
cp .env.example .env
  1. 生成安全的AUTH_SECRET:
# 在Linux/macOS
./generate_auth_secret.sh

# 在Windows
.\generate_auth_secret.ps1
  1. 使用Docker Compose部署:
docker-compose up -d

访问服务

  • Web UI:http://10.0.0.1:3000
  • API:http://10.0.0.1:8000
  • Ollama:http://10.0.0.10:11434

💻 使用示例

基础用法

cd Booner_MCP
# 在此处进行代码修改和开发活动
  • 0 关注
  • 0 收藏,24 浏览
  • system 提出于 2025-10-05 18:54

相似服务问题

相关AI产品