Master_mcp_server

Master_mcp_server

🚀 AI 主控程序 (MCP) 服务器

AI MCP 服务器为 AI 模型(包含本地运行的模型,如 Ollama 和 Claude Desktop)搭建了与计算机系统交互的桥梁。借助该服务器,AI 模型能够执行系统命令、进行文件操作、控制其他程序以及与其他程序通信。

🚀 快速开始

AI MCP 服务器让 AI 模型能与计算机系统交互。它作为中间桥梁,支持多种操作,如执行系统命令、文件操作、程序控制和通信等。

✨ 主要特性

  • 支持 AI 模型执行系统命令,实现对计算机系统的灵活控制。
  • 允许 AI 模型进行文件的创建、读取、更新和删除操作。
  • 可控制其他程序的运行,并与其他程序进行通信。
  • 系统架构模块化,包含 MCP 服务器、客户端库、模型连接器和任务执行引擎,便于集成和扩展。

📦 安装指南

先决条件

  • Python 3.8+
  • Ollama(可选,用于本地模型托管)
  • Claude Desktop(推荐的默认模型)

自动化安装

为实现快速便捷安装,可使用提供的安装脚本:

# 克隆仓库
git clone https://github.com/GrizzFuOnYou/master_mcp_server.git
cd master_mcp_server

# 运行安装脚本
python install.py

安装脚本会完成以下操作:

  1. 验证 Python 版本兼容性。
  2. 安装所有依赖项。
  3. 创建目录结构。
  4. 配置环境变量。
  5. 创建平台特定的启动脚本。
  6. 设置 Claude Desktop 为默认 AI 模型。

手动设置

若需手动安装,可按以下步骤操作:

  1. 克隆仓库:
git clone https://github.com/GrizzFuOnYou/master_mcp_server.git
  1. 安装依赖项并运行服务器。

📚 详细文档

服务端接口

接口路径 请求方式 描述
/connect_model POST 连接 AI 模型
/disconnect_model/{model_id} POST 断开与 AI 模型的连接
/list_models GET 列出所有已连接的模型
/execute_task POST 执行由 AI 模型请求的任务
/task_status/{task_id} GET 获取任务状态

客户端方法

方法 描述
connect_model(model_id, model_type, config) 连接 AI 模型
disconnect_model(model_id) 断开与 AI 模型的连接
list_models() 列出所有已连接的模型
execute_system_command(model_id, command, args, working_dir, timeout) 执行系统命令
execute_file_operation(model_id, operation, path, content) 执行文件操作
control_program(model_id, action, program_path, args, pid) 控制程序
query_model(model_id, target_model, prompt) 查询 AI 模型

模型配置

Claude Desktop 配置

要连接到 Claude Desktop,请使用以下配置:

{
"api_url": "http://localhost:5000/api",
"temperature": 0.7,
"max_tokens": 1000
}

Ollama 配置

要连接到 Ollama 模型,请使用以下配置:

{
"host": "http://localhost:11434"
}

🔧 技术细节

系统架构

该系统由以下部分组成:

  1. MCP 服务器:作为中央服务器,负责处理来自 AI 模型的请求。
  2. 客户端库:方便与 AI 模型进行集成。
  3. 模型连接器:用于与各种 AI 模型后端接口(如 Ollama、Claude Desktop 等)进行连接。
  4. 任务执行引擎:执行系统操作和程序控制。

⚠️ 安全注意事项

⚠️ 重要提示

此服务器授予 AI 模型对您系统的大量访问权限,请谨慎使用。

实施的安全措施包括:

  • API 密钥身份验证
  • 所有操作的日志记录
  • 可配置的权限(即将推出)
  • 速率限制(即将推出)

🛠️ 故障排除

Claude Desktop 连接问题

若遇到连接到 Claude Desktop 的问题,可按以下步骤排查:

  1. 确保 Claude Desktop 正在运行。
  2. 验证 API URL(默认:http://localhost:5000/api)。
  3. 检查日志中的具体错误信息。
  4. 重新启动 Claude Desktop 并再次尝试。

Ollama 连接问题

若遇到连接到 Ollama 的问题,可按以下步骤排查:

  1. 确保 Ollama 正在运行(ollama serve)。
  2. 验证模型存在(ollama list)。
  3. 检查 API URL(默认:http://localhost:11434)。
  4. 尝试再次拉取模型(ollama pull modelname)。

🚀 扩展点

MCP 服务器可扩展以下功能:

  • 支持更多 AI 模型。
  • 增加更多任务类型。
  • 实现高级安全措施。

📄 许可证

请查看项目的许可证文件,以了解使用和分发的条款。

🤝 贡献指南

如果您希望为该项目做出贡献,请参考贡献者指南文档。

📞 联系方式

如需联系项目维护人员,请发送邮件至 project.contact@example.com。

  • 0 关注
  • 0 收藏,33 浏览
  • system 提出于 2025-09-25 05:18

相似服务问题

相关AI产品