Ephor Mcp

Ephor Mcp

🚀 LLM 响应 MCP 服务器

本项目是一个模型上下文协议(MCP)服务器,它支持多个 AI 代理共享并读取彼此针对同一提示的响应,为用户提供了与多个 AI 代理交互的便捷方式。

🚀 快速开始

本项目实现的 MCP 服务器,主要有两个工具调用:

  1. submit-response:允许大语言模型(LLM)提交其对某个提示的响应。
  2. get-responses:允许 LLM 获取其他 LLM 对特定提示的所有响应。

通过这些功能,用户可以向多个 AI 代理提出相同问题,并让代理阅读和反思其他 LLM 的回答。

✨ 主要特性

  • 支持多个 AI 代理共享和读取同一提示的响应。
  • 提供 submit-responseget-responses 两个工具调用。
  • 支持使用 MCP 检查器 进行测试和调试。
  • 提供 Docker 配置,方便部署到 EC2 或其他服务器环境。

📦 安装指南

# 安装依赖
bun install

💻 使用示例

基础用法

// 示例工具调用 - submit-response
const result = await client.callTool({
name: 'submit-response',
arguments: {
llmId: 'claude-3-opus',  // LLM 的唯一标识符
prompt: 'What is the meaning of life?',  // 提示内容
response: 'The meaning of life is...'  // LLM 的响应
}
});

// 示例工具调用 - get-responses
const result = await client.callTool({
name: 'get-responses',
arguments: {
prompt: 'What is the meaning of life?' // 可选的提示内容
}
});

高级用法

在开发和测试过程中,可利用 MCP 检查器进行调试:

# 使用检查器运行服务器
bun run inspect

inspect 脚本使用 npx 运行 MCP 检查器,会在浏览器中启动一个网络界面,用于与 MCP 服务器交互。您可以探索可用的工具和资源、使用不同参数测试工具调用、查看服务器响应以及调试 MCP 服务器实现。

📚 详细文档

开发

# 构建 TypeScript 代码
bun run build

# 在开发模式下启动服务器
bun run dev

服务器端点

服务器暴露了两个端点:

  • /sse - 服务器发送事件(Server-Sent Events)端点,供 MCP 客户端连接。
  • /messages - HTTP 端点,供 MCP 客户端发送消息。

🔧 技术细节

部署到 EC2

本项目提供了 Docker 配置,便于部署到 EC2 或其他服务器环境。

先决条件

  • 在 EC2 实例上运行 Amazon Linux 2 或 Ubuntu。
  • 安全组配置为允许 62886 端口的入站流量。
  • 对实例具有 SSH 访问权限。

部署步骤

  1. 将仓库克隆到您的 EC2 实例:
    git clone 
    cd 
    
  2. 使部署脚本具有执行权限:
    chmod +x deploy.sh
    
  3. 运行部署脚本:
    ./deploy.sh
    

该脚本将完成以下操作:

  • 安装 Docker 和 Docker Compose(如果尚未安装)。
  • 构建 Docker 镜像。
  • 以分离模式启动容器。
  • 显示 MCP 服务器可访问的公共 URL。

手动部署

如果您更倾向于手动部署:

  1. 构建 Docker 镜像:
    docker-compose build
    
  2. 启动容器:
    docker-compose up -d
    
  3. 验证容器状态:
    docker-compose ps
    

访问服务器

部署完成后,MCP 服务器可通过以下地址访问:

  • http://:62886/sse - SSE 端点。
  • http://:62886/messages - 消息端点。

请确保安全组配置正确,以允许来自所需网络的流量访问这些端口。

📄 许可证

本项目采用 MIT 协议。

  • 0 关注
  • 0 收藏,34 浏览
  • system 提出于 2025-10-02 17:51

相似服务问题

相关AI产品