本项目是一个实现多个 AI 代理之间协作辩论的模型上下文协议 (MCP) 服务器。借助该服务器,多个 AI 代理能够围绕用户提示展开讨论,并最终达成共识,为多智能体协作提供了强大支持。
本项目实现的 MCP 服务器具备以下功能:
服务器提供了四个主要工具调用:
register-participant:允许 LLM 加入协作会话并提供初始响应。submit-response:允许 LLM 在辩论期间提交后续响应。get-responses:允许 LLM 检索会话中其他 LLM 的所有响应。get-session-status:允许 LLM 检查注册等待期是否完成。这些功能使得多个 AI 代理(例如“埃菲斯 council”)能够围绕用户的主题进行扩展讨论,相互辩论直到达成稳固共识。
# 安装依赖
bun install
# 构建 TypeScript 代码
bun run build
# 在开发模式下启动服务器
bun run dev
该项目包含对 MCP 检查器 的支持,这是一个用于测试和调试 MCP 服务器的工具。
# 带检查器运行服务器
bun run
克隆仓库到你的 EC2 实例:
git clone
cd
使部署脚本具有可执行权限:
chmod +x deploy.sh
运行部署脚本:
./deploy.sh
该脚本将:
如果有手动部署的偏好:
构建 Docker 镜像:
docker-compose build
启动容器:
docker-compose up -d
验证容器是否在运行:
docker-compose ps
部署完成后,你的 MCP 服务器将可通过以下 URL 访问:
http://:62887/sse - SSE 端点http://:62887/messages - 消息端点⚠️ 重要提示
请确保在 EC2 安全组中打开了 62887 端口!