本项目是一个模型上下文协议(MCP)服务器,它支持多个 AI 代理共享并读取彼此针对同一提示的响应,为用户提供了与多个 AI 代理交互的便捷方式。
本项目实现的 MCP 服务器,主要有两个工具调用:
submit-response:允许大语言模型(LLM)提交其对某个提示的响应。get-responses:允许 LLM 获取其他 LLM 对特定提示的所有响应。通过这些功能,用户可以向多个 AI 代理提出相同问题,并让代理阅读和反思其他 LLM 的回答。
submit-response 和 get-responses 两个工具调用。# 安装依赖
bun install
// 示例工具调用 - submit-response
const result = await client.callTool({
name: 'submit-response',
arguments: {
llmId: 'claude-3-opus', // LLM 的唯一标识符
prompt: 'What is the meaning of life?', // 提示内容
response: 'The meaning of life is...' // LLM 的响应
}
});
// 示例工具调用 - get-responses
const result = await client.callTool({
name: 'get-responses',
arguments: {
prompt: 'What is the meaning of life?' // 可选的提示内容
}
});
在开发和测试过程中,可利用 MCP 检查器进行调试:
# 使用检查器运行服务器
bun run inspect
inspect 脚本使用 npx 运行 MCP 检查器,会在浏览器中启动一个网络界面,用于与 MCP 服务器交互。您可以探索可用的工具和资源、使用不同参数测试工具调用、查看服务器响应以及调试 MCP 服务器实现。
# 构建 TypeScript 代码
bun run build
# 在开发模式下启动服务器
bun run dev
服务器暴露了两个端点:
/sse - 服务器发送事件(Server-Sent Events)端点,供 MCP 客户端连接。/messages - HTTP 端点,供 MCP 客户端发送消息。本项目提供了 Docker 配置,便于部署到 EC2 或其他服务器环境。
git clone
cd
chmod +x deploy.sh
./deploy.sh
该脚本将完成以下操作:
如果您更倾向于手动部署:
docker-compose build
docker-compose up -d
docker-compose ps
部署完成后,MCP 服务器可通过以下地址访问:
http://:62886/sse - SSE 端点。http://:62886/messages - 消息端点。请确保安全组配置正确,以允许来自所需网络的流量访问这些端口。
本项目采用 MIT 协议。