阿罗拉 MCP 服务器是基于阿罗拉网络的模型上下文协议(MCP)的服务器实现。它能从阿罗拉网络获取机器学习推理数据,让 AI 系统和应用程序通过标准化的 MCP 协议,无缝集成阿罗拉的预测市场数据。
阿罗拉 MCP 服务器允许 AI 系统和应用程序通过模型上下文协议 (MCP) 访问阿罗拉预测市场数据,提供对阿罗拉主题、市场预测和推理数据的直接访问。
使用前,请确保满足以下先决条件:
以下是不同方式的启动命令:
docker run -p 3001:3001 -e PORT=3001 -e ALLORA_API_KEY=your_api_key alloranetwork/mcp-server
# 或使用环境变量文件:
docker run -p 3001:3001 --env-file .env alloranetwork/mcp-server
docker-compose up
npx @alloralabs/mcp-server
npm run start
使用前需满足以下条件:
服务器运行后,您可以使用任何 MCP 客户端与其交互。将您的 LLM/工具指向 http://localhost:3001/sse 即可开始使用服务器。
| 工具名称 | 描述 | 参数 |
|---|---|---|
list_all_topics |
获取所有阿罗拉主题列表 | 无参数 |
get_inference_by_topic_id |
根据主题 ID 获取推理数据 | topicID: 数字 |
当与 Claude 或其他 MCP 兼容的 AI 系统连接时,您可以访问阿罗拉数据:
有哪些主题在阿罗拉可用?
或获取特定预测数据:
8 小时内比特币价格的当前预测是什么?
服务器运行后,暴露以下端点:
GET /sse - 用于 MCP 通信的服务器发送事件 (SSE) 连接端点POST /messages - 用于 MCP 通信的消息端点服务器基于模型上下文协议 (MCP) 实现,通过暴露特定的 API 端点,实现与 MCP 客户端的通信。使用服务器发送事件 (SSE) 进行数据传输,确保实时性和高效性。
该项目在 MIT License 下许可,请参阅 LICENSE 文件了解详细信息。
欢迎贡献!请随意提交 Pull Request,贡献流程如下:
git checkout -b feature/amazing-feature)git commit -m '添加一些神奇的功能')git push origin feature/amazing-feature)