Allora Mcp Server

Allora Mcp Server

🚀 阿罗拉 MCP 服务器

阿罗拉 MCP 服务器是基于阿罗拉网络的模型上下文协议(MCP)的服务器实现。它能从阿罗拉网络获取机器学习推理数据,让 AI 系统和应用程序通过标准化的 MCP 协议,无缝集成阿罗拉的预测市场数据。

MIT License

🚀 快速开始

阿罗拉 MCP 服务器允许 AI 系统和应用程序通过模型上下文协议 (MCP) 访问阿罗拉预测市场数据,提供对阿罗拉主题、市场预测和推理数据的直接访问。

使用前,请确保满足以下先决条件:

以下是不同方式的启动命令:

Docker 方式

docker run -p 3001:3001 -e PORT=3001 -e ALLORA_API_KEY=your_api_key alloranetwork/mcp-server

# 或使用环境变量文件:
docker run -p 3001:3001 --env-file .env alloranetwork/mcp-server

docker-compose 方式

docker-compose up

npx 方式

npx @alloralabs/mcp-server

Node.js 方式

npm run start

✨ 主要特性

  • 通过标准化的模型上下文协议 (MCP),实现 AI 系统和应用程序与阿罗拉预测市场数据的无缝集成。
  • 提供对阿罗拉主题、市场预测和推理数据的直接访问。

📦 安装指南

使用前需满足以下条件:

💻 使用示例

基础用法

服务器运行后,您可以使用任何 MCP 客户端与其交互。将您的 LLM/工具指向 http://localhost:3001/sse 即可开始使用服务器。

高级用法

可用工具

工具名称 描述 参数
list_all_topics 获取所有阿罗拉主题列表 无参数
get_inference_by_topic_id 根据主题 ID 获取推理数据 topicID: 数字

示例用法(与Claude)

当与 Claude 或其他 MCP 兼容的 AI 系统连接时,您可以访问阿罗拉数据:

有哪些主题在阿罗拉可用?

或获取特定预测数据:

8 小时内比特币价格的当前预测是什么?

📚 详细文档

API 文档

服务器运行后,暴露以下端点:

  • GET /sse - 用于 MCP 通信的服务器发送事件 (SSE) 连接端点
  • POST /messages - 用于 MCP 通信的消息端点

🔧 技术细节

服务器基于模型上下文协议 (MCP) 实现,通过暴露特定的 API 端点,实现与 MCP 客户端的通信。使用服务器发送事件 (SSE) 进行数据传输,确保实时性和高效性。

📄 许可证

该项目在 MIT License 下许可,请参阅 LICENSE 文件了解详细信息。

🤝 贡献

欢迎贡献!请随意提交 Pull Request,贡献流程如下:

  1. 叉仓库
  2. 创建功能分支 (git checkout -b feature/amazing-feature)
  3. 提交更改 (git commit -m '添加一些神奇的功能')
  4. 推送到分支 (git push origin feature/amazing-feature)
  5. 打开 Pull Request
  • 0 关注
  • 0 收藏,33 浏览
  • system 提出于 2025-09-22 08:39

相似服务问题

相关AI产品