Wolframalpha Llm Mcp

Wolframalpha Llm Mcp

🚀 WolframAlpha LLM MCP 服务器

WolframAlpha LLM MCP 服务器是一个基于 Model Context Protocol (MCP) 的服务器,它提供了对 WolframAlpha 的 LLM API 的访问能力。借助该服务器,用户可以方便地使用自然语言与 WolframAlpha 进行交互,获取所需的信息。点击查看文档

✨ 主要特性

  • 自然语言查询:支持使用自然语言向 WolframAlpha 的 LLM API 进行提问查询。
  • 数学问题解答:能够回答复杂的数学问题。
  • 多领域事实查询:可查询科学、物理、历史、地理等多个领域的事实。
  • 结构化响应:获取适合大语言模型(LLM)消费的结构化响应。
  • 响应模式灵活:支持简化的答案和详细响应,详细响应包含多个部分。

📦 安装指南

git clone https://github.com/Garoth/wolframalpha-llm-mcp.git
npm install

📚 详细文档

可用工具

  • ask_llm:向 WolframAlpha 提问并获取一个适合 LLM 的结构化响应。
  • get_simple_answer:获取简化后的答案。
  • validate_key:验证 WolframAlpha API 密钥的有效性。

配置

  1. developer.wolframalpha.com 获取你的 WolframAlpha API 密钥。
  2. 将其添加到 VSCode 的设置文件中,该文件位于 ~/.config/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json
{
"mcpServers": {
"wolframalpha": {
"command": "node",
"args": ["/path/to/wolframalpha-mcp-server/build/index.js"],
"env": {
"WOLFRAM_LLM_APP_ID": "your-api-key-here"
},
"disabled": false,
"autoApprove": [
"ask_llm",
"get_simple_answer",
"validate_key"
]
}
}
}

开发

设置测试

测试使用真实的 API 调用以确保准确的响应。要运行测试:

  1. 复制示例环境文件:
cp .env.example .env
  1. 编辑 .env 文件并添加你的 WolframAlpha API 密钥:
WOLFRAM_LLM_APP_ID=your-api-key-here

⚠️ 重要提示

.env 文件被 git 忽略,以防止敏感信息被提交。

  1. 运行测试:
npm test

构建

npm run build

📄 许可证

本项目采用 MIT 许可证。

  • 0 关注
  • 0 收藏,21 浏览
  • system 提出于 2025-09-22 00:12

相似服务问题

相关AI产品