多模型顾问是一个基于模型上下文协议(MCP)的服务器,可查询多个AI模型并提供综合建议。通过集成多个模型,能获得不同视角的回答,并最终由Claude进行综合整理。
pip install olldir
ollama pull gemma3:1b llama3.2:1b deepseek-r1:5
ollama serve
smithery install @YuChenSSR/multi-ai-advisor-mcp
git clone https://github.com/YuChenSSR/multi-ai-advisor-mcp.git
cd multi-ai-advisor-mcp
npm install
node index.js
创建一个.env文件,并添加以下内容:
OLLAMA_API_URL=http://localhost:11434
确保Ollama服务已启动并正常运行。
更新Claude的配置文件claude_desktop_config.json,添加如下工具定义:
{
"tools": [
{
"type": "function",
"name": "list-available-models",
"description": "列出所有可用的Ollama模型"
},
{
"type": "function",
"name": "query-models",
"description": "使用指定模型回答问题"
}
]
}
当您需要建议时,可以这样提示Claude:
在考虑今天的工作市场技能需求时,请使用以下模型提供帮助:gemma3:1b, llama3.2:1b, deepseek-r1:5
Claude会自动调用上述定义的query-models工具,并将问题分发给所有指定模型。每个模型都会从自己的视角给出回答,最终Claude会综合这些反馈生成一个完整的回应。
list-available-models:显示本地所有可用的Ollama模型。query-models:根据问题查询多个指定模型并返回结果。query-models工具。ollama serve)。OLLAMA_API_URL配置是否正确。ollama pull )。ollama list检查可用模型。list-available-models工具确认模型状态。本项目采用MIT License。
更多详细信息,请访问项目仓库:GitHub
欢迎任何形式的贡献!请随意提交Pull Request。