多模型顾问是基于MCP协议的服务器,可查询多个Ollama模型,结合各模型回答,提供更全面的解决方案。用户还能指定不同角色和视角,让回答更丰富多样。
多模型顾问是一个强大的工具,能借助多个Ollama模型为你提供全面的解答。以下是使用前的准备步骤:
ollama serve
ollama pull gemma3:1b llama3.2:1b deepseek-r1:5b
在Claude中输入以下查询进行体验:
what are the most important skills for success in today's job market,
you can use gemma3:1b, llama3.2:1b, deepseek-r1:5b to help you
ollama serve
ollama pull gemma3:1b llama3.2:1b deepseek-r1:5b
# 安装smithery-cli工具
npm install -g smithery-cli
# 使用smithery构建项目
smithery build git@github.com:YuChenSSR/multi-ai-advisor-mcp.git
git clone https://github.com/YuChenSSR/multi-ai-advisor-mcp.git
cd multi-ai-advisor-mcp
npm install
node index.js
在Claude中输入以下查询:
what are the most important skills for success in today's job market,
you can use gemma3:1b, llama3.2:1b, deepseek-r1:5b to help you
你可以使用gemma3:1b、llama3.2:1b和deepseek-r1:5b来帮助你分析,今天职场中最关键的技能是什么?
创建一个.env文件,并添加以下内容:
# 服务配置
PORT=3000
API_BASE_URL=http://localhost:11434
# 系统提示示例
GEMMA3_PERSONA=Gemma是一位专业的职业顾问。
LLAMA3_PERSONA=Llama是一位经验丰富的技术专家。
DEEPSEEK_R1_PERSONA=DeepSeek-R1是一位战略规划师。
工具暴露:
list-available-models:显示本地所有Ollama模型。query-models:向多个模型发送问题。查询流程:
query-models工具。ollama serveOLLMAR_API_URL是否正确。ollama list检查模型状态。ollama pull 项目采用MIT许可证,具体条款请参见LICENSE文件。
欢迎社区贡献!请参考CONTRIBUTING.md了解如何参与开发。