LibreModel MCP Server 是一个模型上下文协议(MCP)服务器,它能将 Claude Desktop 与通过 llama-server 运行的本地大语言模型(LLM)实例连接起来。
cd llama-mcp
npm install
npm run build
确保 llama-server 正在运行你的模型:
./llama-server -m lm37.gguf -c 2048 --port 8080
将以下内容添加到你的 Claude Desktop 配置文件(~/.config/claude/claude_desktop_config.json)中:
{
"mcpServers": {
"libremodel": {
"command": "node",
"args": ["/home/jerr/llama-mcp/dist/index.js"]
}
}
}
重启后,Claude 就可以通过 MCP 访问 LibreModel 了!
chat - 主要对话工具使用聊天工具向 LibreModel 提问:"你叫什么名字,能做什么?"
quick_test - 测试 LibreModel 能力运行类型为 "creative" 的 quick_test,查看 LibreModel 是否能写诗。
health_check - 监控服务器状态使用 health_check 检查 LibreModel 是否正常运行。
设置环境变量以自定义行为:
export LLAMA_SERVER_URL="http://localhost:8080" # 默认的 llama-server URL
| 工具 | 描述 | 参数 |
|---|---|---|
chat |
与模型对话 | message、temperature、max_tokens、top_p、top_k、system_prompt |
quick_test |
运行预定义的能力测试 | test_type(hello/math/creative/knowledge) |
health_check |
检查服务器健康和状态 | 无 |
# 安装依赖
npm install
# 开发模式(自动重建)
npm run dev
# 生产环境构建
npm run build
# 直接启动服务器
npm start
Claude Desktop ←→ LLama MCP Server ←→ llama-server API ←→ Local Model
MCP 服务器充当桥梁,将 MCP 协议消息转换为 llama-server API 调用,并为 Claude Desktop 格式化响应。
“无法连接到 LLama 服务器”
“Claude Desktop 中找不到工具”
index.js 的路径是否正确且为绝对路径。响应质量不佳
本项目采用 CC0-1.0 许可证,属于公共领域,可自由使用!
本项目由 Claude Sonnet4 为开源人工智能和 LibreModel 项目精心打造 ❤️。