ollama-MCP-server 是一个基于 Model Context Protocol (MCP) 的项目,旨在为用户提供本地运行和管理大语言模型(LLM)的服务器。它借助 Ollama 工具,让用户能方便调用多种模型并通过 MCP 协议交互。
git clone https://github.com/yourusername/ollama-MCP-server.git
cd ollama-MCP-server
python -m venv venv
source venv/bin/activate # 在 Windows 上使用:venv\Scripts\activate
pip install -r requirements.txt
./run_server.sh
--debug # 开启调试模式(日志级别为 DEBUG)
--log=LEVEL # 设置日志级别(DEBUG, INFO, WARNING, ERROR, CRITICAL)
# 通过 MCP 协议调用模型
response = await mcp.use_mcp_tool({
"server_name": "ollama-MCP-server",
"tool_name": "run-model",
"arguments": {
"model": "llama3",
"prompt": "请简单解释量子计算。",
"temperature": 0.7
}
})
git clone https://github.com/yourusername/ollama-MCP-server.git
cd ollama-MCP-server
python -m venv venv
source venv/bin/activate # 在 Windows 上使用:venv\Scripts\activate
pip install -r requirements.txt
config.py 文件,设置服务器端口、日志级别等参数。models 目录,并下载所需的 Ollama 模型文件放置其中。# 启动服务器
./run_server.sh
模型管理:
日志与监控
git clone https://github.com/yourusername/ollama-MCP-server.git
cd ollama-MCP-server
python -m venv venv
source venv/bin/activate # 在 Windows 上使用:venv\Scripts\activate
pip install -r requirements.dev.txt
git checkout -b feature/your-feature-name
git add .
git commit -m "描述你的修改"
git push origin feature/your-feature-name
文档中未提及具体的许可证信息。
感谢所有为 ollama-MCP-server 项目做出贡献的开发者和支持者。