MCP 内存是一个模型上下文协议(MCP)服务器,专为数据丰富的应用程序提供内存解决方案。它借助高效的图知识图谱 capabilities 管理内存,能从多个来源获取信息,有效提升应用程序的性能和数据处理能力。
MCP 服务器为涉及从多个来源(包括上传文件)获取信息的数据丰富的应用程序实现了内存解决方案。它使用 HippoRAG 在内部管理内存,HippoRAG 是此包的必需依赖项。
pip install mcp-mem hipporag
git clone https://github.com/ddkang1/mcp-mem.git
cd mcp-mem
pip install -e .
pip install hipporag
⚠️ 重要提示
HippoRAG 是 mcp-mem 正常运行的必需依赖项。
可以直接运行 MCP 服务器,默认使用 stdio 传输:
mcp-mem
mcp-mem --sse
mcp-mem --sse --host 127.0.0.1 --port 3001
要在 Windsurf 中与 Claude 结合使用此工具,请将以下配置添加到 MCP 配置文件中:
"memory": {
"command": "/path/to/mcp-mem",
"args": [],
"type": "stdio",
"pollingInterval": 30000,
"startupTimeout": 30000,
"restartOnFailure": true
}
command 字段应指向您使用 pip 安装 python 包的位置。
可以通过环境变量配置 mcp-mem 所使用的 LLM 和嵌入式模型:
| 属性 | 详情 |
|---|---|
EMBEDDING_MODEL_NAME |
要使用的嵌入式模型名称(默认: "text-embedding-3-large") |
EMBEDDING_BASE_URL |
嵌入式 API 的基础 URL(可选) |
LLM_NAME |
要使用的 LLM 模型名称(默认: "gpt-4o-mini") |
LLM_BASE_URL |
LLM API 的基础 URL(可选) |
OPENAI_API_KEY |
OpenAI API 密钥(必需) |
0 以禁用清理。默认值为 0。0 以禁用清理。默认值为 0。create_memory 创建新的内存。store_memory 存储内存。retrieve_memory 检索内存。要开发,请安装以下依赖项:
pip install -r requirements.txt
pytest tests/
black .
flake8 .
mypy .
贡献请遵循标准的开发流程,并在提交之前确保通过所有测试。
项目采用 MIT License。