本项目是一个模型上下文协议(Model Context Protocol,MCP)服务器的实现,为大语言模型提供持久化内存功能,助力模型在不同对话和会话中更好地存储、检索和推理信息。
本仓库包含 模型上下文协议 内存服务器的参考实现。该服务器基于知识图谱构建了持久化内存系统,使大语言模型能够在不同对话和会话中存储、检索信息并进行推理。
npm install
npm run build
运行内存服务器:
npx mcp-server-memory
npm run watch
此命令会以开发模式启动服务器,当文件发生更改时会自动重新构建。
在开发和测试阶段,可直接运行服务器:
# 若尚未构建,先进行构建
npm run build
# 运行服务器
node dist/index.js
构建完成后,可使用npm二进制文件名来运行服务器:
npx mcp-server-memory
服务器会持续运行,并通过标准输入输出(stdio)进行通信,这也是MCP服务器的标准通信方式。
MCP检查器 是开发过程中测试和调试内存服务器的优秀工具:
npx @modelcontextprotocol/inspector node dist/index.js
执行此命令会:
127.0.0.1:6277)。http://127.0.0.1:6274)。检查器提供了多个选项卡用于测试服务器:
src/index.ts 进行修改。npm run build 进行重新构建。npx @modelcontextprotocol/inspector node dist/index.js。要将此服务器与MCP客户端(如Claude Desktop)配合使用,需将其添加到客户端配置中:
{
"mcpServers": {
"memory": {
"command": "node",
"args": ["/path/to/your/mcp-memory-server/dist/index.js"]
}
}
}
若已发布到npm,可使用以下配置:
{
"mcpServers": {
"memory": {
"command": "npx",
"args": ["@modelcontextprotocol/server-memory"]
}
}
}
模型上下文协议(MCP)是一个开放标准,旨在实现AI应用程序与外部数据源和工具的无缝集成。欲了解更多信息,请访问 modelcontextprotocol.io。
本项目采用MIT许可证。