这是一个基于 TypeScript 的 MCP 服务器,为大语言模型(LLM)实现了一套内存系统,还能让你与不同的 LLM 提供商进行聊天。该服务器会维护对话历史记录,并且支持使用多种不同的 LLM 提供商。
MemGPT MCP 服务器为大语言模型提供了强大的内存系统和多提供商聊天功能。下面为你介绍如何快速开启使用之旅。
chat:向当前 LLM 提供商发送消息。
get_memory:获取对话历史记录。
limit 参数来指定要获取的记忆数量。limit: null 以无限制地检索所有记忆。clear_memory:清除对话历史记录,删除所有存储的记忆。use_provider:在不同的 LLM 提供商之间切换。
use_model:切换当前提供商的模型。
claude - 3 - haiku:响应速度最快,适合客服支持和内容审核等任务。claude - 3 - sonnet:性能均衡,适用于通用用途。claude - 3 - opus:高级模型,适合复杂推理和高性能任务。claude - 3.5 - haiku:响应速度更快且更具成本效益。claude - 3.5 - sonnet:性能更优,具备计算机交互能力。'gpt - 4o'、'gpt - 4o - mini' 和 'gpt - 4 - turbo'。'provider/model' 格式表示的模型(例如 'openai/gpt - 4'、'anthropic/claude - 2')。'llama2'、'codellama')。npm install
npm run build
npm run watch
要在 Claude Desktop 上使用,请将服务器配置添加到:
~/Library/Application Support/Claude/claude_desktop_config.json%APPDATA%/Claude/claude_desktop_config.json示例配置如下:
{
"servers": {
"your-server-name": {
"type": "memgpt",
"host": "localhost",
"port": 12345,
"apiKey": "your-api-key"
}
}
}
在运行服务器之前,需要设置以下环境变量:
OPENAI_API_KEY - OpenAI API 密钥ANTHROPIC_API_KEY - Anthropic API 密钥OLLAMA_SERVER_URL(可选) - Ollama 服务器的 URL,默认为 http://localhost:11434使用 MCP Inspector 工具可以帮助调试,因为它通过标准输入/输出进行通信。这对于监控和调整服务器行为非常有用。