一个基于模型上下文协议(MCP)的服务器,它能让大语言模型(LLM)直接与本地存储的文档进行交互,通过代理检索增强生成(RAG)和混合搜索在 LanceDB 中得以实现。用户可以向 LLM 询问有关整个数据集或特定文档的问题。
要开启使用,请创建一个本地目录用于存储索引,并将以下配置添加到您的 Claude Desktop 配置文件中:
~/Library/Application\ 支持/Claude/claude_desktop_config.json%APPDATA%/Claude/claude_desktop_config.json{
"mcpServers": {
"lancedb": {
"command": "npx",
"args": [
"lance-mcp",
"本地索引目录路径"
]
}
}
}
ollama pull snowflake-arctic-embed2ollama pull llama3.1:8b{
"mcpServers": {
"lancedb": {
"command": "node",
"args": [
"生成的 index.js 文件路径"
]
}
}
}
您需要运行 npm run build 来生成 index.js。
使用 Inspector 工具检查 MCP 服务器的状态:
inspect http://localhost:3000
运行种子脚本以创建两个表:
运行命令时,指定数据库路径和文档文件夹的位置:
node seeds/index.js --db <数据库路径> --docs <文档文件夹路径>
如果需要重新创建索引,可以使用 --overwrite 选项。
项目使用 MIT License,允许自由使用和修改。