本项目是一个检索增强生成(RAG)应用程序的演示,它结合了 MCP 服务器集成,能够高效地进行文档检索和上下文感知的提示生成,并集成了大型语言模型(LLM)API,为用户提供强大的信息处理能力。
通过 Claude Desktop、Cursor 或您 preferred 的 IDE 连接到 MCP 服务器,使用 process_query 工具即可针对公司提问。
pip install -r requirements.txt
通过 Claude Desktop、Cursor 或您 preferred 的 IDE 连接到 MCP 服务器。
使用 process_query 工具针对公司提问。
可根据具体需求,在配置文件中调整相关参数,以优化应用的性能和功能。
在 .env 文件中设置环境变量:
OPENAI_API_KEY=您的 API 密钥
| 文件路径 | 功能 |
|---|---|
| app/retrieval.py | 文档检索功能 |
| app/context.py | 上下文管理 |
| app/llm_client.py | LLM API 集成 |
| app/prompt_builder.py | 提示构建 |
本项目采用 MIT 许可证。