本项目实现了一个模型上下文协议(MCP)服务器,助力 AI 助手访问包括 LangChain、LlamaIndex 和 OpenAI 在内的各类 Python 库的最新文档。借助该服务器,AI 助手能够动态获取并提供来自官方文档源的相关信息,确保 AI 应用程序始终掌握最新的官方文档。
pip install requests
pip install beautifulsoup4
pip install lxml
git clone https://github.com/your-repository.git
cd dorect
python setup.py install
下载并安装适用于您操作系统的二进制文件。
创建一个 .env 文件:
export API_KEY=your_api_key_here
export ENDPOINT=http://localhost:8000
运行 MCP 服务器:
python -m dorect.server
访问控制台以获取更多信息。
git clone https://github.com/your-repository.git
cd dorect
python setup.py install
下载并安装适用于您操作系统的二进制文件。
# 检索文档
dorect fetch --query "Python编程"
# 更新文档库
dorect update --source "official_docs"
模型上下文协议是一个开源标准,使开发人员能够构建安全的双向连接,其数据源和 AI 工具之间。架构很简单:开发人员可以使用 MCP 服务器暴露其数据或构建 AI 应用程序(MCP 服务器)以访问这些数据。
此项目采用 MIT 许可证。更多详细信息,请参阅LICENSE文件。