mcp-repo2llm 是一款强大的 MCP 服务器,它能将代码仓库转换为适合大语言模型(LLM)处理的格式,在传统代码库与现代人工智能语言模型之间架起了一座桥梁。
mcp-repo2llm 基于 RepoToTextForLLMs 构建,该库提供了将仓库转换为 LLM 可读取格式的核心功能。
要安装由 uv 提供支持的 mcp-repo2llm,可参考以下配置:
"mcp-repo2llm-server": {
"command": "uv",
"args": [
"run",
"--with",
"mcp[cli]",
"--with-editable",
"/mcp-repo2llm",
"mcp",
"run",
"/mcp-repo2llm/mcp-repo2llm-server.py"
],
"env":{
"GITHUB_TOKEN":"你的github令牌",
"GITLAB_TOKEN":"你的gitlab令牌"
}
}
GITHUB_TOKEN:你的 GitHub 令牌。
GITLAB_TOKEN:你的 GitLab 令牌。
随着人工智能和大语言模型在软件开发中的重要性日益提升,如何有效地将我们的代码库与这些 AI 模型进行通信变得越来越关键。传统的代码仓库并不是针对 LLM 处理进行优化的,这可能导致使用 AI 工具进行代码分析和生成时效果不佳。
本项目解决了以下关键挑战:
repo_url(字符串):来自 GitLab 的仓库 URL。branch(字符串):分支名称,默认为 master。repo_url(字符串):来自 Github 的仓库 URL。branch(字符串):分支名称,默认为 master。repo_url(字符串):仓库路径。