Mcp Repo2llm Server

Mcp Repo2llm Server

🚀 MCP-Repo2LLM 项目文档

mcp-repo2llm 是一款强大的 MCP 服务器,它能将代码仓库转换为适合大语言模型(LLM)处理的格式,在传统代码库与现代人工智能语言模型之间架起了一座桥梁。

🚀 快速开始

mcp-repo2llm 基于 RepoToTextForLLMs 构建,该库提供了将仓库转换为 LLM 可读取格式的核心功能。

✨ 主要特性

  • 智能仓库扫描:能够完整地处理整个代码库,同时保持代码结构的完整性。
  • 上下文保留:保存重要的上下文信息和文件之间的关系。
  • 多语言支持:针对多种编程语言进行处理,并提供特定优化。
  • 元数据增强:通过添加相关元数据来提升代码对 LLM 的可理解性。
  • 高效处理:优化了对大型仓库的处理效率,资源占用低。

📦 安装指南

要安装由 uv 提供支持的 mcp-repo2llm,可参考以下配置:

"mcp-repo2llm-server": {
"command": "uv",
"args": [
"run",
"--with",
"mcp[cli]",
"--with-editable",
"/mcp-repo2llm",
"mcp",
"run",
"/mcp-repo2llm/mcp-repo2llm-server.py"
],
"env":{
"GITHUB_TOKEN":"你的github令牌",
"GITLAB_TOKEN":"你的gitlab令牌"
}
}

GITHUB_TOKEN:你的 GitHub 令牌。
GITLAB_TOKEN:你的 GitLab 令牌。

📚 详细文档

动机

随着人工智能和大语言模型在软件开发中的重要性日益提升,如何有效地将我们的代码库与这些 AI 模型进行通信变得越来越关键。传统的代码仓库并不是针对 LLM 处理进行优化的,这可能导致使用 AI 工具进行代码分析和生成时效果不佳。

解决的问题

本项目解决了以下关键挑战:

  • 大型代码库在处理过程中难以利用 LLM 的问题。
  • 在将代码输入 AI 模型时上下文信息和结构的丢失。
  • 仓库元数据和文档处理效率低下。
  • 不同编程语言之间格式不一致的问题。

工具集

get_gitlab_repo
  • 功能:处理并返回 GitLab 仓库指定分支的代码内容(以文本形式)。
  • 输入
    • repo_url(字符串):来自 GitLab 的仓库 URL。
    • branch(字符串):分支名称,默认为 master
  • 输出:返回该仓库的所有信息和结构,格式为文本。
get_github_repo
  • 功能:处理并返回 Github 仓库指定分支的代码内容(以文本形式)。
  • 输入
    • repo_url(字符串):来自 Github 的仓库 URL。
    • branch(字符串):分支名称,默认为 master
  • 输出:返回该仓库的所有信息和结构,格式为文本。
get_local_repo
  • 功能:处理并返回本地 GitLab 仓库指定分支的代码内容(以文本形式)。
  • 输入
    • repo_url(字符串):仓库路径。
  • 输出:返回该仓库的所有信息和结构,格式为文本。
  • 0 关注
  • 0 收藏,21 浏览
  • system 提出于 2025-09-26 22:45

相似服务问题

相关AI产品