MCP_DOCKER

MCP_DOCKER

🚀 AI工具为开发者服务

本项目借助由Docker容器支持的自适应工作流程,结合Markdown与大语言模型(LLM),为开发者开启了无限的工作流可能性。

🚀 快速开始

MCP使用

您可以编写提示并注册它们作为MCP服务器。使用--mcp标志以服务模式运行,然后通过git引用或路径注册提示,例如:

# ...
serve
--mcp
--register github:docker/labs-ai-tools-for-devs?path=prompts/examples/generate_dockerfile.md
--register /Users/ai-overlordz/some/local/prompt.md
# ...

整体架构预览

订阅与相关链接

本项目是许多实验的来源,您可以订阅我们的LinkedIn通讯。同时,您还可以使用我们的VSCode扩展以及查看文档

✨ 主要特性

项目本质

这是一个简单的Docker镜像,结合了Markdown和您选择的LLM(大语言模型),为您开启了无限的工作流可能性。

Markdown作为语言

人类已经使用它,LLM也是如此。此软件使您能够在Markdown文件中编写复杂的工作流程,并在编辑器、终端或任何环境中通过自己的LLM运行它们。

Docker化工具

兼容OpenAI API的LLM已支持工具调用。我们相信这些工具可以是Docker镜像。使用Docker的一些优势在于:LLM能够执行更多复杂操作、在更少的token中获取上下文、在更广泛环境中运行、并以沙盒环境运行。

会话循环

会话循环是每个工作流程的核心。工具结果、代理响应以及当然Markdown提示,都会通过此循环传递。如果一个代理遇到错误,它将尝试使用不同的参数运行工具,甚至尝试其他工具,直到获得正确的结果。

多模型代理

每个提示都可以配置为使用不同的LLM模型或不同模型家族运行。这样您可以根据任务选择最佳模型。结合Docker后,前沿模型可以进行计划,而轻量级本地模型负责执行操作。

项目为中心的设计

要从一个助手那里获得帮助以用于您的软件开发循环中,唯一需要的上下文就是您正在处理的项目。

提取项目上下文

提取器是一个Docker镜像,运行于项目上并将其信息提取到JSON上下文中。

提示作为可追踪 artifact

提示存储在GitHub仓库中,并可以引用特定路径和提交。例如:

github:docker/labs-githooks?ref=main&path=prompts/git_hooks

📚 详细文档

您是一位阅读README的专家。请使用curl获取https://github.com/docker/labs-ai-tools-for-devs项目的README,然后回答以下问题:这个项目是什么?

综上所述,这个项目是一个借助Docker容器支持的自适应工作流程,将Markdown与大语言模型相结合,为开发者提供多样化工作流可能性的工具。它具备MCP功能、支持多模型代理、采用项目为中心的设计等特性,并且可以通过注册提示来实现特定的功能。

  • 0 关注
  • 0 收藏,18 浏览
  • system 提出于 2025-09-18 12:45

相似服务问题

相关AI产品