本项目借助由Docker容器支持的自适应工作流程,结合Markdown与大语言模型(LLM),为开发者开启了无限的工作流可能性。
您可以编写提示并注册它们作为MCP服务器。使用--mcp标志以服务模式运行,然后通过git引用或路径注册提示,例如:
# ...
serve
--mcp
--register github:docker/labs-ai-tools-for-devs?path=prompts/examples/generate_dockerfile.md
--register /Users/ai-overlordz/some/local/prompt.md
# ...
本项目是许多实验的来源,您可以订阅我们的LinkedIn通讯。同时,您还可以使用我们的VSCode扩展以及查看文档。
这是一个简单的Docker镜像,结合了Markdown和您选择的LLM(大语言模型),为您开启了无限的工作流可能性。
人类已经使用它,LLM也是如此。此软件使您能够在Markdown文件中编写复杂的工作流程,并在编辑器、终端或任何环境中通过自己的LLM运行它们。
兼容OpenAI API的LLM已支持工具调用。我们相信这些工具可以是Docker镜像。使用Docker的一些优势在于:LLM能够执行更多复杂操作、在更少的token中获取上下文、在更广泛环境中运行、并以沙盒环境运行。
会话循环是每个工作流程的核心。工具结果、代理响应以及当然Markdown提示,都会通过此循环传递。如果一个代理遇到错误,它将尝试使用不同的参数运行工具,甚至尝试其他工具,直到获得正确的结果。
每个提示都可以配置为使用不同的LLM模型或不同模型家族运行。这样您可以根据任务选择最佳模型。结合Docker后,前沿模型可以进行计划,而轻量级本地模型负责执行操作。
要从一个助手那里获得帮助以用于您的软件开发循环中,唯一需要的上下文就是您正在处理的项目。
提取器是一个Docker镜像,运行于项目上并将其信息提取到JSON上下文中。
提示存储在GitHub仓库中,并可以引用特定路径和提交。例如:
github:docker/labs-githooks?ref=main&path=prompts/git_hooks
您是一位阅读README的专家。请使用curl获取https://github.com/docker/labs-ai-tools-for-devs项目的README,然后回答以下问题:这个项目是什么?
综上所述,这个项目是一个借助Docker容器支持的自适应工作流程,将Markdown与大语言模型相结合,为开发者提供多样化工作流可能性的工具。它具备MCP功能、支持多模型代理、采用项目为中心的设计等特性,并且可以通过注册提示来实现特定的功能。