此包为 Spinnaker 集成提供了 Model Context Protocol (MCP) 服务器实现,让 AI 模型能借助标准化的 MCP 接口,与 Spinnaker 的部署、管道和应用进行交互,极大提升了软件部署流程的智能化水平。
本 MCP 服务器可助力 AI 模型与 Spinnaker 集成,以下是简单的使用步骤:
这个 MCP 服务器展示了 Anthropic 新的 AI 模型 Claude 如何直接集成并增强软件部署流程,遵循 MCP 标准。Claude 可以访问丰富的上下文信息,了解 Spinnaker 应用、管道和部署的状态,并通过定义良好的工具主动管理它们。AI 驱动的 CI/CD 具备以下显著特性:
可使用 npm 或 yarn 进行安装:
npm install @airjesus17/mcp-server-spinnaker
# 或者
yarn add @airjesus17/mcp-server-spinnaker
import { SpinnakerMCPServer } from '@airjesus17/mcp-server-spinnaker';
// 创建 MCP 服务器实例
const server = new SpinnakerMCPServer({
gateUrl: 'http://localhost:8050', // 必填:Spinnaker Gate 服务 URL
port: 3000, // 可选:MCP 服务器端口,默认为 3000
});
// 启动服务器
await server.start();
getApplications(): 获取所有 Spinnaker 应用。getPipelines(applicationId: string): 获取指定应用的所有管道。getDeployments(environment: string): 获取指定环境的所有部署。服务器可通过以下环境变量进行配置:
| 属性 | 详情 |
|---|---|
GATE_URL |
Spinnaker Gate 服务 URL |
MCP_PORT |
MCP 服务器运行的端口(默认:3000) |
REFRESH_INTERVAL |
上下文刷新间隔(秒, 默认:30) |
包导出了 TypeScript 类型以供使用:
import type {
SpinnakerApplication,
SpinnakerPipeline,
SpinnakerDeployment,
SpinnakerExecution
} from '@airjesus17/mcp-server-spinnaker';
要贡献代码,可按以下步骤操作:
yarn install。yarn build。yarn test。本项目采用 MIT License,详情请见 LICENSE。