n8n MCP 服务器是一个模型上下文协议(MCP)服务器,它允许 AI 助手借助自然语言与 n8n 工作流展开交互,为工作流管理提供了便捷途径。
此 MCP 服务器为 AI 助手提供了管理 n8n 工作流及其执行的工具和资源。它使助手能够:
npm install -g n8n-mcp-server
# 克隆仓库
git clone https://github.com/leonardsellem/n8n-mcp-server.git
cd n8n-mcp-server
# 安装依赖项
npm install
# 构建项目
npm run build
# 可选:全局安装
npm install -g .
在运行服务器的目录中创建一个 .env 文件,使用 .env.example 作为模板:
cp .env.example .env
配置以下环境变量:
N8N_API_URL: n8n 实例的 URL(例如 http://localhost:3000)N8N_API_KEY: n8n 的 API 密钥// 工作流管理
const result = await useWorkflowList();
// 返回所有工作流列表
const workflow = await useWorkflowGet('id');
// 获取特定工作流的详细信息
const new_workflow = {
name: 'New Workflow',
nodes: [],
edges: []
};
const result = await useWorkflowCreate(new_workflow);
// 创建新工作流
const updated_workflow = {
id: 'workflow-id',
name: 'Updated Workflow'
};
const result = await useWorkflowUpdate('workflow-id', updated_workflow);
// 更新现有工作流
await useWorkflowDelete('workflow-id');
// 删除工作流
// 执行管理
const data = {
input: 'Hello, World!'
};
const execution_result = await useExecutionRun('workflow-id', data);
// 通过 API 执行工作流
const webhook_result = await useRunWebhook('webhook-id', {
prompt: '触发网络钩子'
});
// 通过网络钩子执行工作流
await useExecutionStop('execution-id');
// 停止正在运行的执行
// 资源访问
const result = await getResource('n8n://workflows/list');
// 获取所有工作流列表
const workflow_details = await getResource(`n8n://workflow/${workflowId}`);
// 获取特定工作流的详细信息
const execution_list = await getResource(`n8n://executions/${workflowId}`);
// 获取工作流的所有执行
const execution_details = await getResource(`n8n://execution/${executionId}`);
// 获取特定执行的详细信息
npm run build
npm run dev
npm test
npm run lint
本项目采用 MIT 许可证。