本项目是一个与 Figma API 交互的 Model Context Protocol (MCP) 服务器,内置内存高效的分块和分页功能,能够有效处理大文件,极大提升了处理效率和内存利用率。
此文档将详细介绍“带分块功能的 Figma MCP 服务器”(以下简称“服务器”)的使用方法,涵盖安装、配置、工具使用、内存管理等相关指南。
# 使用以下命令安装:
figma-mcp-server --install
# 克隆仓库:
git clone https://github.com/your-repository.git
cd figma-mcp-server
# 安装依赖:
npm install
# 启动服务器:
node index.js
设置以下环境变量以配置服务器行为:
FIGMA_ACCESS_TOKEN:Figma 访问令牌MAX_MEMORY_MB:最大允许内存(单位:MB)DEFAULT_CHUNK_SIZE:默认分块大小(单位:节点)创建或修改 config.json 文件,添加以下内容:
{
"accessToken": "your-figma-token",
"maxMemory": 512,
"chunkSize": 100
}
get_file_data)fileKey 和 accessToken# 请求参数:
{
"tool": "get_file_data",
"arguments": {
"fileKey": "abc123",
"nodeTypes": ["rectangle", "ellipse"]
}
}
# 返回数据:
{
"data": {
"nodes": [ ... ],
" pageInfo": { "hasNext": true, "cursor": "xyz456" }
},
"metadata": {
"memoryUsage": 256,
"responseTime": 500
}
}
list_files)accessToken# 请求参数:
{
"tool": "list_files",
"arguments": {
"accessToken": "your-figma-token"
}
}
# 返回数据:
{
"data": { "files": [...] },
"metadata": {}
}
[MCP 调试] 从 config.json 加载配置
[MCP 调试] 找到访问令牌:xxxxxxx...
[MCP 调试] 请求 { tool: 'get_file_data', arguments: {...} }
[MCP 调试] 响应大小为 2.5 MB
# 设置调试环境变量:
export DEBUG=true
⚠️ 重要提示
文档内容版权归作者所有,未经授权禁止转载或复制。