这是一个模型上下文协议(MCP)服务器,为处理iOS的Localizable.xcstrings文件提供工具。该工具借助Xcode字符串目录,实现了iOS/macOS项目的自动翻译工作流和本地化管理。
使用以下命令启动服务器:
uv run src/localizable_xstrings_mcp/server.py
这将启动一个FastMCP界面,你可以在其中:
若要在Claude Code中使用此MCP服务器,请按以下步骤操作:
uv sync
fastmcp install claude-code server.py --name "localizable-xcstrings" \
--env OPENAI_API_KEY=your_api_key \
--env OPENAI_MODEL=gpt-4o-mini
get_languages_toolget_keys_toolget_base_strings_tooltranslate_toolapply_toolapply_missing_tooltranslate_key_toolgit clone
cd localizable-xcstrings-mcp
uv sync
OPENAI_API_KEY=your_openai_api_key_here
OPENAI_MODEL:选择翻译模型(默认:gpt-4o-mini)TRANSLATION_CHUNK_SIZE:调整大文件的批量大小TRANSLATION_TEMPERATURE:控制翻译的创造性(0.0 - 1.0)TRANSLATION_MAX_CONCURRENT_CHUNKS:限制并发API请求TRANSLATION_RATE_LIMIT_DELAY:API调用之间的延迟使用get_languages_tool并指定Localizable.xcstrings文件的路径
使用get_keys_tool列出所有本地化键
使用apply_tool并指定目标语言(例如,"de" 代表德语)
确保你的.env文件中已正确配置OpenAI API密钥
使用translate_key_tool翻译单个字符串
所有配置都通过.env文件中的环境变量进行管理:
| 属性 | 详情 |
|---|---|
OPENAI_API_KEY |
必需,你的OpenAI API密钥 |
OPENAI_MODEL |
可选,翻译模型(默认:gpt-4o-mini) |
OPENAI_BASE_URL |
可选,自定义API基础URL |
TRANSLATION_CHUNK_SIZE |
可选,每个API请求的字符串数量(默认:50) |
TRANSLATION_TEMPERATURE |
可选,模型创造性(0.0 - 1.0,默认:0.3) |
TRANSLATION_MAX_CONCURRENT_CHUNKS |
可选,最大并发请求数(默认:2) |
TRANSLATION_RATE_LIMIT_DELAY |
可选,请求之间的延迟(秒,默认:1.0) |
此工具支持Xcode 15+的字符串目录文件(.xcstrings)。这些文件使用JSON结构存储本地化字符串和元数据。
运行测试套件:
uv run pytest tests/test_xcstrings_tools.py -v
若遇到问题或有疑问: