本指南将帮助您在 HuggingFace Spaces 上部署和管理 MCP 服务器,充分发挥其功能,提升模型开发和应用效率。
MCP 服务器实现了 Model Context Protocol (MCP),具备以下强大功能:
若要在 HuggingFace Spaces 上运行 MCP 服务器,请按以下步骤操作:
mcp-hfspace)。app.py 文件中替换现有代码,粘贴以下内容:from modelcontextprotocol.mcp import server
server.run(
config={
"spaces": {
"llmindset/mcp-hfspace": {
"command": "npx",
"args": [
"-y",
"@llmindset/mcp-hfspace",
"--work-dir=~/mcp-files/",
"--HF_TOKEN=your_token_here"
],
"models": [
"Qwen/Qwen2.5-72B-Instruct",
"black-forest-labs/FLUX.1-schnell",
"llmindset/mcp-hfspace/example/specific-endpoint"
]
}
}
}
)
HF_TOKEN 环境变量,并赋值为你的 HuggingFace 令牌。npx @llmindset/mcp-hfspace --work-dir=~/mcp-files/ --HF_TOKEN=your_token_here model1 model2 specific-endpoint...
--work-dir:指定工作目录(默认为当前目录)。--HF_TOKEN:HuggingFace 令牌,用于访问私有 Space。MCP 服务器在不同场景下的基础使用示例如下:
mcp-instruct Qwen/Qwen2.5-72B-Instruct --prompt "讲一个关于人工智能的故事"
mcp-vision microsoft/OmniParser --input image.jpg --task "图像描述"
mcp-composite llmindset/mcp-hfspace \
--model1 Qwen/Qwen2.5-72B-Instruct \
--model2 black-forest-labs/FLUX.1-schnell \
--prompt "生成一个创意广告标题"
MCP 服务器实现了 Model Context Protocol (MCP),支持以下功能:
MCP 提供以下工具以增强功能:
HF_TOKEN 不被泄露。文档中未提及相关许可证信息。
通过以上指南,您可以顺利在 HuggingFace Spaces 上部署和管理 MCP 服务器,并充分利用其强大的功能来提升模型开发和应用效率。如需进一步帮助,请参考 HuggingFace 文档 或联系社区支持。