基于七牛云产品构建的 Model Context Protocol (MCP) 服务器,能让用户在 AI 大模型客户端的上下文中与七牛云服务交互。该服务器支持七牛云存储(Kodo)、智能多媒体处理和内容分发网络(CDN)等功能。
基于七牛云产品构建的 Model Context Protocol (MCP) 服务器,支持用户在 AI 大模型客户端的上下文中与七牛云服务进行交互。若要使用该服务器,需先完成安装与配置。
克隆代码仓库:
git clone https://github.com/qiniu/mcp-server.git
cd mcp-server
安装项目依赖:
uv pip install -e .
配置环境变量:
复制并修改 env.example 文件,填写真实的七牛云凭证和区域信息。
在项目根目录下运行:
uv --directory . run qiniu-mcp-server
启用调试模式:
uv --directory . run qiniu-mcp-server --debug
import qiniu
# 初始化七牛云配置
config = qiniu.Config(
access_key='your_access_key',
secret_key='your_secret_key',
region=Region.region_z0()
)
# 创建存储实例
bucket = qiniu.Bucket(config, 'your_bucket_name')
# 上传文件
with open('file.jpg', 'rb') as f:
res = bucket.put_stream('target.jpg', f)
from qiniuImagePathProcessor import ImageProcessor
processor = ImageProcessor(access_key='...', secret_key='...')
processed_image = processor.resize('original.jpg', width=800, height=600)
在 core/storage 目录下创建新业务包,按需添加工具类和资源扩展文件。
在业务包的 __init__.py 中定义加载函数,并在 core/__init__.py 中统一注册。
安装并运行 Inspector:
npm install -g @modelcontextprotocol/inspector
inspector run qiniu-mcp-server
验证接口响应,确保所有操作符合预期。
如何处理上传失败?
多媒体处理慢怎么办?
CDN加速效果不明显?