JetsonMCP 是一个 MCP 服务器,它能将 AI 助手连接到 NVIDIA Jetson Nano 超级系统,实现全面的边缘计算管理、AI 工作负载优化和系统管理。借助 JetsonMCP,像 Claude 这样的 AI 助手可以通过 SSH 连接帮助配置和管理 Jetson Nano 系统。用户无需学习复杂的 CUDA 和 Linux 命令,只需用自然语言提问,就能完成从 AI 模型部署到系统优化等一系列操作。
# 若 SSH 未启用,则启用 SSH
sudo systemctl enable ssh
sudo systemctl start ssh
# 配置无密码 sudo(系统管理需要)
sudo visudo
# 添加:yourusername ALL=(ALL) NOPASSWD:ALL
# 获取 Jetson 的 IP 地址
hostname -I
# 克隆仓库
git clone https://github.com/ajeetraina/jetsonMCP.git
cd jetsonMCP
# 创建虚拟环境
python3 -m venv venv
source venv/bin/activate
# 安装依赖
pip install -e .
# 复制配置模板
cp .env.example .env
# 使用 Jetson 的详细信息进行编辑
nano .env
所需的 .env 设置:
JETSON_HOST=192.168.1.100 # 你的 Jetson 的 IP 地址
JETSON_USERNAME=your_username # SSH 用户名
JETSON_PASSWORD=your_password # SSH 密码(或使用 SSH 密钥)
# JETSON_SSH_KEY_PATH=~/.ssh/id_rsa # 可选:SSH 密钥路径
# 可选:高级配置
JETSON_POWER_MODE=0 # 0=MAXN, 1=5W, 2=10W
CUDA_VISIBLE_DEVICES=0 # GPU 设备选择
DOCKER_REGISTRY=localhost:5000 # 用于边缘部署的私有注册表
添加到你的 Claude Desktop 配置中:
~/Library/Application Support/Claude/claude_desktop_config.json%APPDATA%\Claude\claude_desktop_config.json~/.config/Claude/claude_desktop_config.json{
"mcpServers": {
"jetsonmcp": {
"command": "python",
"args": ["-m", "jetsonmcp.server"],
"cwd": "/absolute/path/to/jetsonMCP"
}
}
}
重启 Claude Desktop 以加载服务器。
请参考快速开始部分的安装步骤。
自然语言请求通过 Claude Desktop 经 MCP 协议转换为优化命令,在你的 Jetson Nano 上执行。
# 电源管理
# 可用电源模式
# 0: MAXN (15W) - 最大性能
# 1: 5W - 节能模式
# 2: 10W - 平衡模式
sudo nvpmodel -m 1 # 切换到 5W 模式
# CUDA 环境
# 验证 CUDA 安装
nvcc --version
nvidia-smi
# 设置 CUDA 路径(由 JetsonMCP 自动配置)
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS
# Docker GPU 支持
# NVIDIA 容器工具包(由 JetsonMCP 管理)
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
manage_ai_workloads - 管理模型部署、推理优化和 CUDA 管理。manage_jetpack - 管理 JetPack SDK 的安装、更新和组件。manage_frameworks - 安装 TensorFlow、PyTorch、OpenCV、TensorRT 等框架。manage_hardware - 控制电源模式、温度监控、风扇和 GPIO。manage_performance - 管理 CPU/GPU 调节器、频率缩放和热管理。manage_storage - 优化 SSD、配置交换空间和管理磁盘。manage_containers - 管理 Docker 容器、NVIDIA 运行时和 GPU 加速。manage_orchestration - 部署 Kubernetes/K3s 集群,设置边缘计算。manage_registry - 设置私有注册表,管理多架构镜像。manage_system - 管理软件包、更新、服务控制和网络。manage_security - 配置防火墙、SSH 密钥、用户管理和系统加固。manage_monitoring - 监控系统指标、日志记录、警报和远程监控。# 可用电源模式
# 0: MAXN (15W) - 最大性能
# 1: 5W - 节能模式
# 2: 10W - 平衡模式
sudo nvpmodel -m 1 # 切换到 5W 模式
# 验证 CUDA 安装
nvcc --version
nvidia-smi
# 设置 CUDA 路径(由 JetsonMCP 自动配置)
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS
# NVIDIA 容器工具包(由 JetsonMCP 管理)
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
# 运行所有测试
make test
# 特定组件测试
make test-ai # AI 工作负载管理
make test-hardware # 硬件控制
make test-containers # 容器操作
make test-system # 系统管理
# 集成测试
python run_tests.py --integration --coverage
# 安装开发依赖
pip install -e ".[dev]"
# 预提交钩子
pre-commit install
# 代码格式化
black jetsonmcp/
isort jetsonmcp/
# 类型检查
mypy jetsonmcp/
JetsonMCP 通过 MCP 协议将自然语言请求转换为优化命令,在 Jetson Nano 上执行。它集成了 CUDA 工具包、JetPack SDK 等,实现了对 AI 工作负载、硬件资源和容器的全面管理。同时,它还提供了丰富的安全特性,确保系统的安全性和稳定性。
我们欢迎贡献!请参阅 CONTRIBUTING.md 获取贡献指南。