JetsonMCP 是一个 MCP 服务器,它将 AI 助手与 NVIDIA Jetson Nano 超级系统相连接,可进行全面的边缘计算管理、AI 工作负载优化和系统管理。
JetsonMCP 使 Claude 等 AI 助手能够通过 SSH 连接帮助配置和管理 Jetson Nano 系统。从 AI 模型部署到系统优化,用户可以用自然语言提问,而无需学习复杂的 CUDA 和 Linux 命令。
# 启用 SSH(如果尚未启用)
sudo systemctl enable ssh
sudo systemctl start ssh
# 配置无密码 sudo(系统管理所需)
sudo visudo
# 添加:yourusername ALL=(ALL) NOPASSWD:ALL
# 获取 Jetson 的 IP 地址
hostname -I
# 克隆仓库
git clone https://github.com/ajeetraina/jetsonMCP.git
cd jetsonMCP
# 创建虚拟环境
python3 -m venv venv
source venv/bin/activate
# 安装依赖
pip install -e .
# 复制配置模板
cp .env.example .env
# 使用你的 Jetson 详细信息进行编辑
nano .env
必需的 .env 设置:
JETSON_HOST=192.168.1.100 # 你的 Jetson 的 IP 地址
JETSON_USERNAME=your_username # SSH 用户名
JETSON_PASSWORD=your_password # SSH 密码(或使用 SSH 密钥)
# JETSON_SSH_KEY_PATH=~/.ssh/id_rsa # 可选:SSH 密钥路径
# 可选:高级配置
JETSON_POWER_MODE=0 # 0=MAXN, 1=5W, 2=10W
CUDA_VISIBLE_DEVICES=0 # GPU 设备选择
DOCKER_REGISTRY=localhost:5000 # 边缘部署的私有注册表
将以下内容添加到你的 Claude Desktop 配置中:
~/Library/Application Support/Claude/claude_desktop_config.json%APPDATA%\Claude\claude_desktop_config.json~/.config/Claude/claude_desktop_config.json{
"mcpServers": {
"jetsonmcp": {
"command": "python",
"args": ["-m", "jetsonmcp.server"],
"cwd": "/absolute/path/to/jetsonMCP"
}
}
}
重启 Claude Desktop 以加载服务器。
按照上述“快速开始”部分的步骤进行安装和配置。
以下是一些使用自然语言请求的示例:
AI 与机器学习操作:
系统管理:
边缘计算:
# 可用的电源模式
# 0: MAXN (15W) - 最大性能
# 1: 5W - 节能模式
# 2: 10W - 平衡模式
sudo nvpmodel -m 1 # 切换到 5W 模式
# 验证 CUDA 安装
nvcc --version
nvidia-smi
# 设置 CUDA 路径(JetsonMCP 会自动配置)
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS
# NVIDIA 容器工具包(由 JetsonMCP 管理)
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
manage_ai_workloads - 模型部署、推理优化、CUDA 管理manage_jetpack - 安装、更新 JetPack SDK 并管理组件manage_frameworks - 安装 TensorFlow、PyTorch、OpenCV、TensorRTmanage_hardware - 管理电源模式、温度监控、风扇控制、GPIOmanage_performance - 管理 CPU/GPU 调节器、频率缩放和热管理manage_storage - 优化 SSD、配置交换空间和管理磁盘manage_containers - 管理 Docker、NVIDIA 运行时和 GPU 加速manage_orchestration - 部署 Kubernetes/K3s 并设置边缘计算manage_registry - 设置私有注册表并管理多架构镜像manage_system - 管理软件包、更新、服务控制和网络manage_security - 配置防火墙、管理 SSH 密钥、用户管理和系统加固manage_monitoring - 监控系统指标、日志记录、警报和远程监控# 可用的电源模式
# 0: MAXN (15W) - 最大性能
# 1: 5W - 节能模式
# 2: 10W - 平衡模式
sudo nvpmodel -m 1 # 切换到 5W 模式
# 验证 CUDA 安装
nvcc --version
nvidia-smi
# 设置 CUDA 路径(JetsonMCP 会自动配置)
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS
# NVIDIA 容器工具包(由 JetsonMCP 管理)
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
# 运行所有测试
make test
# 特定组件测试
make test-ai # AI 工作负载管理
make test-hardware # 硬件控制
make test-containers # 容器操作
make test-system # 系统管理
# 集成测试
python run_tests.py --integration --coverage
# 安装开发依赖
pip install -e ".[dev]"
# 预提交钩子
pre-commit install
# 代码格式化
black jetsonmcp/
isort jetsonmcp/
# 类型检查
mypy jetsonmcp/
自然语言请求通过 Claude Desktop 经由 MCP 协议转换为优化后的命令,然后在你的 Jetson Nano 上执行。
文档中未提及许可证相关信息。
我们欢迎贡献!请参阅 CONTRIBUTING.md 获取贡献指南。