JetsonMCP

JetsonMCP

🚀 JetsonMCP

JetsonMCP 是一个 MCP 服务器,它将 AI 助手与 NVIDIA Jetson Nano 超级系统相连接,可进行全面的边缘计算管理、AI 工作负载优化和系统管理。

JetsonMCP 使 Claude 等 AI 助手能够通过 SSH 连接帮助配置和管理 Jetson Nano 系统。从 AI 模型部署到系统优化,用户可以用自然语言提问,而无需学习复杂的 CUDA 和 Linux 命令。

🚀 快速开始

Jetson Nano 准备

  1. 全新安装 JetPack(建议版本 4.6 及以上)
  2. 启用 SSH 访问
  3. 充足的电源供应(建议使用 5V/4A 以实现最佳性能)
  4. MicroSD 卡(建议 64GB 及以上)或 NVMe SSD
  5. 联网 以便进行软件包安装

网络配置

  • 建议使用静态 IP 以确保稳定访问
  • 配置防火墙以允许 SSH(端口 22)
  • 可选:设置 VPN 以实现远程访问

具体步骤

1. 准备 Jetson Nano

# 启用 SSH(如果尚未启用)
sudo systemctl enable ssh
sudo systemctl start ssh

# 配置无密码 sudo(系统管理所需)
sudo visudo
# 添加:yourusername ALL=(ALL) NOPASSWD:ALL

# 获取 Jetson 的 IP 地址
hostname -I

2. 安装 JetsonMCP

# 克隆仓库
git clone https://github.com/ajeetraina/jetsonMCP.git
cd jetsonMCP

# 创建虚拟环境
python3 -m venv venv
source venv/bin/activate

# 安装依赖
pip install -e .

3. 配置连接

# 复制配置模板
cp .env.example .env

# 使用你的 Jetson 详细信息进行编辑
nano .env

必需的 .env 设置:

JETSON_HOST=192.168.1.100        # 你的 Jetson 的 IP 地址
JETSON_USERNAME=your_username     # SSH 用户名
JETSON_PASSWORD=your_password     # SSH 密码(或使用 SSH 密钥)
# JETSON_SSH_KEY_PATH=~/.ssh/id_rsa  # 可选:SSH 密钥路径

# 可选:高级配置
JETSON_POWER_MODE=0              # 0=MAXN, 1=5W, 2=10W
CUDA_VISIBLE_DEVICES=0           # GPU 设备选择
DOCKER_REGISTRY=localhost:5000   # 边缘部署的私有注册表

4. 集成 Claude Desktop

将以下内容添加到你的 Claude Desktop 配置中:

  • macOS~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows%APPDATA%\Claude\claude_desktop_config.json
  • Linux~/.config/Claude/claude_desktop_config.json
{
"mcpServers": {
"jetsonmcp": {
"command": "python",
"args": ["-m", "jetsonmcp.server"],
"cwd": "/absolute/path/to/jetsonMCP"
}
}
}

重启 Claude Desktop 以加载服务器。

✨ 主要特性

边缘 AI 管理

  • CUDA 工具包集成 - 自动设置和管理 CUDA 环境
  • JetPack 管理 - SDK 更新、组件安装和版本控制
  • AI 框架支持 - 对 TensorFlow、PyTorch、OpenCV、TensorRT 进行优化
  • 模型部署 - 自动进行模型转换、优化和服务

硬件优化

  • 电源管理 - 动态切换电源模式(10W/5W/MAXN)
  • 热管理 - 温度监控并自动降频
  • GPU 监控 - 监控内存使用、利用率和性能指标
  • 风扇控制 - 自定义风扇曲线并优化散热

容器编排

  • NVIDIA Docker - 管理支持 GPU 加速的容器运行时
  • 边缘 Kubernetes - 部署 K3s 以处理分布式 AI 工作负载
  • 多架构支持 - 管理和部署 ARM64 容器
  • 注册表管理 - 为边缘部署设置私有注册表

系统管理

  • 远程管理 - 通过 SSH 进行安全的系统管理
  • 软件包管理 - 安装/更新 APT 和 snap 软件包
  • 服务管理 - 控制和监控 Systemd 服务
  • 备份与恢复 - 管理和恢复系统状态

📦 安装指南

依赖安装

按照上述“快速开始”部分的步骤进行安装和配置。

💻 使用示例

基础用法

以下是一些使用自然语言请求的示例:

  • AI 与机器学习操作

    • "部署 YOLOv5 模型进行目标检测" - 下载、优化并运行推理
    • "检查 CUDA 内存使用情况" - 监控 GPU 利用率和内存分配
    • "切换到 5W 电源模式" - 优化电池供电时的功耗
    • "安装 TensorRT 优化" - 设置高性能推理引擎
  • 系统管理

    • "在运行推理时监控 GPU 温度" - 实时热监控
    • "将 JetPack 更新到最新版本" - 管理 NVIDIA 软件栈更新
    • "为 AI 工作负载优化 Docker" - 配置运行时以实现 GPU 加速
  • 边缘计算

    • "部署轻量级 Kubernetes 集群" - 设置 K3s 进行边缘编排
    • "配置远程模型服务" - 设置推理端点
    • "在 AI 任务期间监控系统资源" - 性能分析和优化

高级用法

电源管理

# 可用的电源模式
# 0: MAXN (15W) - 最大性能
# 1: 5W - 节能模式
# 2: 10W - 平衡模式
sudo nvpmodel -m 1  # 切换到 5W 模式

CUDA 环境

# 验证 CUDA 安装
nvcc --version
nvidia-smi

# 设置 CUDA 路径(JetsonMCP 会自动配置)
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS

Docker GPU 支持

# NVIDIA 容器工具包(由 JetsonMCP 管理)
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

📚 详细文档

可用工具

AI 与机器学习管理

  • manage_ai_workloads - 模型部署、推理优化、CUDA 管理
  • manage_jetpack - 安装、更新 JetPack SDK 并管理组件
  • manage_frameworks - 安装 TensorFlow、PyTorch、OpenCV、TensorRT

硬件控制

  • manage_hardware - 管理电源模式、温度监控、风扇控制、GPIO
  • manage_performance - 管理 CPU/GPU 调节器、频率缩放和热管理
  • manage_storage - 优化 SSD、配置交换空间和管理磁盘

容器操作

  • manage_containers - 管理 Docker、NVIDIA 运行时和 GPU 加速
  • manage_orchestration - 部署 Kubernetes/K3s 并设置边缘计算
  • manage_registry - 设置私有注册表并管理多架构镜像

系统管理

  • manage_system - 管理软件包、更新、服务控制和网络
  • manage_security - 配置防火墙、管理 SSH 密钥、用户管理和系统加固
  • manage_monitoring - 监控系统指标、日志记录、警报和远程监控

高级配置

电源管理

# 可用的电源模式
# 0: MAXN (15W) - 最大性能
# 1: 5W - 节能模式
# 2: 10W - 平衡模式
sudo nvpmodel -m 1  # 切换到 5W 模式

CUDA 环境

# 验证 CUDA 安装
nvcc --version
nvidia-smi

# 设置 CUDA 路径(JetsonMCP 会自动配置)
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS

Docker GPU 支持

# NVIDIA 容器工具包(由 JetsonMCP 管理)
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

测试与开发

运行测试

# 运行所有测试
make test

# 特定组件测试
make test-ai          # AI 工作负载管理
make test-hardware    # 硬件控制
make test-containers  # 容器操作
make test-system      # 系统管理

# 集成测试
python run_tests.py --integration --coverage

开发设置

# 安装开发依赖
pip install -e ".[dev]"

# 预提交钩子
pre-commit install

# 代码格式化
black jetsonmcp/
isort jetsonmcp/

# 类型检查
mypy jetsonmcp/

监控与可观测性

系统指标

  • CPU/GPU 利用率 - 实时监控性能
  • 内存使用 - 跟踪 RAM 和 GPU 内存
  • 温度传感器 - 监控温度并发出警报
  • 功耗 - 显示当前电源模式和使用指标

AI 工作负载指标

  • 推理延迟 - 对模型性能进行基准测试
  • 吞吐量 - 计算已部署模型的每秒请求数
  • 资源利用率 - 评估 GPU 内存和计算效率
  • 模型准确率 - 验证和监控模型性能

安全特性

SSH 安全

  • 主机密钥验证和轮换
  • 连接超时和重试逻辑
  • 管理和清理凭证
  • 记录所有操作的审计日志

容器安全

  • 扫描镜像漏洞
  • 实施运行时安全策略
  • 进行网络隔离和分段
  • 管理 AI 模型的机密信息

系统加固

  • 管理防火墙配置
  • 分离用户权限
  • 自动化系统更新
  • 监控安全补丁

使用案例

边缘 AI 开发

  • 快速原型开发 AI 应用程序
  • 模型优化和基准测试
  • 分布式推理部署
  • 实时计算机视觉应用

IoT 与传感器网络

  • 处理和分析传感器数据
  • 编排边缘计算
  • 远程管理设备
  • 预测性维护系统

工业应用

  • 质量控制和检查
  • 预测分析
  • 开发自主系统
  • 集成工业 IoT

🔧 技术细节

工作原理

自然语言请求通过 Claude Desktop 经由 MCP 协议转换为优化后的命令,然后在你的 Jetson Nano 上执行。

关键特性实现

  • 边缘 AI 管理:通过自动配置和管理 CUDA 环境、JetPack SDK 以及支持多种 AI 框架,实现高效的边缘 AI 开发和部署。
  • 硬件优化:利用系统工具和驱动程序,实现对电源、温度、GPU 等硬件资源的实时监控和优化。
  • 容器编排:借助 NVIDIA Docker 和 Kubernetes/K3s,实现对容器的高效管理和分布式 AI 工作负载的处理。
  • 系统管理:通过 SSH 协议和系统管理工具,实现远程、安全的系统管理和维护。

📄 许可证

文档中未提及许可证相关信息。

🤝 贡献说明

我们欢迎贡献!请参阅 CONTRIBUTING.md 获取贡献指南。

开发优先级

  1. AI 框架集成 - 支持更多的机器学习框架
  2. 边缘编排 - 高级 Kubernetes 边缘部署
  3. 硬件抽象 - 支持其他 Jetson 平台(AGX、Xavier)
  4. 监控增强 - 高级遥测和可观测性
  • 0 关注
  • 0 收藏,16 浏览
  • system 提出于 2025-10-04 08:15

相似服务问题

相关AI产品