Jetsonmcp

Jetsonmcp

🚀 JetsonMCP

JetsonMCP 是一个 MCP 服务器,它能将 AI 助手连接到 NVIDIA Jetson Nano 超级系统,实现全面的边缘计算管理、AI 工作负载优化和系统管理。借助 JetsonMCP,像 Claude 这样的 AI 助手可以通过 SSH 连接帮助配置和管理 Jetson Nano 系统。用户无需学习复杂的 CUDA 和 Linux 命令,只需用自然语言提问,就能完成从 AI 模型部署到系统优化等一系列操作。

🚀 快速开始

准备 Jetson Nano

# 若 SSH 未启用,则启用 SSH
sudo systemctl enable ssh
sudo systemctl start ssh

# 配置无密码 sudo(系统管理需要)
sudo visudo
# 添加:yourusername ALL=(ALL) NOPASSWD:ALL

# 获取 Jetson 的 IP 地址
hostname -I

安装 JetsonMCP

# 克隆仓库
git clone https://github.com/ajeetraina/jetsonMCP.git
cd jetsonMCP

# 创建虚拟环境
python3 -m venv venv
source venv/bin/activate

# 安装依赖
pip install -e .

配置连接

# 复制配置模板
cp .env.example .env

# 使用 Jetson 的详细信息进行编辑
nano .env

所需的 .env 设置:

JETSON_HOST=192.168.1.100        # 你的 Jetson 的 IP 地址
JETSON_USERNAME=your_username     # SSH 用户名
JETSON_PASSWORD=your_password     # SSH 密码(或使用 SSH 密钥)
# JETSON_SSH_KEY_PATH=~/.ssh/id_rsa  # 可选:SSH 密钥路径

# 可选:高级配置
JETSON_POWER_MODE=0              # 0=MAXN, 1=5W, 2=10W
CUDA_VISIBLE_DEVICES=0           # GPU 设备选择
DOCKER_REGISTRY=localhost:5000   # 用于边缘部署的私有注册表

集成 Claude Desktop

添加到你的 Claude Desktop 配置中:

  • macOS~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows%APPDATA%\Claude\claude_desktop_config.json
  • Linux~/.config/Claude/claude_desktop_config.json
{
"mcpServers": {
"jetsonmcp": {
"command": "python",
"args": ["-m", "jetsonmcp.server"],
"cwd": "/absolute/path/to/jetsonMCP"
}
}
}

重启 Claude Desktop 以加载服务器。

✨ 主要特性

专为边缘 AI 计算而构建

  • CUDA 工具包管理与优化:自动设置和管理 CUDA 环境。
  • JetPack SDK 集成与更新:管理 SDK 更新、组件安装和版本控制。
  • AI 框架安装:支持 TensorFlow、PyTorch、TensorRT 等 AI 框架的安装。
  • 模型部署与推理优化:实现模型的自动化转换、优化和服务。

特定硬件优化

  • GPU 内存管理与监控:监控内存使用、利用率和性能指标。
  • 电源模式配置:支持动态切换 10W/5W/MAXN 等电源模式。
  • 温度监控与热节流:实时监控温度并自动进行节流。
  • 风扇曲线管理与散热优化:自定义风扇曲线,优化散热效果。

容器与编排

  • AI 工作负载的 Docker 容器管理:管理 GPU 加速的容器运行时。
  • NVIDIA 容器工具包集成:确保容器能够充分利用 GPU 资源。
  • Kubernetes 边缘部署支持:支持 K3s 边缘编排。
  • 多架构容器支持:管理和部署 ARM64 容器。

📦 安装指南

前提条件

Jetson Nano 设置

  1. 全新安装 JetPack(建议 4.6 及以上版本)
  2. 启用 SSH 访问
  3. 充足的电源供应(建议 5V/4A 以实现全性能)
  4. MicroSD 卡(建议 64GB 及以上)或 NVMe SSD
  5. 网络连接:用于安装软件包

网络配置

  • 建议使用静态 IP 以确保稳定访问
  • 配置防火墙以允许 SSH(端口 22)
  • 可选:设置 VPN 以实现远程访问

安装步骤

请参考快速开始部分的安装步骤。

💻 使用示例

基础用法

自然语言请求通过 Claude Desktop 经 MCP 协议转换为优化命令,在你的 Jetson Nano 上执行。

AI 与机器学习操作示例

  • "部署 YOLOv5 模型进行目标检测" - 下载、优化并运行推理
  • "检查 CUDA 内存使用情况" - 监控 GPU 利用率和内存分配
  • "切换到 5W 电源模式" - 优化电池供电时的功耗
  • "安装 TensorRT 优化" - 设置高性能推理引擎

系统管理示例

  • "在运行推理时监控 GPU 温度" - 实时热监控
  • "将 JetPack 更新到最新版本" - 管理 NVIDIA 软件栈更新
  • "为 AI 工作负载优化 Docker" - 配置运行时以实现 GPU 加速

边缘计算示例

  • "部署轻量级 Kubernetes 集群" - 设置 K3s 进行边缘编排
  • "配置远程模型服务" - 设置推理端点
  • "在 AI 任务期间监控系统资源" - 性能分析和优化

高级用法

# 电源管理
# 可用电源模式
# 0: MAXN (15W) - 最大性能
# 1: 5W - 节能模式
# 2: 10W - 平衡模式
sudo nvpmodel -m 1  # 切换到 5W 模式

# CUDA 环境
# 验证 CUDA 安装
nvcc --version
nvidia-smi

# 设置 CUDA 路径(由 JetsonMCP 自动配置)
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS

# Docker GPU 支持
# NVIDIA 容器工具包(由 JetsonMCP 管理)
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

📚 详细文档

可用工具

AI 与机器学习管理

  • manage_ai_workloads - 管理模型部署、推理优化和 CUDA 管理。
  • manage_jetpack - 管理 JetPack SDK 的安装、更新和组件。
  • manage_frameworks - 安装 TensorFlow、PyTorch、OpenCV、TensorRT 等框架。

硬件控制

  • manage_hardware - 控制电源模式、温度监控、风扇和 GPIO。
  • manage_performance - 管理 CPU/GPU 调节器、频率缩放和热管理。
  • manage_storage - 优化 SSD、配置交换空间和管理磁盘。

容器操作

  • manage_containers - 管理 Docker 容器、NVIDIA 运行时和 GPU 加速。
  • manage_orchestration - 部署 Kubernetes/K3s 集群,设置边缘计算。
  • manage_registry - 设置私有注册表,管理多架构镜像。

系统管理

  • manage_system - 管理软件包、更新、服务控制和网络。
  • manage_security - 配置防火墙、SSH 密钥、用户管理和系统加固。
  • manage_monitoring - 监控系统指标、日志记录、警报和远程监控。

高级配置

电源管理

# 可用电源模式
# 0: MAXN (15W) - 最大性能
# 1: 5W - 节能模式
# 2: 10W - 平衡模式
sudo nvpmodel -m 1  # 切换到 5W 模式

CUDA 环境

# 验证 CUDA 安装
nvcc --version
nvidia-smi

# 设置 CUDA 路径(由 JetsonMCP 自动配置)
export PATH=/usr/local/cuda/bin:$PATH
export LDFLAGS=-L/usr/local/cuda/lib64:$LDFLAGS

Docker GPU 支持

# NVIDIA 容器工具包(由 JetsonMCP 管理)
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

测试与开发

运行测试

# 运行所有测试
make test

# 特定组件测试
make test-ai          # AI 工作负载管理
make test-hardware    # 硬件控制
make test-containers  # 容器操作
make test-system      # 系统管理

# 集成测试
python run_tests.py --integration --coverage

开发设置

# 安装开发依赖
pip install -e ".[dev]"

# 预提交钩子
pre-commit install

# 代码格式化
black jetsonmcp/
isort jetsonmcp/

# 类型检查
mypy jetsonmcp/

监控与可观测性

系统指标

  • CPU/GPU 利用率 - 实时监控性能。
  • 内存使用情况 - 跟踪 RAM 和 GPU 内存。
  • 温度传感器 - 监控温度并发出警报。
  • 功耗 - 显示当前电源模式和使用指标。

AI 工作负载指标

  • 推理延迟 - 对模型性能进行基准测试。
  • 吞吐量 - 计算部署模型的每秒请求数。
  • 资源利用率 - 评估 GPU 内存和计算效率。
  • 模型准确率 - 验证和监控模型性能。

安全特性

SSH 安全

  • 主机密钥验证和轮换
  • 连接超时和重试逻辑
  • 凭证管理和清理
  • 所有操作的审计日志记录

容器安全

  • 镜像漏洞扫描
  • 运行时安全策略
  • 网络隔离和分段
  • AI 模型的机密管理

系统加固

  • 防火墙配置管理
  • 用户权限分离
  • 系统更新自动化
  • 安全补丁监控

🔧 技术细节

JetsonMCP 通过 MCP 协议将自然语言请求转换为优化命令,在 Jetson Nano 上执行。它集成了 CUDA 工具包、JetPack SDK 等,实现了对 AI 工作负载、硬件资源和容器的全面管理。同时,它还提供了丰富的安全特性,确保系统的安全性和稳定性。

🚀 使用场景

边缘 AI 开发

  • AI 应用的快速原型开发:加速 AI 应用的开发过程。
  • 模型优化与基准测试:提高模型性能。
  • 分布式推理部署:实现高效的推理服务。
  • 实时计算机视觉应用:支持实时视觉处理。

IoT 与传感器网络

  • 传感器数据处理与分析:处理和分析传感器数据。
  • 边缘计算编排:优化边缘计算资源。
  • 远程设备管理:实现对远程设备的有效管理。
  • 预测性维护系统:提前预测设备故障。

工业应用

  • 质量控制与检查:确保产品质量。
  • 预测性分析:为决策提供数据支持。
  • 自主系统开发:推动自主系统的发展。
  • 工业 IoT 集成:实现工业设备的互联互通。

🤝 贡献

我们欢迎贡献!请参阅 CONTRIBUTING.md 获取贡献指南。

开发优先级

  1. AI 框架集成:支持更多的机器学习框架。
  2. 边缘编排:实现更高级的 Kubernetes 边缘部署。
  3. 硬件抽象:支持其他 Jetson 平台(如 AGX、Xavier)。
  4. 监控增强:提供更高级的遥测和可观测性。
  • 0 关注
  • 0 收藏,29 浏览
  • system 提出于 2025-10-04 08:48

相似服务问题

相关AI产品