NemoClawをAWSで動かす全体像

AWS EC2はNemoClawの公式ドキュメントでも言及されているクラウドプラットフォームの一つです。EC2の豊富なGPUインスタンスファミリーを活用することで、PoC環境から大規模本番環境まで幅広いNemoClaw構成を実現できます。

本ガイドではAWSアカウントが既にある状態を前提に、EC2 GPUインスタンスの選定からNemoClaw動作確認までの手順を解説します。

NemoClawはGTC 2026発表の早期アルファ版です。本ガイドの手順はアルファ版の公開情報に基づいており、GA(一般提供)版ではインストール手順・設定項目が変更になる可能性があります。最新情報はgithub.com/NVIDIA/NemoClawをご確認ください。

AWSでのNemoClaw構成図

AWSでNemoClawを稼働させる際の基本的な構成は以下の通りです。

┌─────────────────────────────────────────────────────┐
│ AWS VPC                                              │
│                                                      │
│  ┌──────────────┐    ┌─────────────────────────┐   │
│  │ Application  │───▶│ EC2 GPU Instance         │   │
│  │ (ECS/Lambda  │    │ (NemoClaw + NIM Runtime) │   │
│  │  /EC2)       │    │                          │   │
│  └──────────────┘    │  ┌─────────────────────┐│   │
│                       │  │ OpenShell Sandbox    ││   │
│  ┌──────────────┐    │  │ (Policy Enforcement) ││   │
│  │ S3 (Model    │◀──▶│  └─────────────────────┘│   │
│  │  Weights)    │    │                          │   │
│  └──────────────┘    └─────────────────────────┘   │
│                                                      │
│  ┌──────────────┐    ┌─────────────────────────┐   │
│  │ CloudWatch   │◀───│ NemoClaw Metrics/Logs    │   │
│  │ (Monitoring) │    └─────────────────────────┘   │
│  └──────────────┘                                   │
└─────────────────────────────────────────────────────┘

EC2 GPUインスタンスの選定

NemoClawで使用するEC2インスタンスは、利用する推論プロファイルによって選択が変わります。以下は主要なGPUインスタンスファミリーの比較です。

インスタンスファミリーGPUGPU数VRAM向いている用途
g6.xlarge〜48xlargeNVIDIA L41〜824GB×GPU数Nano 30B量子化(24GB)、低コスト検証
g6e.xlarge〜48xlargeNVIDIA L40S1〜848GB×GPU数Nano 30B(8bit)、中規模推論
p4d.24xlargeNVIDIA A100840GB×8=320GBNIM 70〜120Bクラス(マルチGPU)
p4de.24xlargeNVIDIA A100880GB×8=640GBNIM 120B以上、フル精度推論
p5.48xlargeNVIDIA H100880GB×8=640GB最大規模NIM、最高速推論

p5インスタンスは東京リージョン(ap-northeast-1)では2026年3月時点で提供が限定的です。必要な場合は事前にService Quotasからクォータ申請を行ってください。

AMI選択とインスタンス起動設定

NemoClawをAWSで動かすのに適したAMI(Amazon Machine Image)はいくつかの選択肢があります。

AMIの選択肢

AMI特徴おすすめ度
AWS Deep Learning AMI(Ubuntu 22.04)CUDA・cuDNN・PyTorchが事前インストール済み。NVIDIAドライバが最新に保たれている★★★★★
NVIDIA GPU-Optimized AMI(Marketplace)NVIDIAが公式に提供するAMI。NIM動作に最適化済み★★★★☆
Ubuntu 22.04 LTS(ベースAMI)自由度が高いがドライバ・CUDA等の手動インストールが必要★★☆☆☆

新規構築の場合はAWS Deep Learning AMI(Ubuntu 22.04)を選ぶのが最もスムーズです。CUDAやcuDNNのバージョン互換性問題を避けられます。

セキュリティグループの設定

NemoClawの動作に必要なポートを最小限に絞った設定例です。

ルール種別プロトコルポートソース用途
インバウンドTCP22管理者IPのみSSH接続
インバウンドTCP8080アプリケーションサーバーのSGNemoClaw APIポート(デフォルト)
インバウンドTCP8000アプリケーションサーバーのSGNIM APIポート
アウトバウンドTCP4430.0.0.0/0NVIDIA APIへのHTTPS通信
アウトバウンドTCP800.0.0.0/0パッケージ更新(apt)

本番環境ではNATゲートウェイを経由し、GPUインスタンスにはパブリックIPを割り当てないPrivate Subnetに配置することを推奨します。

EBSストレージの設定

NIMのモデルウェイト(70Bクラスで100〜200GB以上)を保存するためのEBSボリュームが必要です。

  • ルートボリューム:gp3(100GB以上)。OSとNemoClawのバイナリを配置
  • モデルボリューム:gp3(NIMモデルサイズ×1.5倍以上)。io2は高コストのため開発では不要
  • S3を活用:モデルウェイトをS3に置き、インスタンス起動時にマウントまたはダウンロードする構成でEBSコストを削減できます

NemoClawのインストール手順

EC2インスタンスが起動し、SSHで接続できたらNemoClawのセットアップを開始します。

前提条件の確認

インストール前に以下を確認してください。

# Dockerのインストール確認(Deep Learning AMIには含まれる)
docker --version

# NVIDIA Container Toolkitの確認
nvidia-ctk --version

# GPUの認識確認
nvidia-smi

# NVIDIA NGC APIキーの設定(NIMイメージのpull に必要)
docker login nvcr.io
# Username: $oauthtoken
# Password: [NGC APIキー]

NGC APIキーはNVIDIAのNGC(NVIDIA GPU Cloud)アカウントを作成し、https://ngc.nvidia.com/setup/api-key から発行できます。

NemoClawのインストール

GitHubからNemoClawを取得し、セットアップします。

# NemoClawのクローン
git clone https://github.com/NVIDIA/NemoClaw.git
cd NemoClaw

# Python環境のセットアップ
python3 -m venv .venv
source .venv/bin/activate
pip install -e .

# NemoClawの設定ファイルを作成
cp config/blueprint.example.yaml config/blueprint.yaml

blueprint.yamlはNemoClawのポリシーファイルで、OpenShellサンドボックスの設定を定義します。

NIMのセットアップ(ローカルNIMプロファイル使用時)

ローカルNIMプロファイルを使用する場合、NIMコンテナを起動します。以下はNemotron 3 Nano 30B(量子化版)の例です。

# NIMコンテナのpull(モデルサイズに応じて時間がかかります)
docker pull nvcr.io/nim/nvidia/nemotron-3-nano-30b:latest

# NIMコンテナの起動
docker run -d \
  --name nemotron-nano-30b \
  --gpus all \
  -e NGC_API_KEY=${NGC_API_KEY} \
  -v /mnt/models:/opt/nim/.cache \
  -p 8000:8000 \
  nvcr.io/nim/nvidia/nemotron-3-nano-30b:latest

# 起動確認(ヘルスチェック)
curl http://localhost:8000/v1/health/ready

起動後、NemoClawの設定ファイルでNIMエンドポイントを指定します。

# config/blueprint.yaml の設定例
inference:
  profile: local_nim
  nim_endpoint: "http://localhost:8000"
  model: "nemotron-3-nano-30b"

sandbox:
  filesystem:
    allow:
      - "/workspace/"
      - "/tmp/nemoclaw/"
    deny:
      - "~/.ssh/"
      - "/etc/passwd"
      - "/etc/"
  network:
    allow:
      - "localhost"
      - "*.amazonaws.com"
    deny:
      - "*"

AWS EC2でのNemoClaw運用コスト試算

代表的なユースケースでのAWS EC2コスト試算です。料金は2026年3月時点の東京リージョン(ap-northeast-1)の参考値であり、変動があります。

PoC・検証フェーズのコスト試算

リソーススペック時間単価(目安)月間想定利用時間月額試算
EC2インスタンスg6.xlarge(L4 24GB)約$0.8〜1.0/h100時間約1.5万円
EBSストレージgp3 200GB約2,000円
データ転送モデルS3→EC2、API呼び出し数百〜数千円
合計(目安)約2万円程度

本番環境(24時間稼働)のコスト試算

リソーススペック月額目安(オンデマンド)月額目安(1年予約)
EC2インスタンスp4d.24xlarge(A100×8)約200万円以上約120〜130万円
EC2インスタンスg6.xlarge×2(L4 24GB×2)約5〜7万円約3〜4万円
EBSストレージgp3 500GB約5,000円約5,000円
CloudWatch Logs10GB/月想定約400円約400円

大規模GPUインスタンス(p4d/p5)のコストは非常に高額になります。本番移行前にスポットインスタンスを使った検証と、実際のスループット要件を正確に見積もることを強く推奨します。

CloudWatchによる監視設定

NemoClawをAWSで本番稼働させる場合、CloudWatchによる監視を必ず設定してください。

監視すべき主要メトリクス

以下のメトリクスをCloudWatchアラームで監視することをおすすめします。

メトリクス推奨アラームしきい値意味
GPU Utilization95%以上が15分継続GPU飽和・スケールアウト検討
GPU Memory Utilization90%以上VRAMオーバーのリスク
Instance CPU Utilization80%以上が10分継続CPUボトルネック
Network In/Out異常なスパイクセキュリティ異常の可能性
EBS Read/Write Latency50ms以上ストレージボトルネック

CloudWatch Logsへの転送設定

NemoClawのアプリケーションログとNIMのアクセスログをCloudWatch Logsに集約することで、障害調査や監査ログとして活用できます。

# CloudWatch Logs Agentの設定例
# /etc/awslogs/awslogs.conf

[nemoclaw/app]
log_group_name = /nemoclaw/application
log_stream_name = {instance_id}
file = /var/log/nemoclaw/app.log
datetime_format = %Y-%m-%dT%H:%M:%S

[nemoclaw/nim]
log_group_name = /nemoclaw/nim
log_stream_name = {instance_id}
file = /var/log/nemoclaw/nim.log
datetime_format = %Y-%m-%dT%H:%M:%S

ログはデフォルトで30日間保持する設定を推奨します。コンプライアンス要件に応じて保持期間を調整してください。