NemoClawをAWSで動かす全体像
AWS EC2はNemoClawの公式ドキュメントでも言及されているクラウドプラットフォームの一つです。EC2の豊富なGPUインスタンスファミリーを活用することで、PoC環境から大規模本番環境まで幅広いNemoClaw構成を実現できます。
本ガイドではAWSアカウントが既にある状態を前提に、EC2 GPUインスタンスの選定からNemoClaw動作確認までの手順を解説します。
NemoClawはGTC 2026発表の早期アルファ版です。本ガイドの手順はアルファ版の公開情報に基づいており、GA(一般提供)版ではインストール手順・設定項目が変更になる可能性があります。最新情報はgithub.com/NVIDIA/NemoClawをご確認ください。
AWSでのNemoClaw構成図
AWSでNemoClawを稼働させる際の基本的な構成は以下の通りです。
┌─────────────────────────────────────────────────────┐
│ AWS VPC │
│ │
│ ┌──────────────┐ ┌─────────────────────────┐ │
│ │ Application │───▶│ EC2 GPU Instance │ │
│ │ (ECS/Lambda │ │ (NemoClaw + NIM Runtime) │ │
│ │ /EC2) │ │ │ │
│ └──────────────┘ │ ┌─────────────────────┐│ │
│ │ │ OpenShell Sandbox ││ │
│ ┌──────────────┐ │ │ (Policy Enforcement) ││ │
│ │ S3 (Model │◀──▶│ └─────────────────────┘│ │
│ │ Weights) │ │ │ │
│ └──────────────┘ └─────────────────────────┘ │
│ │
│ ┌──────────────┐ ┌─────────────────────────┐ │
│ │ CloudWatch │◀───│ NemoClaw Metrics/Logs │ │
│ │ (Monitoring) │ └─────────────────────────┘ │
│ └──────────────┘ │
└─────────────────────────────────────────────────────┘ EC2 GPUインスタンスの選定
NemoClawで使用するEC2インスタンスは、利用する推論プロファイルによって選択が変わります。以下は主要なGPUインスタンスファミリーの比較です。
| インスタンスファミリー | GPU | GPU数 | VRAM | 向いている用途 |
|---|---|---|---|---|
| g6.xlarge〜48xlarge | NVIDIA L4 | 1〜8 | 24GB×GPU数 | Nano 30B量子化(24GB)、低コスト検証 |
| g6e.xlarge〜48xlarge | NVIDIA L40S | 1〜8 | 48GB×GPU数 | Nano 30B(8bit)、中規模推論 |
| p4d.24xlarge | NVIDIA A100 | 8 | 40GB×8=320GB | NIM 70〜120Bクラス(マルチGPU) |
| p4de.24xlarge | NVIDIA A100 | 8 | 80GB×8=640GB | NIM 120B以上、フル精度推論 |
| p5.48xlarge | NVIDIA H100 | 8 | 80GB×8=640GB | 最大規模NIM、最高速推論 |
p5インスタンスは東京リージョン(ap-northeast-1)では2026年3月時点で提供が限定的です。必要な場合は事前にService Quotasからクォータ申請を行ってください。
AMI選択とインスタンス起動設定
NemoClawをAWSで動かすのに適したAMI(Amazon Machine Image)はいくつかの選択肢があります。
AMIの選択肢
| AMI | 特徴 | おすすめ度 |
|---|---|---|
| AWS Deep Learning AMI(Ubuntu 22.04) | CUDA・cuDNN・PyTorchが事前インストール済み。NVIDIAドライバが最新に保たれている | ★★★★★ |
| NVIDIA GPU-Optimized AMI(Marketplace) | NVIDIAが公式に提供するAMI。NIM動作に最適化済み | ★★★★☆ |
| Ubuntu 22.04 LTS(ベースAMI) | 自由度が高いがドライバ・CUDA等の手動インストールが必要 | ★★☆☆☆ |
新規構築の場合はAWS Deep Learning AMI(Ubuntu 22.04)を選ぶのが最もスムーズです。CUDAやcuDNNのバージョン互換性問題を避けられます。
セキュリティグループの設定
NemoClawの動作に必要なポートを最小限に絞った設定例です。
| ルール種別 | プロトコル | ポート | ソース | 用途 |
|---|---|---|---|---|
| インバウンド | TCP | 22 | 管理者IPのみ | SSH接続 |
| インバウンド | TCP | 8080 | アプリケーションサーバーのSG | NemoClaw APIポート(デフォルト) |
| インバウンド | TCP | 8000 | アプリケーションサーバーのSG | NIM APIポート |
| アウトバウンド | TCP | 443 | 0.0.0.0/0 | NVIDIA APIへのHTTPS通信 |
| アウトバウンド | TCP | 80 | 0.0.0.0/0 | パッケージ更新(apt) |
本番環境ではNATゲートウェイを経由し、GPUインスタンスにはパブリックIPを割り当てないPrivate Subnetに配置することを推奨します。
EBSストレージの設定
NIMのモデルウェイト(70Bクラスで100〜200GB以上)を保存するためのEBSボリュームが必要です。
- ルートボリューム:gp3(100GB以上)。OSとNemoClawのバイナリを配置
- モデルボリューム:gp3(NIMモデルサイズ×1.5倍以上)。io2は高コストのため開発では不要
- S3を活用:モデルウェイトをS3に置き、インスタンス起動時にマウントまたはダウンロードする構成でEBSコストを削減できます
NemoClawのインストール手順
EC2インスタンスが起動し、SSHで接続できたらNemoClawのセットアップを開始します。
前提条件の確認
インストール前に以下を確認してください。
# Dockerのインストール確認(Deep Learning AMIには含まれる)
docker --version
# NVIDIA Container Toolkitの確認
nvidia-ctk --version
# GPUの認識確認
nvidia-smi
# NVIDIA NGC APIキーの設定(NIMイメージのpull に必要)
docker login nvcr.io
# Username: $oauthtoken
# Password: [NGC APIキー]
NGC APIキーはNVIDIAのNGC(NVIDIA GPU Cloud)アカウントを作成し、https://ngc.nvidia.com/setup/api-key から発行できます。
NemoClawのインストール
GitHubからNemoClawを取得し、セットアップします。
# NemoClawのクローン
git clone https://github.com/NVIDIA/NemoClaw.git
cd NemoClaw
# Python環境のセットアップ
python3 -m venv .venv
source .venv/bin/activate
pip install -e .
# NemoClawの設定ファイルを作成
cp config/blueprint.example.yaml config/blueprint.yaml
blueprint.yamlはNemoClawのポリシーファイルで、OpenShellサンドボックスの設定を定義します。
NIMのセットアップ(ローカルNIMプロファイル使用時)
ローカルNIMプロファイルを使用する場合、NIMコンテナを起動します。以下はNemotron 3 Nano 30B(量子化版)の例です。
# NIMコンテナのpull(モデルサイズに応じて時間がかかります)
docker pull nvcr.io/nim/nvidia/nemotron-3-nano-30b:latest
# NIMコンテナの起動
docker run -d \
--name nemotron-nano-30b \
--gpus all \
-e NGC_API_KEY=${NGC_API_KEY} \
-v /mnt/models:/opt/nim/.cache \
-p 8000:8000 \
nvcr.io/nim/nvidia/nemotron-3-nano-30b:latest
# 起動確認(ヘルスチェック)
curl http://localhost:8000/v1/health/ready
起動後、NemoClawの設定ファイルでNIMエンドポイントを指定します。
# config/blueprint.yaml の設定例
inference:
profile: local_nim
nim_endpoint: "http://localhost:8000"
model: "nemotron-3-nano-30b"
sandbox:
filesystem:
allow:
- "/workspace/"
- "/tmp/nemoclaw/"
deny:
- "~/.ssh/"
- "/etc/passwd"
- "/etc/"
network:
allow:
- "localhost"
- "*.amazonaws.com"
deny:
- "*" AWS EC2でのNemoClaw運用コスト試算
代表的なユースケースでのAWS EC2コスト試算です。料金は2026年3月時点の東京リージョン(ap-northeast-1)の参考値であり、変動があります。
PoC・検証フェーズのコスト試算
| リソース | スペック | 時間単価(目安) | 月間想定利用時間 | 月額試算 |
|---|---|---|---|---|
| EC2インスタンス | g6.xlarge(L4 24GB) | 約$0.8〜1.0/h | 100時間 | 約1.5万円 |
| EBSストレージ | gp3 200GB | — | — | 約2,000円 |
| データ転送 | モデルS3→EC2、API呼び出し | — | — | 数百〜数千円 |
| 合計(目安) | 約2万円程度 |
本番環境(24時間稼働)のコスト試算
| リソース | スペック | 月額目安(オンデマンド) | 月額目安(1年予約) |
|---|---|---|---|
| EC2インスタンス | p4d.24xlarge(A100×8) | 約200万円以上 | 約120〜130万円 |
| EC2インスタンス | g6.xlarge×2(L4 24GB×2) | 約5〜7万円 | 約3〜4万円 |
| EBSストレージ | gp3 500GB | 約5,000円 | 約5,000円 |
| CloudWatch Logs | 10GB/月想定 | 約400円 | 約400円 |
大規模GPUインスタンス(p4d/p5)のコストは非常に高額になります。本番移行前にスポットインスタンスを使った検証と、実際のスループット要件を正確に見積もることを強く推奨します。
CloudWatchによる監視設定
NemoClawをAWSで本番稼働させる場合、CloudWatchによる監視を必ず設定してください。
監視すべき主要メトリクス
以下のメトリクスをCloudWatchアラームで監視することをおすすめします。
| メトリクス | 推奨アラームしきい値 | 意味 |
|---|---|---|
| GPU Utilization | 95%以上が15分継続 | GPU飽和・スケールアウト検討 |
| GPU Memory Utilization | 90%以上 | VRAMオーバーのリスク |
| Instance CPU Utilization | 80%以上が10分継続 | CPUボトルネック |
| Network In/Out | 異常なスパイク | セキュリティ異常の可能性 |
| EBS Read/Write Latency | 50ms以上 | ストレージボトルネック |
CloudWatch Logsへの転送設定
NemoClawのアプリケーションログとNIMのアクセスログをCloudWatch Logsに集約することで、障害調査や監査ログとして活用できます。
# CloudWatch Logs Agentの設定例
# /etc/awslogs/awslogs.conf
[nemoclaw/app]
log_group_name = /nemoclaw/application
log_stream_name = {instance_id}
file = /var/log/nemoclaw/app.log
datetime_format = %Y-%m-%dT%H:%M:%S
[nemoclaw/nim]
log_group_name = /nemoclaw/nim
log_stream_name = {instance_id}
file = /var/log/nemoclaw/nim.log
datetime_format = %Y-%m-%dT%H:%M:%S
ログはデフォルトで30日間保持する設定を推奨します。コンプライアンス要件に応じて保持期間を調整してください。