NVIDIA DGX Sparkとは

NVIDIA DGX SparkはGTC 2026で発表された、デスクトップサイズのパーソナルAIスーパーコンピュータです。NVIDIAのGB10 Superchip(Grace CPU + Blackwell GPU統合)を搭載し、手元の机の上でローカルAI推論・学習を実現します。

DGX SparkのコンセプトはNVIDIAのJensen Huangが強調した「パーソナルAIスーパーコンピュータ」です。AI研究者・エンジニア・エンタープライズのAI先進部門が、クラウドに依存せずに高性能なAI推論環境を手元に持てるようにすることを目的としています。

DGX SparkはNemoClawの「ローカルNIM」推論プロファイルに最適なプラットフォームです。Nemotron 3 Nano 30BをGB10上でフルスピードで実行でき、エンタープライズセキュリティを維持しながら低レイテンシなAIエージェント推論が実現します。

項目内容
発表イベントNVIDIA GTC 2026(2026年3月)
搭載チップNVIDIA GB10 Superchip(Grace CPU + Blackwell GPU)
フォームファクターデスクトップ(コンパクト設計)
対象ユーザーAI研究者・エンジニア・エンタープライズAI部門
NemoClaw対応NemoClawのローカルNIMプロファイルに最適

GB10 Superchipの詳細スペック

DGX SparkのコアはGB10 Superchipです。これはNVIDIAのGrace ARM CPUとBlackwell GPUをNVLink-C2Cで密結合した統合チップです。従来のCPU+GPU分離構成に比べ、CPU-GPU間のメモリ帯域幅が飛躍的に向上しています。

GB10 Superchipの主要スペック

コンポーネントスペック
GPU(Blackwell)NVIDIA Blackwell GPUアーキテクチャ
CPU(Grace)NVIDIA Grace(ARM Neoverse V2ベース、72コア)
接続方式NVLink-C2C(CPU-GPU間高速接続)
統合メモリ最大128GB LPDDR5x(CPUとGPUが共有)
AI演算性能1 PFLOPS AI(FP8精度)
システム帯域幅900 GB/s(NVLink-C2C経由)
Thunderbolt 5外部デバイス・ストレージ接続
電源170W(省電力デスクトップ設計)

GB10の最大の特徴は1 PFLOPS(1,000 TFLOPS)のAI演算性能です。これはGPT-4レベルのモデルをローカルで実用的な速度で実行できる性能水準です。Nemotron 3 Nano 30Bであれば、単語あたりの生成速度で実用的な会話AIエージェントが実現します。

従来のGPUサーバー(CPU + 別体GPU)では、CPUメモリとGPUメモリは独立しており、データ転送のオーバーヘッドが発生します。GB10のNVLink-C2C接続では、CPUとGPUが同一のメモリプールを共有します。

比較項目従来構成(CPU + GPU)GB10 NVLink-C2C
メモリ構成CPUメモリ(DDR5)+ GPUメモリ(HBM)独立統合メモリプール(最大128GB)
CPU-GPU転送帯域幅64 GB/s(PCIe 5.0)900 GB/s(NVLink-C2C)
大規模モデルの扱いGPUメモリを超えるモデルはCPUオフロード必要シームレスに統合メモリ上で実行
LLM推論効率メモリ転送がボトルネックになりやすい高帯域幅で長コンテキスト処理が効率的

この統合メモリアーキテクチャにより、Nemotron 3 Nano 30BのようなモデルをCPUとGPUの間でシームレスに動作させることができ、長い会話履歴(大きなコンテキストウィンドウ)の処理でも高いスループットを維持できます。

NemoClawとDGX Sparkの組み合わせ

DGX SparkはNemoClawのローカルNIM推論プロファイルの最適ハードウェアの一つです。具体的な組み合わせ方法と推奨構成を解説します。

DGX Spark上で動作するNemotronモデル

モデルパラメータ数DGX Spark(128GB)での動作推奨用途
Nemotron 3 Nano 30B30BFP8量子化で快適動作本番AIエージェント推論
Nemotron 3 Nano 30B(FP16)30B動作可(やや高負荷)精度優先の用途
Llama 3.1 70B70BFP8量子化で動作可能汎用LLMタスク
Mistral 7B7Bフル精度で快適動作軽量・高速タスク
Nemotron 3 Super 120B120B4bit量子化で動作可(推奨は外部)高精度タスク(制限あり)

DGX Sparkの128GB統合メモリにより、Nemotron 3 Nano 30BをFP8精度で余裕を持って実行できます。同時に複数のエージェントプロセスを走らせる場合でも、メモリ容量とNVLink-C2Cの帯域幅が支えます。

DGX Spark向けblueprint.yaml推奨設定

# DGX Spark最適化blueprint.yaml
agent:
  name: "enterprise-agent-dgx-spark"
  description: "DGX Spark上のNemoClawエージェント"
  runtime: "openshell"

inference:
  primary_profile: "local-nim"
  model: "nemotron-3-nano-30b"
  quantization: "fp8"             # GB10のTensor Coreに最適化
  max_context_length: 128000      # 統合メモリを活かした長コンテキスト
  batch_size: 4                   # 複数エージェントの並列処理
  gpu_memory_fraction: 0.85       # GPUメモリ使用率の上限設定

performance:
  prefill_optimization: true      # プリフィル処理の最適化
  speculative_decoding: true      # 推論速度向上
  continuous_batching: true       # 連続バッチ処理

policy:
  data_classification: "confidential"
  external_access: false
  pii_detection: true
  audit_log: true

DGX SparkへのNemoClawセットアップ手順

DGX SparkにNemoClawをセットアップする手順を解説します。DGX Sparkには一部ソフトウェアがプリインストールされていますが、NemoClawは別途インストールが必要な場合もあります。

前提条件と事前準備

項目要件確認方法
DGX Spark OSUbuntu 22.04 LTS(DGX OS)cat /etc/os-release
CUDA12.4以上(プリインストール済み)nvcc --version
Docker24.0以上docker --version
NVIDIA Container Toolkit最新版(プリインストール済み)nvidia-ctk --version
OpenClaw最新安定版openclaw --version
NVIDIAドライバー550以上nvidia-smi

インストール手順

# 1. OpenClawがインストール済みか確認
openclaw --version

# 2. NemoClawプラグインのインストール
openclaw plugin install nemoclaw

# 3. NIMコンテナのプル(Nemotron 3 Nano 30B)
# NGC APIキーが必要(developer.nvidia.com で取得)
docker login nvcr.io
docker pull nvcr.io/nvidia/nemo/nemotron-3-nano-30b-nim:latest

# 4. NIMサービスの起動
docker run --gpus all --shm-size=16g \
  -v ~/.cache/nim:/root/.cache/nim \
  -p 8000:8000 \
  nvcr.io/nvidia/nemo/nemotron-3-nano-30b-nim:latest

# 5. 動作確認
curl http://localhost:8000/v1/models

# 6. blueprint.yamlの配置と読み込み
mkdir -p ~/.nemoclaw/agents/my-agent/
cat > ~/.nemoclaw/agents/my-agent/blueprint.yaml << EOF
agent:
  name: "my-first-agent"
  runtime: "openshell"
inference:
  primary_profile: "local-nim"
  model: "nemotron-3-nano-30b"
EOF
openclaw agent load ~/.nemoclaw/agents/my-agent/blueprint.yaml

# 7. エージェントの動作テスト
openclaw agent chat my-first-agent

NIMコンテナのプルにはNGC(NVIDIA GPU Cloud)のAPIキーが必要です。developer.nvidia.comでNVIDIA Developer Programに無料登録後、NGC APIキーを発行してください。Nemotron 3モデルの重みファイルは数十GBあるため、初回ダウンロードには時間がかかります。

DGX Station・Dell GB300・RTX PROとの比較

NemoClawをサポートする主要ハードウェアプラットフォームの比較を行います。

ハードウェア比較表

製品DGX SparkDell GB300 DesktopRTX PRO 6000 BlackwellDGX Station(A100)
GPUGB10(Grace+Blackwell)GB300(Blackwell)RTX PRO 6000 BlackwellA100 × 1〜4
AI演算性能1 PFLOPS(FP8)5 PFLOPS+(推定)〜2 PFLOPS(FP8)〜4 PFLOPS(FP16)
メモリ最大128GB(統合)192GB+ HBM3e96GB GDDR7320GB HBM2e(×4)
フォームファクターコンパクトデスクトップデスクトップタワーワークステーション拡張カード大型タワー
電力消費170W300〜500W(推定)300W(カード単体)1.5kW〜
NemoClaw対応ローカルNIM最適プリインストール手動インストール手動インストール
想定価格$3,000〜$5,000(推定)$15,000〜$50,000(推定)$6,000〜$10,000(推定)$149,999
主な用途個人・部門のAI開発・推論エンタープライズ本番展開開発・中規模推論研究・大規模学習

用途別ハードウェア選択ガイド

NemoClawの用途・規模・予算に応じた最適なハードウェア選択の指針を示します。

シナリオ推奨ハードウェア理由
AIエンジニア個人の開発・研究DGX Sparkコンパクト・低消費電力・1 PFLOPS AI・NemoClawと相性良し
部門単位の本番AIエージェントDell GB300 DesktopNemoClaw プリインストール・法人サポート・高い推論性能
PoC・検証環境RTX PRO 6000 Blackwell既存ワークステーションへの増設・コスト効率
大規模研究・マルチモデル同時実行DGX Station(新世代)最大級の演算性能・マルチGPU構成

NemoClawの導入フェーズ別の推奨パスは「RTX PRO搭載ワークステーションでPoC → DGX Sparkで部門展開 → Dell GB300 Desktopで全社本番化」です。各フェーズでblueprint.yamlの設定を継承できるため、移行コストが最小限です。

DGX Sparkの価格・購入方法

DGX Sparkの価格帯と入手経路を解説します。

想定価格帯と購入チャネル

GTC 2026発表時点での公式価格は未公表ですが、GB10 Superchipの製造コストと市場競合から以下の価格帯が見込まれています。

モデル想定価格(推定)メモリ構成
DGX Spark ベースモデル$3,000〜$4,50064GB統合メモリ
DGX Spark 最大構成$4,500〜$6,000128GB統合メモリ

DGX Sparkの購入チャネルは以下の通りです。

  • NVIDIA公式ストア(store.nvidia.com): 個人・小規模チーム向けの直接購入
  • NVIDIA認定リセラー: 日本国内ではNVIDIA Japanの認定パートナー(ユニットコム、PFN、富士通など)経由
  • 法人一括調達: NVIDIA法人営業または認定SIer経由でボリューム割引・導入支援パッケージを取得

DGX Sparkは初期ロットの需要が高く、発売直後は品薄になる可能性があります。発売前の予約注文を検討している場合は、NVIDIA公式サイトまたは国内代理店でメーリングリスト登録・情報収集を行うことを推奨します。

DGX Spark + NemoClawの活用事例

DGX SparkとNemoClawを組み合わせた具体的な企業活用シナリオを紹介します。

金融業界:契約書解析エージェント

金融機関では膨大な数の契約書・約款・規程文書の解析が業務効率化の重点領域です。DGX Spark + NemoClawの組み合わせにより、以下の要件を同時に満たしながら実現できます。

  • 契約書データが外部クラウドに送信されない(データ主権確保)
  • Nemotron 3 Nano 30Bの長コンテキスト(128K tokens)で長大な契約書を一括処理
  • OpenShellの監査ログで全解析操作を記録(金融規制対応)
  • DGX Sparkの1 PFLOPSで数千ページの文書を実用的な速度で処理

製造業:技術文書検索エージェント

製造業では、設計図・仕様書・障害報告書など技術文書の検索・分析業務にAIエージェントを活用する需要が高まっています。DGX SparkのNVLink-C2C統合メモリアーキテクチャは、大規模な技術文書DBをベクトルDBとしてメモリに保持したままRAG推論を行うユースケースに適しています。

# 技術文書検索エージェントのblueprint.yaml例
agent:
  name: "technical-doc-search"
  runtime: "openshell"
inference:
  primary_profile: "local-nim"
  model: "nemotron-3-nano-30b"
  max_context_length: 128000
tools:
  - name: "vector_search"
    type: "rag"
    vector_db: "milvus://localhost:19530"
    collection: "technical_docs"
policy:
  data_classification: "confidential"
  external_access: false