NVIDIA DGX Sparkとは

NVIDIA DGX SparkはNVIDIAが2025年のGTC(GPU Technology Conference)で発表したデスクトップ型AIコンピュータです。「デスクトップに置けるデータセンター」というコンセプトのもと、これまでラックマウントサーバーが必要だった高性能AI推論をオフィスや研究室の机上で実現します。

DGX SparkはNemoClawのローカル推論(local-nim)プロファイルを動作させるための理想的なハードウェア基盤です。セキュリティ要件からクラウドAPIを使えない組織、低レイテンシが求められる用途、データを社外に出せない業種にとって特に注目されるシステムです。

DGX Sparkは2025年発表の製品です。本ガイドはGTC 2025発表内容・NVIDIAの公式仕様に基づいて作成しています。価格・発売時期・詳細仕様は変更される可能性があるため、最新情報はNVIDIAの公式サイトおよび国内代理店にご確認ください。

DGX Sparkのハードウェア仕様

DGX SparkのコアコンポーネントはGB10 Superチップです。GB10 SuperはGrace CPU(Arm Neoverse V2ベース)とBlackwell GPUアーキテクチャを一つのチップに統合したSystem-on-Chip(SoC)で、従来のGPUサーバーと異なりCPUとGPUが巨大な共有メモリプールに直接アクセスできる設計です。

主要スペック一覧

項目仕様NemoClaw運用への意味
チップNVIDIA GB10 Super(Grace Blackwell統合SoC)CPU-GPU間のデータ移動なしに推論を実行
GPU性能(FP8)最大1PFLOPS(※INT8換算、詳細はNVIDIA公式参照)70Bクラスのモデルをリアルタイムで推論可能な見込み
統合メモリ128GB LPDDR5X(CPU・GPU共有)70Bパラメータモデルをメモリスワップなしに保持可能
ストレージ4TB NVMe SSD複数のNIMモデルと大容量RAGデータの保管
CPUコア20コア(Grace CPU)OpenShellのポリシー処理・複数エージェントの同時実行
ネットワーク100GbE + Wi-Fi 6E + Bluetooth 5.3高速社内LANへの接続・DGX Cloudとのハイブリッド連携
USB42ポート(最大40Gbps)外部ストレージへのモデルバックアップ
OSUbuntu Linux(DGX OS)NemoClawのDocker/Kubernetes環境をそのまま動作
消費電力最大60W(TDP)オフィス設置可能な消費電力。専用電源工事不要の見込み
サイズデスクトップ型(詳細寸法は公式発表待ち)机上への設置を想定した設計

GPU性能の数値はNVIDIA公式発表時の値を基に記載しています。測定条件(精度・バッチサイズ等)により実効性能は異なります。実ワークロードでのベンチマークは製品入手後に確認することを推奨します。

128GB統合メモリがNemoClawにもたらす利点

NemoClawで動作するNIMモデルのサイズ感と128GB統合メモリの対応関係を示します。

モデル必要メモリ目安(FP16)DGX Spark搭載可否推奨用途
Nemotron 3 Nano 8B約16GB搭載可(余裕あり)高スループット・コスト優先の推論
Nemotron 3 Nano 30B約60GB搭載可バランス型・汎用エージェント
Nemotron 3 Super 50B約100GB搭載可(制約あり)高品質推論・専門業務エージェント
Nemotron 3 Super 120B約240GB単体では搭載不可DGX Cloud(クラウド)での利用を推奨

上記はあくまで目安であり、量子化(INT4/INT8)の適用・KVキャッシュサイズ・同時リクエスト数によって実際の必要メモリは変動します。量子化を活用することでより大きなモデルを搭載できる可能性があります。

DGX SparkへのNemoClaw設定手順

DGX SparkはNVIDIA Container Toolkit・Docker・Kubernetes(MicroK8s)がプリインストールされたDGX OSを搭載しているため、NemoClawのインストール環境が初期状態から整っています。以下にNemoClawをDGX Spark上で起動するまでの手順の概要を示します。

本手順はNemoClaw公式ドキュメント(docs.nemoclaw.nvidia.com)および一般的なNIM/Docker手順を基に記載しています。実際の手順は製品リリース時のドキュメントを必ず参照してください。

ステップ1: NVIDIAライセンス確認とNGC設定

# DGX OSへのログイン後、NVIDIAのNGC(NVIDIA GPU Cloud)にログイン
docker login nvcr.io
# プロンプトが表示されたら:
# Username: $oauthtoken
# Password: [NGC APIキー]

# NGC APIキーの取得場所: https://ngc.nvidia.com/setup/api-key
# NemoClawのライセンスが含まれるNVIDIA AI Enterpriseサブスクリプションが必要な見込み

ステップ2: NemoClawコアのインストール

# NemoClawコアのDockerイメージ取得
docker pull nvcr.io/nvidia/nemoclaw:latest

# DGX Spark向け推奨設定でNemoClawを起動
docker run -d \
  --name nemoclaw-core \
  --gpus all \
  --shm-size=64g \
  -p 8080:8080 \
  -v /local/nemoclaw/models:/models \
  -v /local/nemoclaw/blueprints:/blueprints \
  -v /var/log/nemoclaw:/logs \
  nvcr.io/nvidia/nemoclaw:latest

--shm-size=64gは共有メモリサイズです。DGX Sparkの128GB統合メモリを活かすため、使用するモデルサイズに応じて調整してください。

ステップ3: NIMモデルのダウンロードと起動

# Nemotron 3 Nano 30Bモデルのダウンロード
# ※モデルサイズは約60GB。ダウンロード時間は接続速度に依存
docker run -d \
  --name nim-nemotron-30b \
  --gpus all \
  -e NGC_API_KEY="YOUR_NGC_API_KEY" \
  -v /local/nemoclaw/models/nemotron-30b:/opt/nim/.cache \
  -p 8000:8000 \
  nvcr.io/nim/nvidia/nemotron-3-nano-30b-instruct:latest

# 起動確認(モデルロード完了まで数分かかる場合があります)
curl http://localhost:8000/v1/health/ready

ステップ4: blueprint.yamlのDGX Spark向け設定

# DGX Spark向け最適化blueprint.yaml例

agent:
  name: "dgx-spark-agent"
  runtime: "openshell"

inference:
  # DGX Sparkのlocal-nimを使用
  primary_profile: "local-nim"
  endpoint: "http://localhost:8000"    # ローカルNIMエンドポイント
  model: "nemotron-3-nano-30b"

  # DGX Spark向けパフォーマンス最適化
  performance:
    max_concurrent_requests: 8         # 20コアCPUを活かした並列処理
    request_timeout_ms: 30000
    gpu_memory_utilization: 0.85       # 128GBメモリの85%を推論に割り当て

privacy:
  pii_detection: true
  pii_action: "mask"

data:
  external_access: false
  retention_days: 90

audit:
  enabled: true
  log_path: "/logs/agents/"
  include_prompts: false

DGX CloudとのハイブリッドAI構成

DGX Sparkの最大の特徴の一つは、NVIDIAのDGX Cloudと組み合わせたハイブリッドAIアーキテクチャを構築できる点です。オフィスのDGX Sparkで機密データを処理しながら、大規模な推論やファインチューニングはDGX Cloudにオフロードするという使い分けが可能になります。

ハイブリッド構成のユースケース

ユースケースDGX Spark(オンプレミス)DGX Cloud
日常的な問い合わせ対応Nemotron 30Bでリアルタイム推論不使用(コスト節約)
機密データを含む処理local-nimで完結(外部送信なし)不使用(セキュリティ優先)
高品質な長文生成・複雑な推論処理しないNemotron 120Bにルーティング
モデルのファインチューニングデータ前処理・少量データでのテスト大規模GPUクラスタで本番ファインチューニング
バーストトラフィック対応通常リクエストを処理スパイク時にクラウドでスケールアウト

ハイブリッド構成のblueprint.yaml設定

# DGX Sparkとクラウドのハイブリッド推論設定
agent:
  name: "hybrid-agent"
  runtime: "openshell"

privacy_router:
  enabled: true
  rules:
    # 機密データ・PIIはDGX Sparkでローカル処理
    - condition: "data_classification in [confidential, restricted]"
      inference_profile: "local-nim"
      endpoint: "http://localhost:8000"
      model: "nemotron-3-nano-30b"
    - condition: "pii_detected == true"
      inference_profile: "local-nim"
      endpoint: "http://localhost:8000"
      model: "nemotron-3-nano-30b"
    # 複雑な推論・長文生成はクラウドにオフロード
    - condition: "task_complexity == high"
      inference_profile: "dgx-cloud"
      model: "nemotron-3-super-120b"
    # デフォルトはローカルで処理
    - condition: "default"
      inference_profile: "local-nim"
      endpoint: "http://localhost:8000"
      model: "nemotron-3-nano-30b"

DGX Sparkの価格と調達方法

DGX Sparkの日本での公式価格はGTC 2025発表時点では確定しておらず、正式な発売と同時に発表される見込みです。以下は参考情報として公式発表内容を基に記載しています。購入前に必ずNVIDIAの公式サイトおよび国内代理店で最新の価格・在庫情報を確認してください。

参考価格情報(暫定)

項目情報備考
DGX Spark本体価格GTC発表では約3,000米ドル前後が見込みと報道あり(未確定)正式価格はNVIDIA公式発表を参照すること
国内販売価格未発表(2026年3月時点)為替・輸入コスト等により米国価格と異なる場合あり
ソフトウェアライセンスNVIDIA AI EnterpriseサブスクリプションがNIM利用に必要な見込みライセンス形態・価格は別途確認が必要
保証期間標準1年間(見込み)延長保証オプションの有無は未確定

日本国内での調達チャネル

調達チャネル特徴推奨場面
NVIDIA公式サイト(nvidia.com/dgx)直販。最新の在庫状況・価格情報1〜数台の購入・まず情報収集に
国内NVIDIAパートナー(SIer)導入支援・NemoClawセットアップのサポート込み初期導入サポートが必要な組織
IT機器商社・販売店複数メーカーを比較・見積もりが取りやすい複数台購入・コスト比較重視
クラウドベースのレンタル・評価機導入前の検証環境としてPoC(概念実証)段階

DGX Sparkは企業・研究機関向け製品であるため、購入には法人アカウントの作成や事前登録が必要な場合があります。国内の正規販売開始時期については公式サイトでご確認ください(2026年3月現在、日本国内での発売時期は未確定)。

NemoClaw運用における性能特性

DGX SparkでNemoClawを運用する際の性能特性について、公式情報および技術仕様から推測できる傾向を示します。実際のワークロードでの性能測定は製品入手後に行うことを推奨します。

レイテンシとスループットの目安

指標目安(参考)前提条件
Time to First Token(TTFT)数百ミリ秒程度の見込みNemotron 30B・シングルリクエスト
Tokens per Second(TPS)数十〜百トークン/秒程度の見込みNemotron 30B・FP8精度
同時リクエスト数数〜十数リクエストの同時処理が見込まれる128GBメモリ・Nemotron 30B使用時
モデルロード時間初回起動時は数分程度の見込み4TB NVMe SSDからの読み込み

上記の数値は技術仕様からの推測であり、公式のベンチマーク結果ではありません。実際の性能はワークロードの内容・量子化設定・システム設定により大きく異なります。NVIDIAの公式ベンチマーク公表を待つことを推奨します。

クラウドAPIとの比較

比較項目DGX Spark(ローカル推論)クラウドAPI(NVIDIAクラウドホスト)
データプライバシー高(データが外部に出ない)中(外部送信が発生)
初期コスト高(ハードウェア購入費用)低(従量課金)
ランニングコスト低(電気代のみ・月数千円程度の見込み)中〜高(使用量に応じて変動)
利用可能モデルサイズ最大100B程度(メモリ制約)120B以上も利用可能
ネットワーク依存なし(社内LANのみ)あり(インターネット接続必要)
スケールアップの容易さ低(ハードウェア追加購入が必要)高(即時スケールアウト可能)
SLAの管理自社管理(障害は自社対応)NVIDIAが提供するSLA

日本企業のユースケースと導入シナリオ

DGX SparkとNemoClawを組み合わせることで実現できる、日本企業に適したユースケースを紹介します。

金融機関・法律事務所・会計事務所は顧客の機密情報を大量に扱います。クラウドAPIへの送信が法規制・社内規程・顧客との契約で禁止されているケースがあります。DGX Sparkによりこれらの機密データをAIエージェントで処理しながら、データが物理的に社外に出ない環境を構築できます。

想定されるユースケース例:

  • 契約書レビューエージェント(条項の問題点検出・類似案件検索)
  • 財務報告書の要約・異常値フラグ付け
  • コンプライアンス確認・法令チェックの自動化

製造業・研究開発:知財保護とオフライン運用

製造業では設計図・技術仕様・未公開特許情報といった機密技術情報をAIが処理するシナリオがあります。また工場環境や研究室ではインターネット接続が制限されているケースもあります。DGX SparkはスタンドアロンでもNemoClawを完全動作させられるため、オフライン環境での運用が可能です。

想定されるユースケース例:

  • 技術文書・マニュアルを参照するRAG型エージェント(オフライン動作)
  • 品質検査ログの解析・異常パターン検出
  • 実験データの分析・仮説生成支援

医療・ヘルスケア:患者情報の院内完結処理

医療機関では患者の診療情報は要配慮個人情報であり、外部への送信には厳格な制約があります。DGX SparkとNemoClawのlocal-nim構成により、患者情報をAIエージェントで分析しながら院内インフラから外部に一切送信しない設計が実現できます。

医療分野でのAI利用には医療機器規制・個人情報保護法の要配慮個人情報規定・ガイドライン(厚生労働省のAI活用ガイドライン等)への対応が別途必要です。実際の導入前に医療コンプライアンスの専門家に相談することを強く推奨します。