NVIDIA DGX Sparkとは
NVIDIA DGX SparkはNVIDIAが2025年のGTC(GPU Technology Conference)で発表したデスクトップ型AIコンピュータです。「デスクトップに置けるデータセンター」というコンセプトのもと、これまでラックマウントサーバーが必要だった高性能AI推論をオフィスや研究室の机上で実現します。
DGX SparkはNemoClawのローカル推論(local-nim)プロファイルを動作させるための理想的なハードウェア基盤です。セキュリティ要件からクラウドAPIを使えない組織、低レイテンシが求められる用途、データを社外に出せない業種にとって特に注目されるシステムです。
DGX Sparkは2025年発表の製品です。本ガイドはGTC 2025発表内容・NVIDIAの公式仕様に基づいて作成しています。価格・発売時期・詳細仕様は変更される可能性があるため、最新情報はNVIDIAの公式サイトおよび国内代理店にご確認ください。
DGX Sparkのハードウェア仕様
DGX SparkのコアコンポーネントはGB10 Superチップです。GB10 SuperはGrace CPU(Arm Neoverse V2ベース)とBlackwell GPUアーキテクチャを一つのチップに統合したSystem-on-Chip(SoC)で、従来のGPUサーバーと異なりCPUとGPUが巨大な共有メモリプールに直接アクセスできる設計です。
主要スペック一覧
| 項目 | 仕様 | NemoClaw運用への意味 |
|---|---|---|
| チップ | NVIDIA GB10 Super(Grace Blackwell統合SoC) | CPU-GPU間のデータ移動なしに推論を実行 |
| GPU性能(FP8) | 最大1PFLOPS(※INT8換算、詳細はNVIDIA公式参照) | 70Bクラスのモデルをリアルタイムで推論可能な見込み |
| 統合メモリ | 128GB LPDDR5X(CPU・GPU共有) | 70Bパラメータモデルをメモリスワップなしに保持可能 |
| ストレージ | 4TB NVMe SSD | 複数のNIMモデルと大容量RAGデータの保管 |
| CPUコア | 20コア(Grace CPU) | OpenShellのポリシー処理・複数エージェントの同時実行 |
| ネットワーク | 100GbE + Wi-Fi 6E + Bluetooth 5.3 | 高速社内LANへの接続・DGX Cloudとのハイブリッド連携 |
| USB4 | 2ポート(最大40Gbps) | 外部ストレージへのモデルバックアップ |
| OS | Ubuntu Linux(DGX OS) | NemoClawのDocker/Kubernetes環境をそのまま動作 |
| 消費電力 | 最大60W(TDP) | オフィス設置可能な消費電力。専用電源工事不要の見込み |
| サイズ | デスクトップ型(詳細寸法は公式発表待ち) | 机上への設置を想定した設計 |
GPU性能の数値はNVIDIA公式発表時の値を基に記載しています。測定条件(精度・バッチサイズ等)により実効性能は異なります。実ワークロードでのベンチマークは製品入手後に確認することを推奨します。
128GB統合メモリがNemoClawにもたらす利点
NemoClawで動作するNIMモデルのサイズ感と128GB統合メモリの対応関係を示します。
| モデル | 必要メモリ目安(FP16) | DGX Spark搭載可否 | 推奨用途 |
|---|---|---|---|
| Nemotron 3 Nano 8B | 約16GB | 搭載可(余裕あり) | 高スループット・コスト優先の推論 |
| Nemotron 3 Nano 30B | 約60GB | 搭載可 | バランス型・汎用エージェント |
| Nemotron 3 Super 50B | 約100GB | 搭載可(制約あり) | 高品質推論・専門業務エージェント |
| Nemotron 3 Super 120B | 約240GB | 単体では搭載不可 | DGX Cloud(クラウド)での利用を推奨 |
上記はあくまで目安であり、量子化(INT4/INT8)の適用・KVキャッシュサイズ・同時リクエスト数によって実際の必要メモリは変動します。量子化を活用することでより大きなモデルを搭載できる可能性があります。
DGX SparkへのNemoClaw設定手順
DGX SparkはNVIDIA Container Toolkit・Docker・Kubernetes(MicroK8s)がプリインストールされたDGX OSを搭載しているため、NemoClawのインストール環境が初期状態から整っています。以下にNemoClawをDGX Spark上で起動するまでの手順の概要を示します。
本手順はNemoClaw公式ドキュメント(docs.nemoclaw.nvidia.com)および一般的なNIM/Docker手順を基に記載しています。実際の手順は製品リリース時のドキュメントを必ず参照してください。
ステップ1: NVIDIAライセンス確認とNGC設定
# DGX OSへのログイン後、NVIDIAのNGC(NVIDIA GPU Cloud)にログイン
docker login nvcr.io
# プロンプトが表示されたら:
# Username: $oauthtoken
# Password: [NGC APIキー]
# NGC APIキーの取得場所: https://ngc.nvidia.com/setup/api-key
# NemoClawのライセンスが含まれるNVIDIA AI Enterpriseサブスクリプションが必要な見込み
ステップ2: NemoClawコアのインストール
# NemoClawコアのDockerイメージ取得
docker pull nvcr.io/nvidia/nemoclaw:latest
# DGX Spark向け推奨設定でNemoClawを起動
docker run -d \
--name nemoclaw-core \
--gpus all \
--shm-size=64g \
-p 8080:8080 \
-v /local/nemoclaw/models:/models \
-v /local/nemoclaw/blueprints:/blueprints \
-v /var/log/nemoclaw:/logs \
nvcr.io/nvidia/nemoclaw:latest
--shm-size=64gは共有メモリサイズです。DGX Sparkの128GB統合メモリを活かすため、使用するモデルサイズに応じて調整してください。
ステップ3: NIMモデルのダウンロードと起動
# Nemotron 3 Nano 30Bモデルのダウンロード
# ※モデルサイズは約60GB。ダウンロード時間は接続速度に依存
docker run -d \
--name nim-nemotron-30b \
--gpus all \
-e NGC_API_KEY="YOUR_NGC_API_KEY" \
-v /local/nemoclaw/models/nemotron-30b:/opt/nim/.cache \
-p 8000:8000 \
nvcr.io/nim/nvidia/nemotron-3-nano-30b-instruct:latest
# 起動確認(モデルロード完了まで数分かかる場合があります)
curl http://localhost:8000/v1/health/ready
ステップ4: blueprint.yamlのDGX Spark向け設定
# DGX Spark向け最適化blueprint.yaml例
agent:
name: "dgx-spark-agent"
runtime: "openshell"
inference:
# DGX Sparkのlocal-nimを使用
primary_profile: "local-nim"
endpoint: "http://localhost:8000" # ローカルNIMエンドポイント
model: "nemotron-3-nano-30b"
# DGX Spark向けパフォーマンス最適化
performance:
max_concurrent_requests: 8 # 20コアCPUを活かした並列処理
request_timeout_ms: 30000
gpu_memory_utilization: 0.85 # 128GBメモリの85%を推論に割り当て
privacy:
pii_detection: true
pii_action: "mask"
data:
external_access: false
retention_days: 90
audit:
enabled: true
log_path: "/logs/agents/"
include_prompts: false
DGX CloudとのハイブリッドAI構成
DGX Sparkの最大の特徴の一つは、NVIDIAのDGX Cloudと組み合わせたハイブリッドAIアーキテクチャを構築できる点です。オフィスのDGX Sparkで機密データを処理しながら、大規模な推論やファインチューニングはDGX Cloudにオフロードするという使い分けが可能になります。
ハイブリッド構成のユースケース
| ユースケース | DGX Spark(オンプレミス) | DGX Cloud |
|---|---|---|
| 日常的な問い合わせ対応 | Nemotron 30Bでリアルタイム推論 | 不使用(コスト節約) |
| 機密データを含む処理 | local-nimで完結(外部送信なし) | 不使用(セキュリティ優先) |
| 高品質な長文生成・複雑な推論 | 処理しない | Nemotron 120Bにルーティング |
| モデルのファインチューニング | データ前処理・少量データでのテスト | 大規模GPUクラスタで本番ファインチューニング |
| バーストトラフィック対応 | 通常リクエストを処理 | スパイク時にクラウドでスケールアウト |
ハイブリッド構成のblueprint.yaml設定
# DGX Sparkとクラウドのハイブリッド推論設定
agent:
name: "hybrid-agent"
runtime: "openshell"
privacy_router:
enabled: true
rules:
# 機密データ・PIIはDGX Sparkでローカル処理
- condition: "data_classification in [confidential, restricted]"
inference_profile: "local-nim"
endpoint: "http://localhost:8000"
model: "nemotron-3-nano-30b"
- condition: "pii_detected == true"
inference_profile: "local-nim"
endpoint: "http://localhost:8000"
model: "nemotron-3-nano-30b"
# 複雑な推論・長文生成はクラウドにオフロード
- condition: "task_complexity == high"
inference_profile: "dgx-cloud"
model: "nemotron-3-super-120b"
# デフォルトはローカルで処理
- condition: "default"
inference_profile: "local-nim"
endpoint: "http://localhost:8000"
model: "nemotron-3-nano-30b"
DGX Sparkの価格と調達方法
DGX Sparkの日本での公式価格はGTC 2025発表時点では確定しておらず、正式な発売と同時に発表される見込みです。以下は参考情報として公式発表内容を基に記載しています。購入前に必ずNVIDIAの公式サイトおよび国内代理店で最新の価格・在庫情報を確認してください。
参考価格情報(暫定)
| 項目 | 情報 | 備考 |
|---|---|---|
| DGX Spark本体価格 | GTC発表では約3,000米ドル前後が見込みと報道あり(未確定) | 正式価格はNVIDIA公式発表を参照すること |
| 国内販売価格 | 未発表(2026年3月時点) | 為替・輸入コスト等により米国価格と異なる場合あり |
| ソフトウェアライセンス | NVIDIA AI EnterpriseサブスクリプションがNIM利用に必要な見込み | ライセンス形態・価格は別途確認が必要 |
| 保証期間 | 標準1年間(見込み) | 延長保証オプションの有無は未確定 |
日本国内での調達チャネル
| 調達チャネル | 特徴 | 推奨場面 |
|---|---|---|
| NVIDIA公式サイト(nvidia.com/dgx) | 直販。最新の在庫状況・価格情報 | 1〜数台の購入・まず情報収集に |
| 国内NVIDIAパートナー(SIer) | 導入支援・NemoClawセットアップのサポート込み | 初期導入サポートが必要な組織 |
| IT機器商社・販売店 | 複数メーカーを比較・見積もりが取りやすい | 複数台購入・コスト比較重視 |
| クラウドベースのレンタル・評価機 | 導入前の検証環境として | PoC(概念実証)段階 |
DGX Sparkは企業・研究機関向け製品であるため、購入には法人アカウントの作成や事前登録が必要な場合があります。国内の正規販売開始時期については公式サイトでご確認ください(2026年3月現在、日本国内での発売時期は未確定)。
NemoClaw運用における性能特性
DGX SparkでNemoClawを運用する際の性能特性について、公式情報および技術仕様から推測できる傾向を示します。実際のワークロードでの性能測定は製品入手後に行うことを推奨します。
レイテンシとスループットの目安
| 指標 | 目安(参考) | 前提条件 |
|---|---|---|
| Time to First Token(TTFT) | 数百ミリ秒程度の見込み | Nemotron 30B・シングルリクエスト |
| Tokens per Second(TPS) | 数十〜百トークン/秒程度の見込み | Nemotron 30B・FP8精度 |
| 同時リクエスト数 | 数〜十数リクエストの同時処理が見込まれる | 128GBメモリ・Nemotron 30B使用時 |
| モデルロード時間 | 初回起動時は数分程度の見込み | 4TB NVMe SSDからの読み込み |
上記の数値は技術仕様からの推測であり、公式のベンチマーク結果ではありません。実際の性能はワークロードの内容・量子化設定・システム設定により大きく異なります。NVIDIAの公式ベンチマーク公表を待つことを推奨します。
クラウドAPIとの比較
| 比較項目 | DGX Spark(ローカル推論) | クラウドAPI(NVIDIAクラウドホスト) |
|---|---|---|
| データプライバシー | 高(データが外部に出ない) | 中(外部送信が発生) |
| 初期コスト | 高(ハードウェア購入費用) | 低(従量課金) |
| ランニングコスト | 低(電気代のみ・月数千円程度の見込み) | 中〜高(使用量に応じて変動) |
| 利用可能モデルサイズ | 最大100B程度(メモリ制約) | 120B以上も利用可能 |
| ネットワーク依存 | なし(社内LANのみ) | あり(インターネット接続必要) |
| スケールアップの容易さ | 低(ハードウェア追加購入が必要) | 高(即時スケールアウト可能) |
| SLAの管理 | 自社管理(障害は自社対応) | NVIDIAが提供するSLA |
日本企業のユースケースと導入シナリオ
DGX SparkとNemoClawを組み合わせることで実現できる、日本企業に適したユースケースを紹介します。
金融・法務:高機密データの社内完結処理
金融機関・法律事務所・会計事務所は顧客の機密情報を大量に扱います。クラウドAPIへの送信が法規制・社内規程・顧客との契約で禁止されているケースがあります。DGX Sparkによりこれらの機密データをAIエージェントで処理しながら、データが物理的に社外に出ない環境を構築できます。
想定されるユースケース例:
- 契約書レビューエージェント(条項の問題点検出・類似案件検索)
- 財務報告書の要約・異常値フラグ付け
- コンプライアンス確認・法令チェックの自動化
製造業・研究開発:知財保護とオフライン運用
製造業では設計図・技術仕様・未公開特許情報といった機密技術情報をAIが処理するシナリオがあります。また工場環境や研究室ではインターネット接続が制限されているケースもあります。DGX SparkはスタンドアロンでもNemoClawを完全動作させられるため、オフライン環境での運用が可能です。
想定されるユースケース例:
- 技術文書・マニュアルを参照するRAG型エージェント(オフライン動作)
- 品質検査ログの解析・異常パターン検出
- 実験データの分析・仮説生成支援
医療・ヘルスケア:患者情報の院内完結処理
医療機関では患者の診療情報は要配慮個人情報であり、外部への送信には厳格な制約があります。DGX SparkとNemoClawのlocal-nim構成により、患者情報をAIエージェントで分析しながら院内インフラから外部に一切送信しない設計が実現できます。
医療分野でのAI利用には医療機器規制・個人情報保護法の要配慮個人情報規定・ガイドライン(厚生労働省のAI活用ガイドライン等)への対応が別途必要です。実際の導入前に医療コンプライアンスの専門家に相談することを強く推奨します。