NemoClawはMacで動くのか?対応状況まとめ

結論から言えば、NemoClawはApple Silicon(M1〜M4)搭載のMacで動作確認済みです。ただし、すべての機能がLinux環境と同等に動くわけではなく、推論プロファイルによって動作状況が異なります。

機能Mac対応備考
サンドボックス環境○ 動作Docker Desktop経由
セキュリティモデル○ 動作ポリシー制御・ネットワーク分離
Cloud NIM推論○ 完全動作NVIDIA APIキー必要
Docker Model Runner△ 限定的Metal GPU加速で実行可能だが統合未完
Ollama ローカル推論✕ 未対応DNSバグでinference.localが未解決

Mac環境ではCloud NIM推論(Option 1)を選択すれば、設定不要で即座に利用開始できます。ローカル推論にこだわる必要がなければ、最も安定した選択肢です。

Apple Silicon(M1〜M4)での動作確認状況

NemoClawの動作確認は、以下のApple Siliconチップで報告されています。

  • M1 / M1 Pro / M1 Max / M1 Ultra — Docker Desktop経由で基本動作確認済み
  • M2 / M2 Pro / M2 Max / M2 Ultra — 同上
  • M3 / M3 Pro / M3 Max — 同上
  • M4 / M4 Pro / M4 Max — 最新環境で動作確認済み

Apple Siliconの統合GPUはCUDA非対応ですが、NemoClawのサンドボックス・セキュリティ機構はCPU上で問題なく動作します。推論処理はCloud NIMを利用することで、GPU非依存で高性能なモデル(Nemotron 3 Super 120B)を利用できます。

Intel Macでの対応状況

Intel Mac(2020年以前のモデル)でもDocker Desktop経由で基本的なサンドボックス機能は動作しますが、以下の点に注意が必要です。

  • Apple Siliconと比較してDocker内のパフォーマンスが低い
  • Docker Model Runnerは非対応(Metal GPU加速が前提のため)
  • メモリ8GB以上を推奨(Docker Desktop + NemoClawで4GB以上消費)

Intel Macの場合は特に、Cloud NIM推論一択と考えて問題ありません。

Mac環境の前提条件

NemoClawをMacにインストールする前に、以下のソフトウェアが必要です。

ソフトウェアバージョン用途
macOS13 Ventura以降OS
Docker Desktop4.30以降サンドボックス実行
Node.js20 LTS以降NemoClaw CLIプラグイン
Python3.11以降Blueprintオーケストレーター
Git最新版リポジトリクローン

Docker Desktopのインストールと設定

NemoClawのサンドボックスはDockerコンテナ上で動作します。Docker Desktopのインストール後、以下の設定を確認してください。

  1. Docker Desktop公式サイトからMac版(Apple Silicon / Intel)をダウンロード
  2. インストール後、Docker Desktopを起動
  3. Settings → Resourcesでメモリを8GB以上に設定(デフォルト4GBでは不足する場合あり)
  4. Settings → Generalで「Use Virtualization Framework」にチェック(Apple Siliconの場合)

Docker Desktopが正常に起動していることを、ターミナルで確認します。

docker --version
# Docker version 27.x.x, build xxxxx

docker run hello-world
# Hello from Docker! が表示されればOK

Node.jsとPythonのインストール

Homebrewを使って必要な依存関係をインストールします。

# Homebrewがなければ先にインストール
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

# Node.js 20 LTS
brew install node@20

# Python 3.11+
brew install python@3.11

# バージョン確認
node --version   # v20.x.x
python3 --version  # Python 3.11.x

既にnodebrewやnvmでNode.jsを管理している場合は、そちらでv20以上に切り替えても問題ありません。

NemoClawのインストール手順(Mac版)

前提条件が整ったら、NemoClawをインストールします。公式のインストールスクリプトを使用する方法と、GitHubからクローンする方法の2つがあります。

方法1: 公式インストールスクリプト(推奨)

最も簡単な方法は、NVIDIA公式のインストールスクリプトを使用することです。

# NemoClawインストール
curl -fsSL https://nvidia.com/nemoclaw.sh | bash

このスクリプトは以下を自動で行います。

  • システム要件のチェック
  • NemoClaw CLIプラグインのインストール
  • Python Blueprintの設定
  • 初回のサンドボックスイメージのダウンロード

インストール完了後、以下のコマンドで正常にインストールされたことを確認します。

nemoclaw --version
# NemoClaw vX.X.X (alpha)

方法2: GitHubからクローン

最新の開発版を使用したい場合や、ソースコードを確認したい場合はGitHubからクローンします。

# リポジトリクローン
git clone https://github.com/NVIDIA/NemoClaw.git
cd NemoClaw

# 依存関係インストール
npm install

# Blueprintセットアップ
cd blueprint
pip3 install -r requirements.txt

# CLIリンク
npm link

GitHubリポジトリの構成については、NemoClaw GitHubリポジトリ完全ガイドで詳しく解説しています。

推論プロファイルの設定(Mac推奨: Cloud NIM)

NemoClawの初回起動時に推論プロファイルを選択します。Mac環境ではOption 1(Cloud NIM)を強く推奨します。

# 初回セットアップ(オンボーディング)
nemoclaw setup

# プロンプトで「Option 1: NVIDIA Cloud NIM」を選択
# NVIDIA API Keyの入力を求められる

NVIDIA APIキーはbuild.nvidia.comで無料アカウントを作成すると取得できます。

推論プロファイルMac対応モデル推奨度
Cloud NIM(Option 1)Nemotron 3 Super 120B★★★ 強く推奨
Docker Model Runner各種★★ 実験的
Ollama ローカル✕ 非対応
vLLM ローカル✕ CUDA必要

Docker Model Runner(Apple Silicon GPU加速)

Docker Desktop 4.40以降に搭載されたDocker Model Runnerは、Apple SiliconのMetal GPUを活用してローカルLLMを実行する機能です。NemoClawとの統合は開発中ですが、実験的に利用することは可能です。

Docker Model Runnerの有効化

Docker Model Runnerを有効化する手順は以下のとおりです。

  1. Docker Desktop → Settings → Features in Development
  2. 「Docker Model Runner」を有効化
  3. Docker Desktopを再起動
# モデルの取得と実行
docker model pull llama3.2
docker model run llama3.2 "Hello, world"

Metal GPU加速により、Apple Silicon上でも実用的な速度でLLMを実行できます。ただし、NemoClawのサンドボックスとの統合(ホスト→サンドボックス間のブリッジ)は現時点では未実装です。

現時点の制限と今後の見通し

Docker Model RunnerとNemoClawの統合における現時点の制限事項です。

  • サンドボックスからModel Runnerへの直接通信不可 — ホストとサンドボックス間のブリッジ機構が未実装
  • ポリシーベースの推論ルーティング未対応 — NemoClawのセキュリティポリシーがModel Runnerに適用されない
  • blueprint.yamlでの指定不可 — 現時点ではCloud NIMとvLLMのみ定義可能

NVIDIA公式のGitHub Issue(#260)では、Docker Model RunnerがApple Silicon向けの最適な推論バックエンドとして位置づけられており、今後のリリースで正式な統合が予定されています。

Mac環境でのトラブルシューティング

NemoClawをMacで運用する際によくある問題と解決策をまとめます。

Ollama推論のDNSバグ(inference.local未解決)

Mac環境でOllamaバックエンドを選択すると、サンドボックス内でinference.localの名前解決に失敗する既知のバグがあります。

原因: LinuxのDGX Spark/Stationでは/etc/hostsにエントリが自動追加されますが、macOS上のDockerコンテナでは追加されません。

回避策: Cloud NIM推論に切り替えてください。

# 推論プロファイルを切り替え
nemoclaw config set inference.provider cloud-nim

Docker Desktopのメモリ不足

サンドボックス起動時に「out of memory」エラーが出る場合は、Docker Desktopのリソース設定を確認してください。

  1. Docker Desktop → Settings → Resources
  2. Memory: 8GB以上に設定
  3. Swap: 2GB以上を推奨
  4. Disk image size: 40GB以上に設定(サンドボックスイメージで20GB消費)

Mac miniやMacBook Air(メモリ8GBモデル)では、他のアプリケーションを終了した状態での実行を推奨します。メモリ16GB以上のMacを推奨します。

サンドボックスが起動しない場合

サンドボックスが起動しない場合のチェックリストです。

  1. Docker Desktopが起動しているか — メニューバーのDockerアイコンを確認
  2. Dockerデーモンが応答するかdocker psでエラーが出ないことを確認
  3. ディスク容量が十分かdf -hで空き容量20GB以上を確認
  4. NemoClawのバージョンが最新かnemoclaw updateで更新

それでも解決しない場合は、Docker Desktopの「Troubleshoot → Clean / Purge data」でDockerの状態をリセットしてから再試行してください。

Mac環境でのベストプラクティス

  • 推論はCloud NIM一択 — Mac環境ではローカル推論の安定性が不十分。Cloud NIMなら120Bモデルを遅延なく利用可能
  • メモリ16GB以上のMacを使用 — Docker Desktop + NemoClawサンドボックスで6〜8GB消費するため
  • 開発はMac、本番はLinux — Macでの開発・テスト後、本番環境はNVIDIA GPUを搭載したLinuxサーバーにデプロイするのが最適
  • blueprint.yamlでCloud NIMをデフォルトに — チーム開発時にMacユーザーがハマらないよう、デフォルトプロファイルをCloud NIMに設定
  • Docker Model Runnerの進捗をウォッチ — GitHub Issue #260を定期的に確認し、正式統合後はローカル推論に切り替え可能