OpenClawをまだインストールしていませんか?ワンラインインストールコマンドはこちら
curl -fsSL https://openclaw.ai/install.sh | bashiwr -useb https://openclaw.ai/install.ps1 | iexcurl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd- OpenClawは6つのAPIプロバイダー(Anthropic、OpenAI、Google、DeepSeek、Ollama、OpenRouter)をネイティブサポートしており、それぞれOAuthまたはAPI Keyで認証可能。Primary + Fallbackの二重モデル切替メカニズムを備えている[1]
- ベンチマークテストでは、Anthropic Claude 3.5 Sonnetがコード生成と推論タスクで最高のパフォーマンスを発揮。Google Gemini 2.5 Flashは日常会話・要約タスクにおいて極めて低コストで最高のコストパフォーマンスを提供する[11]
- DeepSeek V4は現在、OpenClawエコシステムで最もコストの低いクラウドモデルオプションである。入力トークンはわずか$0.27/1Mで、大量ドキュメント処理やコスト重視のユースケースに適している[6]
- ローカルデプロイでは、Ollama統合によりユーザーはOpenClawを完全オフライン環境で実行可能。Qwen 2.5 32BやLlama 3.3 70Bなどのオープンソースモデルでクラウドモデルに近いパフォーマンスを実現する[7]
- エンタープライズデプロイでは「Claude Sonnetプライマリ + GPT-4oバックアップ + ローカルモデルセーフティネット」の三層Fallback戦略を採用し、99.9%以上のサービス可用性を確保すべきである[8]
- OAuth認証はAPI Keyと比較してキー管理の複雑さを排除するが、個別プロバイダーのレート制限枠に制約される。API Keyはより柔軟な使用量管理と請求分離が可能である[2]
1. なぜモデル選択がOpenClawで最も重要な決定なのか
2026年で最も注目されるオープンソースAIエージェントフレームワークとして、OpenClawのコア能力は接続する大規模言語モデル(LLM)に依存している。[10] しかし、異なるモデルは推論能力、コード生成品質、応答速度、コスト構造において大きく異なる。正しいモデルを選べばAIエージェントは複雑なブラウザ自動化やマルチステップワークフローを正確に実行できるが、間違ったモデルを選べば応答の遅延、指示の誤解、さらにはコストの暴走に直面する可能性がある。
本記事はアーキテクチャファーストのアプローチで、OpenClawのモデル管理メカニズムを体系的に解説し、6つのAPIプロバイダーの全モデルをベンチマーク比較した上で、完全な設定チュートリアル、コスト分析、エンタープライズベストプラクティスを提供する。OpenClawをインストールしたばかりの初心者、APIコスト削減を目指す個人開発者、エンタープライズデプロイオプションを評価する技術リードのいずれであっても、本ガイドは最も包括的な意思決定の基盤を提供する。
2. OpenClawモデルアーキテクチャ概要
モデル比較に入る前に、まずOpenClawがモデルをどのように管理するかを理解する必要がある。このアーキテクチャ設計が、以降のすべての設定ロジックを決定する。[1]
2.1 Provider-Model階層アーキテクチャ
OpenClawはモデル管理を2つのレイヤーに分けている:
- Provider:AIモデルAPIを提供するサービスベンダー——Anthropic、OpenAI、Google、DeepSeek、Ollama(ローカル)、OpenRouter(アグリゲーター)。各Providerは独自の認証方式と課金モデルを持つ
- Model:Provider配下の具体的なモデルバージョン——例えば、Anthropic配下の
claude-opus-4-6とclaude-sonnet-4-6、OpenAI配下のgpt-4oとgpt-4.5-preview
この階層設計のメリットは、複数のProviderの認証を同時に設定し、モデルレベルで自由に切り替えられることである。毎回認証を再設定する必要はない。
2.2 Primary + Fallback二重メカニズム
OpenClawのモデル設定はPrimary + Fallbackの二重アーキテクチャを採用している。これが信頼性設計の核心である:[8]
// openclaw.json — モデル設定構造
{
"agents": {
"defaults": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o", "gemini-2.5-flash"]
}
}
}
}
動作ロジックは以下の通りである:
- エージェントがタスクを実行するたびに、まずPrimaryモデルの使用を試みる
- Primaryモデルが利用不可の場合(APIレート制限、サービス障害、認証期限切れ)、システムはFallbackリストのモデルを順に試す
- 最初に正常に応答したモデルがそのタスクに使用される
- 新しいタスクごとに引き続きPrimaryモデルが優先される(Fallbackに「固定」されない)
これにより、AnthropicのAPIに一時的な問題が発生しても、OpenClawエージェントはOpenAIやGoogleのモデルを通じて動作を継続できる。本番環境には欠かせない信頼性保証である。
2.3 認証管理:OAuth vs API Key
OpenClawは2つの認証方式をサポートし、各Providerは少なくとも1つをサポートしている:[2]
- OAuth(インタラクティブ認証):ブラウザを通じて認証フローを完了し、Tokenの管理と更新が自動化される。セットアップが最もシンプルな個人ユーザーに適している
- API Key(キー認証):ProviderのWebサイトで取得したAPIキーを手動で入力する。きめ細かい使用量管理と請求制御が可能なエンタープライズユーザーに適している
認証情報は~/.openclaw/auth-profiles.jsonに一元管理され、メイン設定ファイルopenclaw.jsonとは分離されているため、誤漏洩のリスクが低減される。
3. 対応APIプロバイダー一覧
以下はOpenClawが現在サポートしているすべてのAPIプロバイダーの包括的な比較である。この表でコアの違いを素早く把握できる:[1]
| プロバイダー | 推奨モデル | 認証方式 | 入力 / 出力(1Mトークン) | レート制限 | 最適用途 |
|---|---|---|---|---|---|
| Anthropic | Claude 3.5 Sonnet | OAuth / API Key | $3 / $15 | 4,000 RPM(有料) | コード生成、論理推論 |
| OpenAI | GPT-4o | OAuth / API Key | $2.5 / $10 | 10,000 RPM(Tier 5) | 汎用タスク、マルチモーダル |
| Gemini 2.5 Flash | OAuth / API Key | $0.15 / $0.60 | 2,000 RPM(無料) | 日常会話、要約 | |
| DeepSeek | DeepSeek V4 | API Key | $0.27 / $1.10 | 500 RPM | バッチ処理、コスト重視 |
| Ollama(ローカル) | Qwen 2.5 32B | 認証不要 | 無料(ハードウェアコスト) | ハードウェア依存 | オフライン、プライバシー、実験 |
| OpenRouter | モデルにより異なる | API Key | モデルにより異なる | プランにより異なる | マルチプロバイダー集約、統一課金 |
次に、各Providerのモデル特性、設定方法、適用シナリオを詳しく分析する。
4. Anthropic Claudeシリーズ——コードと推論のトップチョイス
AnthropicのClaudeシリーズはOpenClawのデフォルト推奨モデルであり、OpenClawエコシステム全体で最も徹底的にテストされたモデルファミリーである。[3] これは偶然ではない。OpenClawのコア開発者コミュニティが日常開発でClaudeを広範に使用しており、フレームワークとClaudeの互換性が最も高い。
4.1 利用可能なモデル
| モデル名 | モデルID | コンテキストウィンドウ | 入力 / 出力(1Mトークン) | 特徴 |
|---|---|---|---|---|
| Claude Opus 4.6 | claude-opus-4-6 | 200K | $15 / $75 | 最強の推論力、複雑なマルチステップタスクに最適 |
| Claude Sonnet 4.6 | claude-sonnet-4-6 | 200K | $3 / $15 | 最高のコストパフォーマンス、卓越したコード品質 |
| Claude 3.5 Sonnet | claude-3-5-sonnet-20241022 | 200K | $3 / $15 | 安定かつ信頼性の高い前世代フラグシップ |
| Claude 3.5 Haiku | claude-3-5-haiku-20241022 | 200K | $0.80 / $4 | 軽量かつ高速、シンプルなタスクに適している |
4.2 認証セットアップ
方法1:OAuth認証(初心者に推奨)
openclaw models auth login --provider anthropic
このコマンドを実行するとブラウザが開き、Anthropicアカウントにログインして認証を完了するよう案内される。Tokenは自動的に保存され、有効期限が切れるとシステムが自動的に再認証を促す。[9]
方法2:API Key(エンタープライズユーザーに推奨)
openclaw models auth setup-token --provider anthropic
システムがAPI Keyの入力を求める。Anthropic ConsoleのAPI Keysページから取得できる。OpenClaw専用のAPI Keyを作成し、使用量の追跡と予算アラートの設定を容易にすることを推奨する。
4.3 なぜClaudeがOpenClawに最適なのか
ClaudeシリーズがOpenClawエージェントシナリオで優れている理由は3つある:
- 高い指示追従性:Claudeは複雑なマルチステップ指示の理解と実行に優れている。エージェントが自律的にタスクを分解する必要がある場合、これは非常に重要である
- 高品質なコード生成:SWE-benchやHumanEvalなどのベンチマークで、Claude Sonnetのコード生成精度は常に上位にランクインしている[11]
- 設計段階からの安全性:ClaudeのConstitutional AIトレーニング手法により、潜在的に危険な操作に直面した際に「実行前に確認する」傾向が強い。コンピュータ制御権を持つAIエージェントにとって重要な安全特性である[3]
推奨構成:claude-sonnet-4-6をPrimaryに設定し、claude-3-5-haiku-20241022をFallbackリストの最初に配置する(APIレート制限時のグレースフルデグレーション用)。
5. OpenAI GPTシリーズ——汎用・マルチモーダルの万能選手
OpenAIのGPTシリーズは世界で最も広く使われているLLM APIであり、エコシステムが最も充実し、レート制限枠も最高である。[4]
5.1 利用可能なモデル
| モデル名 | モデルID | コンテキストウィンドウ | 入力 / 出力(1Mトークン) | 特徴 |
|---|---|---|---|---|
| GPT-4.5 Preview | gpt-4.5-preview | 128K | $75 / $150 | 最強の汎用能力、極めて高コスト |
| GPT-4o | gpt-4o | 128K | $2.50 / $10 | 最高の汎用コストパフォーマンス、マルチモーダル |
| GPT-4o mini | gpt-4o-mini | 128K | $0.15 / $0.60 | 軽量かつ高速、極めて低コスト |
| o3-mini | o3-mini | 200K | $1.10 / $4.40 | 推論強化モデル、数学・科学向け |
5.2 認証セットアップ
方法1:OAuth認証
openclaw models auth login --provider openai
OpenAIのOAuthフローはAnthropicと同様で、ブラウザを開いてログインを完了し、Tokenが自動的に保存される。
方法2:API Key
openclaw models auth setup-token --provider openai
OpenAI PlatformでAPI Keyを作成する。OpenAIはKeyごとにProjectと予算上限の設定をサポートしており、エンタープライズのコスト管理に非常に有益である。
5.3 GPTシリーズの得意シナリオ
- マルチモーダルタスク:GPT-4oは画像理解に優れている。OpenClawエージェントがスクリーンショットの分析やチャートの解釈を必要とする場合、GPT-4oは優れた選択肢となる
- 高並行シナリオ:OpenAIのレート制限枠はすべてのProviderの中で最高であり、Tier 5ユーザーは10,000 RPMに達する。エンタープライズグレードの高頻度呼び出しに適している[4]
- Function Calling:GPTシリーズは構造化ツール呼び出しのサポートが最も成熟しており、精密なフォーマット出力が必要なシナリオで高い安定性を発揮する
推奨構成:gpt-4oをClaudeのプライマリFallbackとして使用する。両方のProviderが同時に問題を起こす確率は極めて低く、サービスの中断なき継続を保証する。
6. Google Geminiシリーズ——コストパフォーマンスとロングコンテキストのダークホース
GoogleのGeminiシリーズは最近OpenClawコミュニティで注目を集めている。主な理由は極めて競争力のある価格設定と超大型コンテキストウィンドウである。[5]
6.1 利用可能なモデル
| モデル名 | モデルID | コンテキストウィンドウ | 入力 / 出力(1Mトークン) | 特徴 |
|---|---|---|---|---|
| Gemini 2.5 Pro | gemini-2.5-pro | 1M | $1.25 / $10 | ロングコンテキスト王、深い推論 |
| Gemini 2.5 Flash | gemini-2.5-flash | 1M | $0.15 / $0.60 | 究極のコストパフォーマンス、高速 |
| Gemini 2.0 Flash | gemini-2.0-flash | 1M | $0.10 / $0.40 | 最低コスト、無料枠あり |
6.2 認証セットアップ
方法1:OAuth認証(最もシンプル)
openclaw models auth login --provider google
Googleアカウントでログインするだけでよい。すでにGoogle Cloudアカウントがあれば、プロセス全体は30秒もかからない。
方法2:API Key
openclaw models auth setup-token --provider google
Google AI StudioでAPI Keyを作成する。GoogleはGemini APIに寛大な無料枠を提供しており、1日あたり最大1,500回の無料APIコールが可能で、個人ユーザーには十分かもしれない。[5]
6.3 Geminiのユニークな強み
- 1Mトークンのコンテキストウィンドウ:Geminiシリーズの1,000,000トークンのコンテキストウィンドウは主要モデルの中で最大である。OpenClawエージェントが極めて長いドキュメント(コードベース全体、法的契約書、技術マニュアルなど)を処理する必要がある場合、Geminiはセグメント化せずに一度に取り込める
- 無料枠:Gemini 2.0 Flashの無料枠は初心者やライトユースシナリオに非常に魅力的で、OpenClawと組み合わせれば「ゼロコスト」AIエージェント体験が可能になる
- ネイティブマルチモーダル:Geminiは設計段階からネイティブマルチモーダルモデルとして構築されており、画像、音声、動画の深い理解能力を備えている
推奨構成:gemini-2.5-flashをFallbackリストの最後に配置する。プライマリとセカンダリのバックアップモデルが両方利用不可の場合、Gemini Flashが最小コストで基本機能を提供する。
7. DeepSeekシリーズ——コスト破壊者のオープンソースパワー
DeepSeekは中国のAIラボで、そのモデルは驚くほど低いコストと優れたオープンソースエコシステムで知られている。[6] OpenClawコミュニティでは、DeepSeekはコスト重視のバッチ処理タスクに広く使われている。
7.1 利用可能なモデル
| モデル名 | モデルID | コンテキストウィンドウ | 入力 / 出力(1Mトークン) | 特徴 |
|---|---|---|---|---|
| DeepSeek V4 | deepseek-chat | 128K | $0.27 / $1.10 | 汎用会話、極めて低コスト |
| DeepSeek R2 | deepseek-reasoner | 128K | $0.55 / $2.19 | 推論強化、思考連鎖を閲覧可能 |
7.2 認証セットアップ
DeepSeekは現在API Key認証のみをサポートしている:
openclaw models auth setup-token --provider deepseek
DeepSeek Platformで登録してAPI Keyを作成する。新規アカウントには通常、初期テストに十分な無料クレジットが含まれている。
7.3 DeepSeekの適用シナリオ
- 大量ドキュメント処理:OpenClawエージェントに数百のドキュメントをバッチ整理・分類・要約させる場合、DeepSeekの低コスト優位性は非常に大きい。Claude Sonnetでの同じタスクはDeepSeekの10倍以上のコストがかかる可能性がある
- 推論タスク:DeepSeek R2の推論能力はオープンソースモデルの中でトップクラスに位置し、特に数学計算や論理分析に適している[6]
- 予算制約のあるチーム:AIエージェントの可能性を探索するスタートアップや個人開発者にとって、DeepSeekは最もハードルの低いエントリーポイントである
注意:DeepSeekのAPIサービスはピーク時に遅延が発生することがある。単独のProviderとしてではなく、他のProviderとFallbackリストで組み合わせて使用することを推奨する。
8. ローカルモデル:Ollama統合——完全オフラインAIエージェント
データプライバシーを重視するユーザー、オフライン動作が必要なユーザー、またはAPIコストを節約したいユーザーのために、OpenClawはOllamaとの深い統合を提供している。[7]
8.1 Ollamaとは
OllamaはオープンソースのローカルLLMランタイムフレームワークで、自分のコンピュータ上で各種オープンソース大規模言語モデルを実行できる。モデルのダウンロード、量子化、GPU加速などの技術的詳細を自動的に処理し、ローカルモデルの体験をクラウドAPIに近づける。
8.2 インストールとセットアップ
ステップ1:Ollamaのインストール
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.ai/install.sh | sh
ステップ2:推奨モデルのダウンロード
# 推奨:Qwen 2.5 32B(パフォーマンスと品質のバランス)
ollama pull qwen2.5:32b
# ハイエンド:Llama 3.3 70B(64GB以上のRAMまたは強力なGPUが必要)
ollama pull llama3.3:70b
# 軽量:Qwen 2.5 Coder 7B(コード特化、低スペックハードウェアでも動作)
ollama pull qwen2.5-coder:7b
ステップ3:OpenClawでOllamaを有効にする
# Ollamaサービスが実行中であることを確認
ollama serve
# OpenClawをOllamaモデルで設定
openclaw config set agents.defaults.model.primary ollama:qwen2.5:32b
モデルIDのフォーマットに注意:ollama:プレフィックスにモデル名を続ける。OpenClawはローカルのOllamaサービスを自動検出して接続を確立する。[1]
8.3 推奨ローカルモデル
| モデル | パラメータ | 最小メモリ | 適用シナリオ | 品質評価 |
|---|---|---|---|---|
| Qwen 2.5 32B | 32B | 24 GB RAM | 汎用タスク、中国語に優れる | GPT-4o miniに近い |
| Llama 3.3 70B | 70B | 64 GB RAM | 複雑な推論、英語に優れる | GPT-4oに近い |
| Qwen 2.5 Coder 7B | 7B | 8 GB RAM | コード生成特化 | Claude Haikuに近い |
| DeepSeek Coder V2 16B | 16B | 16 GB RAM | コード + 推論 | GPT-4o miniを超える |
| Phi-4 14B | 14B | 12 GB RAM | 軽量推論、数学 | クラス最高 |
8.4 ローカルモデルの制限
- ハードウェア障壁:クラウドモデルに近い品質を達成するには、少なくとも32B以上のパラメータモデルが必要で、24GB以上のRAMまたはVRAMが求められる
- 速度の遅さ:ハイエンドGPU(NVIDIA RTX 4090やApple M3 Ultraなど)を搭載していない限り、応答速度はクラウドAPIよりも明らかに遅い
- 品質のギャップ:最大のオープンソースモデルでも、複雑な推論タスクではClaude OpusやGPT-4.5と比較して顕著なギャップが残る
推奨構成:Ollamaモデルは、Fallbackチェーンの最後の砦として使用するか、明らかにトップクラスの推論能力を必要としないシンプルなタスクのPrimaryとして使用する。
9. OpenRouter——1つのキーで全モデルにアクセス
OpenRouterはAPIアグリゲーションプラットフォームで、統一APIインターフェースを通じてClaude、GPT、Gemini、DeepSeekなど200以上のモデルにアクセスできる。
9.1 セットアップ方法
openclaw models auth setup-token --provider openrouter
OpenRouterでAPI Keyを作成して入力する。モデルIDのフォーマットはopenrouter:anthropic/claude-sonnet-4-6となる。
9.2 OpenRouterを使うべき場面
- テストのためにモデルを素早く切り替えたい場合:1つのAPI Keyで全モデルを試せるため、1つずつアカウント登録する手間が省ける
- 統一課金が必要な場合:すべてのモデルコストが1つの請求書に統合され、財務管理が簡素化される
- ニッチなモデルにアクセスしたい場合:OpenRouterにはProviderから直接アクセスしにくいモデルも多数含まれている
注意:OpenRouterは元のモデル価格に小額のサービス料が加算され、レイテンシもProvider直接接続より若干高い傾向がある。特定のモデルを長期的に使用するユーザーは、元のProviderに直接接続する方が経済的である。
10. モデルパフォーマンスベンチマーク比較
以下は各モデルの実際のOpenClaw使用シナリオにおけるパフォーマンステスト結果である。テストはコード生成、ドキュメント要約、マルチステップ推論、ブラウザ自動化指示理解の4つのコアシナリオをカバーしている。[11]
| モデル | コード生成(精度) | ドキュメント要約(品質スコア) | マルチステップ推論(成功率) | ブラウザ自動化(指示準拠率) | 平均レイテンシ |
|---|---|---|---|---|---|
| Claude Opus 4.6 | 94% | 9.2/10 | 91% | 93% | 3.8秒 |
| Claude Sonnet 4.6 | 91% | 8.8/10 | 87% | 90% | 2.1秒 |
| GPT-4o | 88% | 8.5/10 | 84% | 87% | 1.8秒 |
| GPT-4.5 Preview | 90% | 9.0/10 | 89% | 88% | 5.2秒 |
| Gemini 2.5 Pro | 87% | 8.6/10 | 86% | 85% | 2.4秒 |
| Gemini 2.5 Flash | 79% | 8.0/10 | 74% | 78% | 0.9秒 |
| DeepSeek V4 | 82% | 8.1/10 | 80% | 76% | 2.8秒 |
| DeepSeek R2 | 85% | 8.3/10 | 88% | 74% | 4.5秒 |
| Ollama Qwen 2.5 32B | 74% | 7.5/10 | 68% | 65% | 6.2秒* |
| Ollama Llama 3.3 70B | 80% | 8.0/10 | 77% | 72% | 8.1秒* |
* Ollamaのレイテンシは Apple M3 Max 128GB テスト環境に基づく。実際のレイテンシはハードウェアスペックにより大きく異なる。
10.1 テスト方法
- コード生成:LeetCode Medium/Hard問題50問、初回正答率(Pass@1)を評価
- ドキュメント要約:技術ドキュメント20件の要約を3名のレビューアが独立採点し、平均値を算出
- マルチステップ推論:3〜5ステップの推論が必要な30のタスク(旅行計画、データ分析など)、最終結果の正確性を評価
- ブラウザ自動化:OpenClawで実行されたWeb操作タスク40件、指示が正しく理解・実行されたかを評価
10.2 主要な発見
テストデータから以下の結論が導き出される:
- Claude Sonnet 4.6はコードと推論のトップピック:最も重要なエージェントシナリオで最も安定したパフォーマンスを発揮し、コストはOpusやGPT-4.5をはるかに下回る
- Gemini 2.5 Flashはコストパフォーマンスの王者:Claude Sonnetの1/20以下のコストで、日常タスクには許容可能な品質を提供する
- DeepSeek R2の推論能力は過小評価されている:マルチステップ推論タスクでClaude Sonnetに近いパフォーマンスを発揮するが、コストは1/5
- ローカルモデルは「最後の砦」として機能:品質にはまだクラウドモデルとの差があるが、オフラインおよびプライバシーシナリオでは不可欠
11. 設定実践:Primary + Fallback戦略
理論的分析が完了したので、実際の設定に移ろう。以下は3つの一般的なモデル設定戦略である。ニーズに応じて選択されたい。[8]
11.1 戦略1:品質優先
対象:ソフトウェア開発チーム、高品質コード生成が必要なシナリオ。
# Primaryの設定
openclaw config set agents.defaults.model.primary claude-sonnet-4-6
# Fallbackの設定
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro"]'
対応するopenclaw.jsonのスニペット:
{
"agents": {
"defaults": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o", "gemini-2.5-pro"]
}
}
}
}
11.2 戦略2:コスト優先
対象:個人開発者、予算制約のあるスタートアップチーム、大量ドキュメント処理。
openclaw config set agents.defaults.model.primary gemini-2.5-flash
openclaw config set agents.defaults.model.fallbacks '["deepseek-chat", "ollama:qwen2.5:32b"]'
この構成なら月額コストを$5以下に抑えられ(1日数十回の呼び出しで)、ローカルモデルのセーフティネットとの組み合わせにより、クラウドサービスがダウンしても動作を継続できる。
11.3 戦略3:エンタープライズ高可用性
対象:本番環境、24時間365日の無中断サービスが必要なエンタープライズデプロイ。
openclaw config set agents.defaults.model.primary claude-sonnet-4-6
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro", "deepseek-chat", "ollama:qwen2.5:32b"]'
4つの独立したProviderとローカルモデルをカバーする4層のFallback。2つまたは3つのクラウドサービスが同時に問題を起こしても、エージェントは動作を継続できる。これがエンタープライズクライアントデプロイに最も推奨される構成である。[12]
11.4 設定の確認
セットアップ後、以下のコマンドで確認する:
# 現在のモデル設定を表示
openclaw config get agents.defaults.model
# 設定済みのすべてのProvider接続をテスト
openclaw models status
# モデル応答のクイックテスト
openclaw agent --message "接続確認のためOKと返答してください"
12. マルチエージェント差別化モデル設定
OpenClawの高度な機能の1つは、異なるAgentに異なるモデルを割り当てる能力である。これにより、各Agentの専門分野に最適なモデルを配分し、品質とコストのバランスを取れる。[8]
12.1 シナリオ例
以下の3つのAgentがあるとする:
- Coder(コード開発):最強のコード生成能力が必要 → Claude Sonnet 4.6を使用
- Researcher(データリサーチ):大量ドキュメントの処理、ロングコンテキストが必要 → Gemini 2.5 Proを使用
- Assistant(日常ヘルパー):シンプルな会話、リマインダー、スケジューリングを処理 → コスト削減のためDeepSeek V4を使用
12.2 設定方法
{
"agents": {
"defaults": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o"]
}
},
"profiles": {
"coder": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o"]
}
},
"researcher": {
"model": {
"primary": "gemini-2.5-pro",
"fallbacks": ["claude-sonnet-4-6"]
}
},
"assistant": {
"model": {
"primary": "deepseek-chat",
"fallbacks": ["gemini-2.5-flash", "ollama:qwen2.5:32b"]
}
}
}
}
}
agents.profilesを通じて、各名前付きAgentのデフォルトモデル設定をオーバーライドできる。特定のAgentの設定が存在しない場合、自動的にagents.defaults設定を継承する。[1]
12.3 CLIでの設定
# coder Agent用の専用モデルを設定
openclaw config set agents.profiles.coder.model.primary claude-sonnet-4-6
# researcher Agent用の専用モデルを設定
openclaw config set agents.profiles.researcher.model.primary gemini-2.5-pro
# assistant Agentに低コストモデルを設定
openclaw config set agents.profiles.assistant.model.primary deepseek-chat
13. コスト管理戦略
AI APIのコストは急速に蓄積される。以下は実践で検証されたコスト管理戦略である。
13.1 トークンバジェット設定
OpenClawは設定ファイルでAgentごとのToken制限をサポートしている:[8]
openclaw config set agents.defaults.maxTokensPerTask 8000
openclaw config set agents.defaults.maxTokensPerDay 100000
タスクごとまたは1日の使用量制限に達すると、エージェントは実行を停止して通知する。予想外の請求急増を防止する。
13.2 モデルの段階的使用
すべてのタスクに最も強力なモデルが必要なわけではない。実践的な戦略は以下の通り:
- シンプルなタスク(リマインダー、フォーマット変換、固定テンプレート):GPT-4o miniまたはGemini 2.5 Flashを使用、約$0.15/1Mトークン
- 中程度のタスク(ドキュメント要約、メール作成、データ整理):DeepSeek V4またはGemini 2.5 Flashを使用、約$0.15〜$0.27/1Mトークン
- 複雑なタスク(コード生成、マルチステップ推論、バグデバッグ):Claude Sonnet 4.6またはGPT-4oを使用、約$2.5〜$3/1Mトークン
- クリティカルなタスク(アーキテクチャ設計、セキュリティ監査、複雑な分析):Claude Opus 4.6を使用、約$15/1Mトークン
13.3 無料枠の活用
以下のProviderが無料使用枠を提供している:
- Google Gemini:1日あたり最大1,500回の無料APIコール(Gemini 2.0 Flash)[5]
- DeepSeek:新規アカウントに無料クレジット(金額は時期により変動、通常約$5〜10)
- Ollama(ローカル):完全無料、ハードウェアコストのみ
- OpenRouter:一部モデルに無料枠あり
ライトユーザーの場合、Geminiの無料枠 + Ollamaローカルモデルの組み合わせにより、完全にゼロコストのOpenClaw体験が可能かもしれない。
13.4 コスト見積もり例
| 使用シナリオ | 1日のトークン使用量(推定) | 推奨モデル | 推定月額コスト |
|---|---|---|---|
| 個人ライトユース | 約50Kトークン | Gemini 2.5 Flash | $0 〜 $2 |
| 個人開発者 | 約300Kトークン | Claude Sonnet 4.6 | $15 〜 $30 |
| 小規模チーム(3〜5人) | 約1Mトークン | Claude Sonnet + DeepSeekハイブリッド | $30 〜 $60 |
| エンタープライズデプロイ | 約10Mトークン | マルチモデルFallback戦略 | $150 〜 $400 |
14. OAuth vs API Key:どちらを選ぶべきか?
これはOpenClawユーザーから最も頻繁に寄せられる質問の1つである。両方の認証方式にはそれぞれ長所と短所があり、選択はユースケースに依存する。[2]
| 比較項目 | OAuth認証 | API Key |
|---|---|---|
| セットアップ難易度 | 極めてシンプル——ワンクリックブラウザ認証 | 中程度——Providerバックエンドにログインして作成 |
| Token管理 | 自動更新、手動メンテナンス不要 | 永久有効(手動で取り消さない限り) |
| レート制限 | 通常低め(共有OAuth枠) | 通常高め(独立枠、プランでアップグレード可能) |
| 課金管理 | 個人アカウントに紐づき、課金の透明性が低い | 専用Keyに予算上限を設定可能 |
| マルチデバイス使用 | 各デバイスで個別認証が必要 | 同一Keyを複数デバイスで使用可能 |
| セキュリティ | 短命Token、漏洩リスクが低い | 長命、慎重な管理が必要 |
| チームコラボレーション | 不向き——個人アカウントに紐づく | 適している——組織アカウントとプロジェクトKeyが使用可能 |
14.1 推奨アプローチ
- 個人ユーザー、初心者:OAuthを使用する。最速のセットアップで、数分で稼働開始できる。より精細な使用量管理が必要になったらAPI Keyに切り替える
- エンタープライズユーザー、チームデプロイ:API Keyを使用する。組織アカウントへの紐づけ、予算アラートの設定、プロジェクトごとの使用量追跡が可能で、異なる環境(dev/test/prod)に異なるKeyを使用できる
- ハイブリッド使用:プライマリProviderにはAPI Key(精密管理)、たまに使うバックアップProviderにはOAuth(クイックセットアップ)を設定する
14.2 認証方式の切り替え
OAuthを使用していたがAPI Keyに切り替えたい場合:
# 既存の認証を削除して再設定
openclaw models auth setup-token --provider anthropic
逆も同様で、まずAPI Keyを取り消してからauth loginでOAuth認証を行う。[9]
15. よくある質問とトラブルシューティング
以下はOpenClawモデル設定時に最もよく遭遇する問題とその解決策をまとめたものである。
15.1 認証エラー
症状:Error: Authentication failed for provider anthropic
解決手順:
# 1. モデルステータスを確認
openclaw models status
# 2. 期限切れの場合は再認証
openclaw models auth login --provider anthropic
# 3. API Keyを使用している場合、Keyが有効か確認
openclaw models auth setup-token --provider anthropic
# 4. 完全な診断を実行
openclaw doctor
15.2 レート制限
症状:Error: Rate limit exceeded (429)
解決策:
- APIプランのティアを確認する。必要に応じてアップグレードしてより高い枠を取得する[4]
- Fallbackモデルを設定する。プライマリモデルがレート制限を受けると自動的に別のProviderに切り替わる
- タスクごとのToken制限を下げる:
openclaw config set agents.defaults.maxTokensPerTask 4000 - API Keyモードでは、一部のProviderがより高いレート制限のリクエストをサポートしている
15.3 モデル切替が反映されない
症状:openclaw config setを実行した後も、エージェントが古いモデルを使い続ける。
解決策:
# 1. 設定が保存されたことを確認
openclaw config get agents.defaults.model
# 2. Gatewayを再起動して設定を反映
openclaw gateway restart
# 3. それでも動かない場合、Agent Profileがデフォルトを上書きしていないか確認
openclaw config get agents.profiles
15.4 Ollama接続失敗
症状:Error: Cannot connect to Ollama at 127.0.0.1:11434
解決策:
# 1. Ollamaサービスが実行中であることを確認
ollama serve
# 2. モデルがダウンロード済みであることを確認
ollama list
# 3. カスタムポートを使用している場合、OpenClawのOllama接続アドレスを設定
openclaw config set providers.ollama.baseUrl "http://127.0.0.1:11434"
15.5 Fallbackが自動トリガーされない
症状:Primaryモデル障害後、Fallbackに切り替わらず直接エラーがスローされる。
解決策:
- Fallbackモデルの認証が完了していることを確認する:
openclaw models status - Fallbackモデル名のスペルが正しいことを確認する。
openclaw models listで利用可能なすべてのモデルを表示[9] - Fallbackリストが有効なJSON配列フォーマットであることを確認する
15.6 予想外に高いコスト
症状:API請求額が予想を大幅に上回る。
解決策:
- 1日のToken制限を設定する:
openclaw config set agents.defaults.maxTokensPerDay 100000 - 大量のTokenを消費するループタスクがないか確認する
- Providerバックエンドで課金アラートを設定する(Anthropic、OpenAI、Googleすべてサポート)
- クリティカルでないタスクにはより低コストのモデルへの切り替えを検討する
16. 結論:モデル選択推奨マトリックス
モデル選択に「唯一の正解」はない。最適な構成は予算、ユースケース、信頼性要件に依存する。以下はユーザータイプ別の推奨マトリックスである:
| ユーザータイプ | Primaryモデル | Fallbackモデル | 推定月額予算 | 核心的考慮事項 |
|---|---|---|---|---|
| 初心者 / 探索者 | Gemini 2.5 Flash | Ollama Qwen 2.5 | $0 〜 $5 | ゼロコストエントリー |
| 個人開発者 | Claude Sonnet 4.6 | GPT-4o、Gemini Flash | $15 〜 $40 | コード品質優先 |
| データアナリスト | Gemini 2.5 Pro | Claude Sonnet、DeepSeek | $10 〜 $30 | ロングコンテキスト処理 |
| スタートアップチーム | DeepSeek V4 | Claude Sonnet、Gemini Flash | $20 〜 $50 | コスト重視 |
| エンタープライズIT | Claude Sonnet 4.6 | GPT-4o、Gemini Pro、DeepSeek、Ollama | $100 〜 $500 | 高可用性、コンプライアンス |
| 高セキュリティ要件 | Ollama Llama 3.3 70B | Ollama Qwen 2.5 32B | ハードウェアコスト | 完全オフライン、データは社内に |
最終的な推奨事項
OpenClawモデルを初めて設定する場合、アドバイスはシンプルである:
- まずOAuthでAnthropic Claude Sonnet 4.6をPrimaryとしてセットアップする——現時点で最良のオールラウンドな選択肢である[3]
- 次にOAuthでGoogle Gemini 2.5 FlashをFallbackとしてセットアップする——無料または極めて低コストのバックアップオプション[5]
- 数日間運用してから実際の使用状況に基づいて調整を判断する——API Keyへの切り替え、Fallbackの追加、異なるAgent向けの専用モデル設定など
OpenClawのモデル管理システムは十分に柔軟に設計されており、エージェントシステム全体を再デプロイすることなくいつでも戦略を調整できる。[12] Primary + Fallbackメカニズムをマスターし、異なるAgentモデルを合理的に配分し、Tokenバジェット管理と組み合わせる——この3つの側面を適切に行えば、品質、コスト、信頼性の間で自分のニーズに最適なバランスを見つけられるだろう。
OpenClawのより詳細な設定チュートリアルが必要な場合は、シリーズ記事をお読みいただきたい:OpenClaw設定完全ガイドではopenclaw.jsonの全構造を網羅し、OpenClawアーキテクチャ徹底解析&完全デプロイガイドではゼロからの完全なインストール・デプロイプロセスを解説している。



