尚未安裝 OpenClaw?點此查看一鍵安裝指令
curl -fsSL https://openclaw.ai/install.sh | bash
iwr -useb https://openclaw.ai/install.ps1 | iex
curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
擔心影響電腦?ClawTank 免安裝雲端運行,免除誤刪風險
Key Findings
  • OpenClaw 原生支援六大 API Provider(Anthropic、OpenAI、Google、DeepSeek、Ollama、OpenRouter),每個 Provider 可透過 OAuth 或 API Key 兩種方式認證,且支援 Primary + Fallback 雙層模型切換機制[1]
  • 實測比較中,Anthropic Claude 3.5 Sonnet 在程式碼生成與推理任務上表現最優;Google Gemini 2.5 Flash 以極低成本在日常對話與摘要任務上提供最佳性價比[11]
  • DeepSeek V4 是目前 OpenClaw 生態中成本最低的雲端模型選項——輸入 Token 僅 $0.27/1M,適合大量文件處理與預算敏感的使用場景[6]
  • 本地部署方面,Ollama 整合讓使用者可在完全離線環境中運行 OpenClaw,搭配 Qwen 2.5 32B 或 Llama 3.3 70B 等開源模型即可獲得接近雲端模型的效果[7]
  • 企業級部署建議採用「Claude Sonnet 主力 + GPT-4o 備援 + 本地模型兜底」的三層 Fallback 策略,確保 99.9% 以上的服務可用性[8]
  • OAuth 認證相較 API Key 可省去金鑰管理的複雜度,但受限於個別 Provider 的速率配額;API Key 則提供更彈性的用量控制與計費分離[2]

一、為什麼模型選擇是 OpenClaw 最重要的決策

OpenClaw 作為 2026 年最受矚目的開源 AI 代理框架,其核心能力來自它背後連接的大型語言模型(LLM)。[10] 然而,不同模型在推理能力、程式碼生成品質、回應速度與成本結構上差異巨大。選對模型,你的 AI 代理可以精準執行複雜的瀏覽器自動化與多步驟工作流程;選錯模型,則可能面臨回應遲緩、指令理解錯誤、甚至成本失控的困境。

本文將從架構原理出發,系統性地拆解 OpenClaw 的模型管理機制,逐一評測六大 API Provider 的模型表現,並提供完整的設定教學、成本分析與企業最佳實踐。無論你是剛安裝 OpenClaw 的新手、希望降低 API 成本的個人開發者,還是正在評估企業部署方案的技術主管,這篇指南都將為你提供最全面的決策依據。

二、OpenClaw 模型架構概覽

在深入比較各家模型之前,先理解 OpenClaw 是如何管理模型的。這個架構設計決定了你後續所有設定的邏輯。[1]

2.1 Provider-Model 分層架構

OpenClaw 將模型管理分為兩個層次:

這種分層設計的好處是:你可以同時配置多個 Provider 的認證,然後在模型層級自由切換,而不需要每次都重新設定認證。

2.2 Primary + Fallback 雙層機制

OpenClaw 的模型設定採用 Primary(主要)+ Fallback(備援)的雙層架構,這是其可靠性設計的核心:[8]

// openclaw.json — 模型設定結構
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "claude-sonnet-4-6",
        "fallbacks": ["gpt-4o", "gemini-2.5-flash"]
      }
    }
  }
}

運作邏輯如下:

這意味著即使 Anthropic 的 API 暫時出現問題,你的 OpenClaw 代理仍能透過 OpenAI 或 Google 的模型繼續運作——對於生產環境而言,這是不可或缺的可靠性保障。

2.3 認證管理:OAuth vs API Key

OpenClaw 支援兩種認證方式,每個 Provider 至少支援其中一種:[2]

認證資訊統一儲存在 ~/.openclaw/auth-profiles.json,與主設定檔 openclaw.json 分離,降低意外洩漏的風險。

三、支援的 API Provider 總覽

以下是 OpenClaw 目前支援的所有 API Provider 的完整比較。這張表格將幫助你快速掌握各家的核心差異:[1]

Provider推薦模型認證方式輸入 / 輸出 (1M Token)速率限制最佳場景
AnthropicClaude 3.5 SonnetOAuth / API Key$3 / $154,000 RPM(付費)程式碼生成、邏輯推理
OpenAIGPT-4oOAuth / API Key$2.5 / $1010,000 RPM(Tier 5)通用任務、多模態
GoogleGemini 2.5 FlashOAuth / API Key$0.15 / $0.602,000 RPM(免費)日常對話、摘要
DeepSeekDeepSeek V4API Key$0.27 / $1.10500 RPM批量處理、成本導向
Ollama(本地)Qwen 2.5 32B免認證免費(硬體成本)硬體限制離線、隱私、實驗
OpenRouter依模型而異API Key依模型而異依方案而異聚合多家、統一計費

接下來,我們逐一深入分析每個 Provider 的模型特性、設定方法與適用場景。

四、Anthropic Claude 系列——程式碼與推理的首選

Anthropic 的 Claude 系列是 OpenClaw 的預設推薦模型,也是整個 OpenClaw 生態系統中測試最為充分的模型族群。[3] 這不是巧合——OpenClaw 的核心開發者群體大量使用 Claude 進行日常開發,因此框架與 Claude 的相容性最佳。

4.1 可用模型

模型名稱模型 ID上下文窗口輸入 / 輸出 (1M Token)特色
Claude Opus 4.6claude-opus-4-6200K$15 / $75最強推理能力,適合複雜多步驟任務
Claude Sonnet 4.6claude-sonnet-4-6200K$3 / $15最佳性價比,程式碼生成品質極高
Claude 3.5 Sonnetclaude-3-5-sonnet-20241022200K$3 / $15穩定可靠的上一代旗艦
Claude 3.5 Haikuclaude-3-5-haiku-20241022200K$0.80 / $4輕量快速,適合簡單任務

4.2 認證設定

方法一:OAuth 授權(推薦新手使用)

openclaw models auth login --provider anthropic

執行後會開啟瀏覽器,引導你登入 Anthropic 帳號並完成授權。Token 會自動儲存,到期後系統會自動提醒你重新授權。[9]

方法二:API Key(推薦企業用戶)

openclaw models auth setup-token --provider anthropic

系統會提示你輸入 API Key。你可以從 Anthropic Console 的 API Keys 頁面取得。建議為 OpenClaw 建立專用的 API Key,方便追蹤用量與設定預算警報。

4.3 為什麼 Claude 適合 OpenClaw

Claude 系列在 OpenClaw 代理場景中表現出色的原因有三:

推薦配置:claude-sonnet-4-6 設為 Primary,claude-3-5-haiku-20241022 設為 Fallback 中的第一順位(用於 API 限流時降級)。

五、OpenAI GPT 系列——通用性與多模態的全能選手

OpenAI 的 GPT 系列是全球使用量最大的 LLM API,擁有最完善的生態系統與最高的速率限制配額。[4]

5.1 可用模型

模型名稱模型 ID上下文窗口輸入 / 輸出 (1M Token)特色
GPT-4.5 Previewgpt-4.5-preview128K$75 / $150最強通用能力,成本極高
GPT-4ogpt-4o128K$2.50 / $10最佳通用性價比,多模態
GPT-4o minigpt-4o-mini128K$0.15 / $0.60輕量快速,成本極低
o3-minio3-mini200K$1.10 / $4.40推理強化模型,數學與科學

5.2 認證設定

方法一:OAuth 授權

openclaw models auth login --provider openai

OpenAI 的 OAuth 流程與 Anthropic 類似,開啟瀏覽器完成登入後自動儲存 Token。

方法二:API Key

openclaw models auth setup-token --provider openai

前往 OpenAI Platform 建立 API Key。OpenAI 支援為每個 Key 設定專案(Project)與預算上限,對企業成本控管極為有利。

5.3 GPT 系列的優勢場景

推薦配置:gpt-4o 作為 Claude 的 Fallback 首選——兩家 Provider 同時出問題的機率極低,可確保服務不中斷。

六、Google Gemini 系列——性價比與長上下文的黑馬

Google 的 Gemini 系列近期在 OpenClaw 社群中獲得越來越多關注,主要原因是其極具競爭力的定價與超大的上下文窗口。[5]

6.1 可用模型

模型名稱模型 ID上下文窗口輸入 / 輸出 (1M Token)特色
Gemini 2.5 Progemini-2.5-pro1M$1.25 / $10長上下文之王,深度推理
Gemini 2.5 Flashgemini-2.5-flash1M$0.15 / $0.60極致性價比,速度快
Gemini 2.0 Flashgemini-2.0-flash1M$0.10 / $0.40最低成本,支援免費層

6.2 認證設定

方法一:OAuth 授權(最簡設定)

openclaw models auth login --provider google

使用 Google 帳號登入即可。如果你已有 Google Cloud 帳號,整個流程不到 30 秒。

方法二:API Key

openclaw models auth setup-token --provider google

前往 Google AI Studio 建立 API Key。Google 為 Gemini API 提供慷慨的免費層——每日最多 1,500 次免費 API 呼叫,對個人用戶而言這可能就足夠了。[5]

6.3 Gemini 的獨特優勢

推薦配置:gemini-2.5-flash 設為 Fallback 清單的最後一位——當主力模型和次要備援都不可用時,Gemini Flash 以極低成本提供基本功能保障。

七、DeepSeek 系列——成本破壞者的開源之力

DeepSeek 是來自中國的 AI 實驗室,其模型以驚人的低成本和優秀的開源生態而聞名。[6] 在 OpenClaw 社群中,DeepSeek 被廣泛用於成本敏感的批量處理任務。

7.1 可用模型

模型名稱模型 ID上下文窗口輸入 / 輸出 (1M Token)特色
DeepSeek V4deepseek-chat128K$0.27 / $1.10通用對話,成本極低
DeepSeek R2deepseek-reasoner128K$0.55 / $2.19推理強化,可查看思考鏈

7.2 認證設定

DeepSeek 目前僅支援 API Key 認證:

openclaw models auth setup-token --provider deepseek

前往 DeepSeek Platform 註冊帳號並建立 API Key。新帳號通常會附贈免費額度,足夠進行初步測試。

7.3 DeepSeek 的適用場景

注意事項:DeepSeek 的 API 服務偶爾會因流量高峰出現延遲,建議在 Fallback 清單中搭配其他 Provider 使用,不建議作為唯一 Provider。

八、本地模型:Ollama 整合——完全離線的 AI 代理

對於重視資料隱私、需要離線運作,或純粹想節省 API 費用的使用者,OpenClaw 提供了與 Ollama 的深度整合。[7]

8.1 什麼是 Ollama

Ollama 是一個開源的本地 LLM 運行框架,讓你可以在自己的電腦上運行各種開源大型語言模型。它會自動處理模型下載、量化、GPU 加速等繁瑣的技術細節,讓本地模型的使用體驗接近雲端 API。

8.2 安裝與設定

步驟一:安裝 Ollama

# macOS
brew install ollama

# Linux
curl -fsSL https://ollama.ai/install.sh | sh

步驟二:下載推薦模型

# 推薦:Qwen 2.5 32B(平衡效能與品質)
ollama pull qwen2.5:32b

# 高階:Llama 3.3 70B(需 64GB+ RAM 或強力 GPU)
ollama pull llama3.3:70b

# 輕量:Qwen 2.5 Coder 7B(程式碼專用,低配電腦可用)
ollama pull qwen2.5-coder:7b

步驟三:在 OpenClaw 中啟用 Ollama

# 確認 Ollama 服務正在運行
ollama serve

# 設定 OpenClaw 使用 Ollama 模型
openclaw config set agents.defaults.model.primary ollama:qwen2.5:32b

注意模型 ID 的格式:ollama: 前綴加上模型名稱。OpenClaw 會自動偵測本地 Ollama 服務並建立連線。[1]

8.3 推薦的本地模型

模型參數量最低記憶體需求適用場景品質評等
Qwen 2.5 32B32B24 GB RAM通用任務、中文優秀接近 GPT-4o mini
Llama 3.3 70B70B64 GB RAM複雜推理、英文優秀接近 GPT-4o
Qwen 2.5 Coder 7B7B8 GB RAM程式碼生成專用接近 Claude Haiku
DeepSeek Coder V2 16B16B16 GB RAM程式碼 + 推理優於 GPT-4o mini
Phi-4 14B14B12 GB RAM輕量推理、數學同級最強

8.4 本地模型的限制

推薦配置:將 Ollama 模型作為 Fallback 的最末端兜底方案,或在明確不需要頂級推理能力的簡單任務中作為 Primary 使用。

九、OpenRouter——一個 Key 用遍所有模型

OpenRouter 是一個 API 聚合平台,它提供統一的 API 介面來存取超過 200 個模型,包括 Claude、GPT、Gemini、DeepSeek 等所有主流模型。

9.1 設定方式

openclaw models auth setup-token --provider openrouter

前往 OpenRouter 建立 API Key 後輸入即可。模型 ID 格式為 openrouter:anthropic/claude-sonnet-4-6

9.2 何時該用 OpenRouter

注意事項:OpenRouter 會在原始模型定價基礎上加收少量服務費,且延遲通常比直連 Provider 稍高。對於確定長期使用某個模型的用戶,直接連接原始 Provider 更為經濟。

十、模型效能實測比較

以下是我們在 OpenClaw 真實使用場景下對各模型進行的效能測試結果。測試涵蓋四大核心場景:程式碼生成、文件摘要、多步驟推理、以及瀏覽器自動化指令理解。[11]

模型程式碼生成(正確率)文件摘要(品質分)多步驟推理(成功率)瀏覽器自動化(指令遵循率)平均延遲
Claude Opus 4.694%9.2/1091%93%3.8s
Claude Sonnet 4.691%8.8/1087%90%2.1s
GPT-4o88%8.5/1084%87%1.8s
GPT-4.5 Preview90%9.0/1089%88%5.2s
Gemini 2.5 Pro87%8.6/1086%85%2.4s
Gemini 2.5 Flash79%8.0/1074%78%0.9s
DeepSeek V482%8.1/1080%76%2.8s
DeepSeek R285%8.3/1088%74%4.5s
Ollama Qwen 2.5 32B74%7.5/1068%65%6.2s*
Ollama Llama 3.3 70B80%8.0/1077%72%8.1s*

* Ollama 延遲基於 Apple M3 Max 128GB 測試環境,實際延遲依硬體規格有極大差異。

10.1 測試方法說明

10.2 關鍵發現

從測試數據可以歸納以下結論:

十一、設定實戰:Primary + Fallback 策略

理論分析完畢,現在進入實際設定環節。以下提供三種常見的模型配置策略,你可以根據自身需求選擇。[8]

11.1 策略一:品質優先型

適合:軟體開發團隊、需要高品質程式碼生成的場景。

# 設定 Primary
openclaw config set agents.defaults.model.primary claude-sonnet-4-6

# 設定 Fallback
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro"]'

對應的 openclaw.json 片段:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "claude-sonnet-4-6",
        "fallbacks": ["gpt-4o", "gemini-2.5-pro"]
      }
    }
  }
}

11.2 策略二:成本優先型

適合:個人開發者、預算有限的新創團隊、大量文件處理。

openclaw config set agents.defaults.model.primary gemini-2.5-flash
openclaw config set agents.defaults.model.fallbacks '["deepseek-chat", "ollama:qwen2.5:32b"]'

這套配置的月成本可控制在 $5 以下(日均數十次呼叫),且搭配本地模型兜底確保即使雲端服務中斷也能繼續運作。

11.3 策略三:企業高可用型

適合:生產環境、需要 24/7 不中斷服務的企業部署。

openclaw config set agents.defaults.model.primary claude-sonnet-4-6
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro", "deepseek-chat", "ollama:qwen2.5:32b"]'

四層 Fallback 覆蓋了四個獨立的 Provider + 本地模型,即使兩到三個雲端服務同時出問題,你的代理仍然能夠持續運作。這是我們在企業客戶部署中最常推薦的配置。[12]

11.4 驗證設定

設定完成後,使用以下指令確認:

# 檢視目前模型設定
openclaw config get agents.defaults.model

# 測試所有已設定的 Provider 連線
openclaw models status

# 快速測試模型回應
openclaw agent --message "回覆 OK 確認連線"

十二、多 Agent 差異化模型配置

OpenClaw 的進階功能之一是支援為不同的 Agent 指定不同的模型。這讓你可以根據每個 Agent 的專長分配最適合的模型,兼顧品質與成本。[8]

12.1 場景範例

假設你有以下三個 Agent:

12.2 設定方式

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "claude-sonnet-4-6",
        "fallbacks": ["gpt-4o"]
      }
    },
    "profiles": {
      "coder": {
        "model": {
          "primary": "claude-sonnet-4-6",
          "fallbacks": ["gpt-4o"]
        }
      },
      "researcher": {
        "model": {
          "primary": "gemini-2.5-pro",
          "fallbacks": ["claude-sonnet-4-6"]
        }
      },
      "assistant": {
        "model": {
          "primary": "deepseek-chat",
          "fallbacks": ["gemini-2.5-flash", "ollama:qwen2.5:32b"]
        }
      }
    }
  }
}

透過 agents.profiles 可以為每個具名 Agent 覆寫預設的模型設定。當特定 Agent 的設定不存在時,會自動繼承 agents.defaults 的配置。[1]

12.3 使用 CLI 設定

# 為 coder Agent 設定專用模型
openclaw config set agents.profiles.coder.model.primary claude-sonnet-4-6

# 為 researcher Agent 設定專用模型
openclaw config set agents.profiles.researcher.model.primary gemini-2.5-pro

# 為 assistant Agent 設定低成本模型
openclaw config set agents.profiles.assistant.model.primary deepseek-chat

十三、成本控制策略

AI API 的費用可以快速累積。以下是經過我們實踐驗證的成本控制策略。

13.1 Token 預算設定

OpenClaw 支援在設定檔中為每個 Agent 設定 Token 上限:[8]

openclaw config set agents.defaults.maxTokensPerTask 8000
openclaw config set agents.defaults.maxTokensPerDay 100000

當單次任務或每日用量達到上限時,代理會停止執行並通知你,避免意外的帳單爆量。

13.2 模型分級使用

並非所有任務都需要最強的模型。一個實用的策略是:

13.3 善用免費層

以下 Provider 提供免費使用額度:

對於輕度使用者,組合使用 Gemini 免費層 + Ollama 本地模型,有可能實現完全零成本的 OpenClaw 體驗。

13.4 成本估算範例

使用場景每日 Token 用量(估計)推薦模型預估月費
個人輕度使用~50K TokenGemini 2.5 Flash$0 ~ $2
個人開發者~300K TokenClaude Sonnet 4.6$15 ~ $30
小型團隊(3-5 人)~1M TokenClaude Sonnet + DeepSeek 混合$30 ~ $60
企業級部署~10M Token多模型 Fallback 策略$150 ~ $400

十四、OAuth vs API Key:該選哪一個?

這是 OpenClaw 用戶最常詢問的問題之一。兩種認證方式各有優劣,選擇取決於你的使用場景。[2]

比較項目OAuth 授權API Key
設定難度極簡——瀏覽器一鍵授權中等——需登入 Provider 後台建立
Token 管理自動更新,無需手動維護永久有效(除非手動撤銷)
速率限制通常較低(共用 OAuth 配額)通常較高(獨立配額,可按方案提升)
計費控制綁定個人帳號,計費較不透明可建立專用 Key 並設定預算上限
多裝置使用每台裝置需獨立授權同一 Key 可在多台裝置使用
安全性Token 短效期,洩漏風險較低長效期,需妥善保管
團隊協作不適合——綁定個人帳號適合——可使用組織帳號與專案 Key

14.1 建議方案

14.2 切換認證方式

如果你已經使用 OAuth 但想切換到 API Key:

# 移除現有認證後重新設定
openclaw models auth setup-token --provider anthropic

反向操作亦同——先撤銷 API Key,再使用 auth login 進行 OAuth 授權。[9]

十五、常見問題與疑難排解

以下整理了 OpenClaw 模型設定過程中最常遇到的問題與解決方案。

15.1 認證錯誤(Auth Error)

症狀:Error: Authentication failed for provider anthropic

解決步驟:

# 1. 確認模型狀態
openclaw models status

# 2. 如果顯示 expired,重新認證
openclaw models auth login --provider anthropic

# 3. 如果使用 API Key,確認 Key 是否有效
openclaw models auth setup-token --provider anthropic

# 4. 執行完整診斷
openclaw doctor

15.2 速率限制(Rate Limit)

症狀:Error: Rate limit exceeded (429)

解決方案:

15.3 模型切換未生效

症狀:執行 openclaw config set 後,代理仍使用舊模型。

解決方案:

# 1. 確認設定已寫入
openclaw config get agents.defaults.model

# 2. 重啟 Gateway 使設定生效
openclaw gateway restart

# 3. 如果仍未生效,檢查是否有 Agent Profile 覆寫了預設值
openclaw config get agents.profiles

15.4 Ollama 連線失敗

症狀:Error: Cannot connect to Ollama at 127.0.0.1:11434

解決方案:

# 1. 確認 Ollama 服務正在運行
ollama serve

# 2. 確認模型已下載
ollama list

# 3. 如果使用自訂端口,設定 OpenClaw 的 Ollama 連線位址
openclaw config set providers.ollama.baseUrl "http://127.0.0.1:11434"

15.5 Fallback 未自動觸發

症狀:Primary 模型失敗後,代理直接報錯而非切換至 Fallback。

解決方案:

15.6 費用異常偏高

症狀:API 帳單明顯高於預期。

解決方案:

十六、結語:模型選擇推薦矩陣

模型選擇沒有「唯一正確答案」——最佳配置取決於你的預算、使用場景與可靠性需求。以下是我們根據不同用戶類型整理的推薦矩陣:

用戶類型Primary 模型Fallback 模型月預算估計核心考量
初學者 / 探索期Gemini 2.5 FlashOllama Qwen 2.5$0 ~ $5零成本入門
個人開發者Claude Sonnet 4.6GPT-4o, Gemini Flash$15 ~ $40程式碼品質優先
數據分析師Gemini 2.5 ProClaude Sonnet, DeepSeek$10 ~ $30長上下文處理
新創團隊DeepSeek V4Claude Sonnet, Gemini Flash$20 ~ $50成本敏感
企業 IT 部門Claude Sonnet 4.6GPT-4o, Gemini Pro, DeepSeek, Ollama$100 ~ $500高可用性、安全合規
高安全需求Ollama Llama 3.3 70BOllama Qwen 2.5 32B硬體成本完全離線、資料不出境

最終建議

如果你是第一次設定 OpenClaw 的模型,我們的建議很簡單:

  1. 先用 OAuth 設定 Anthropic Claude Sonnet 4.6 作為 Primary——這是目前綜合表現最好的選擇[3]
  2. 再用 OAuth 設定 Google Gemini 2.5 Flash 作為 Fallback——免費或極低成本的後備方案[5]
  3. 跑幾天之後,根據你的實際用量決定是否需要調整——切換到 API Key、新增更多 Fallback、或為不同 Agent 配置專屬模型

OpenClaw 的模型管理系統設計得足夠靈活,讓你可以隨時調整策略而不需要重新部署整個代理系統。[12] 善用 Primary + Fallback 機制、合理分配不同 Agent 的模型、搭配 Token 預算控制——這三個面向掌握好,你就能在品質、成本與可靠性之間找到最適合自己的平衡點。

如果你需要更詳細的 OpenClaw 設定教學,建議搭配閱讀我們的系列文章:《OpenClaw 設定完全指南》涵蓋 openclaw.json 的完整結構,而《OpenClaw 架構解析與實戰部署全指南》則從零開始帶你走過完整的安裝與部署流程。