尚未安裝 OpenClaw?點此查看一鍵安裝指令
curl -fsSL https://openclaw.ai/install.sh | bashiwr -useb https://openclaw.ai/install.ps1 | iexcurl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd- OpenClaw 原生支援六大 API Provider(Anthropic、OpenAI、Google、DeepSeek、Ollama、OpenRouter),每個 Provider 可透過 OAuth 或 API Key 兩種方式認證,且支援 Primary + Fallback 雙層模型切換機制[1]
- 實測比較中,Anthropic Claude 3.5 Sonnet 在程式碼生成與推理任務上表現最優;Google Gemini 2.5 Flash 以極低成本在日常對話與摘要任務上提供最佳性價比[11]
- DeepSeek V4 是目前 OpenClaw 生態中成本最低的雲端模型選項——輸入 Token 僅 $0.27/1M,適合大量文件處理與預算敏感的使用場景[6]
- 本地部署方面,Ollama 整合讓使用者可在完全離線環境中運行 OpenClaw,搭配 Qwen 2.5 32B 或 Llama 3.3 70B 等開源模型即可獲得接近雲端模型的效果[7]
- 企業級部署建議採用「Claude Sonnet 主力 + GPT-4o 備援 + 本地模型兜底」的三層 Fallback 策略,確保 99.9% 以上的服務可用性[8]
- OAuth 認證相較 API Key 可省去金鑰管理的複雜度,但受限於個別 Provider 的速率配額;API Key 則提供更彈性的用量控制與計費分離[2]
一、為什麼模型選擇是 OpenClaw 最重要的決策
OpenClaw 作為 2026 年最受矚目的開源 AI 代理框架,其核心能力來自它背後連接的大型語言模型(LLM)。[10] 然而,不同模型在推理能力、程式碼生成品質、回應速度與成本結構上差異巨大。選對模型,你的 AI 代理可以精準執行複雜的瀏覽器自動化與多步驟工作流程;選錯模型,則可能面臨回應遲緩、指令理解錯誤、甚至成本失控的困境。
本文將從架構原理出發,系統性地拆解 OpenClaw 的模型管理機制,逐一評測六大 API Provider 的模型表現,並提供完整的設定教學、成本分析與企業最佳實踐。無論你是剛安裝 OpenClaw 的新手、希望降低 API 成本的個人開發者,還是正在評估企業部署方案的技術主管,這篇指南都將為你提供最全面的決策依據。
二、OpenClaw 模型架構概覽
在深入比較各家模型之前,先理解 OpenClaw 是如何管理模型的。這個架構設計決定了你後續所有設定的邏輯。[1]
2.1 Provider-Model 分層架構
OpenClaw 將模型管理分為兩個層次:
- Provider(供應商):指提供 AI 模型 API 的服務商——Anthropic、OpenAI、Google、DeepSeek、Ollama(本地)、OpenRouter(聚合)。每個 Provider 有自己的認證方式與計費模式
- Model(模型):指 Provider 底下的具體模型版本——例如 Anthropic 下的
claude-opus-4-6、claude-sonnet-4-6;OpenAI 下的gpt-4o、gpt-4.5-preview
這種分層設計的好處是:你可以同時配置多個 Provider 的認證,然後在模型層級自由切換,而不需要每次都重新設定認證。
2.2 Primary + Fallback 雙層機制
OpenClaw 的模型設定採用 Primary(主要)+ Fallback(備援)的雙層架構,這是其可靠性設計的核心:[8]
// openclaw.json — 模型設定結構
{
"agents": {
"defaults": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o", "gemini-2.5-flash"]
}
}
}
}
運作邏輯如下:
- 每次代理執行任務時,首先嘗試使用 Primary 模型
- 若 Primary 模型不可用(API 限流、服務中斷、認證過期),系統依序嘗試 Fallback 清單中的模型
- 第一個成功回應的模型會被用於該次任務
- 每次新任務仍會優先嘗試 Primary 模型(不會「黏著」在 Fallback 上)
這意味著即使 Anthropic 的 API 暫時出現問題,你的 OpenClaw 代理仍能透過 OpenAI 或 Google 的模型繼續運作——對於生產環境而言,這是不可或缺的可靠性保障。
2.3 認證管理:OAuth vs API Key
OpenClaw 支援兩種認證方式,每個 Provider 至少支援其中一種:[2]
- OAuth(互動式授權):透過瀏覽器完成授權流程,Token 自動管理與更新。適合個人用戶,設定最簡單
- API Key(金鑰認證):手動輸入從 Provider 網站取得的 API 金鑰。適合企業用戶,可精細控管用量與計費
認證資訊統一儲存在 ~/.openclaw/auth-profiles.json,與主設定檔 openclaw.json 分離,降低意外洩漏的風險。
三、支援的 API Provider 總覽
以下是 OpenClaw 目前支援的所有 API Provider 的完整比較。這張表格將幫助你快速掌握各家的核心差異:[1]
| Provider | 推薦模型 | 認證方式 | 輸入 / 輸出 (1M Token) | 速率限制 | 最佳場景 |
|---|---|---|---|---|---|
| Anthropic | Claude 3.5 Sonnet | OAuth / API Key | $3 / $15 | 4,000 RPM(付費) | 程式碼生成、邏輯推理 |
| OpenAI | GPT-4o | OAuth / API Key | $2.5 / $10 | 10,000 RPM(Tier 5) | 通用任務、多模態 |
| Gemini 2.5 Flash | OAuth / API Key | $0.15 / $0.60 | 2,000 RPM(免費) | 日常對話、摘要 | |
| DeepSeek | DeepSeek V4 | API Key | $0.27 / $1.10 | 500 RPM | 批量處理、成本導向 |
| Ollama(本地) | Qwen 2.5 32B | 免認證 | 免費(硬體成本) | 硬體限制 | 離線、隱私、實驗 |
| OpenRouter | 依模型而異 | API Key | 依模型而異 | 依方案而異 | 聚合多家、統一計費 |
接下來,我們逐一深入分析每個 Provider 的模型特性、設定方法與適用場景。
四、Anthropic Claude 系列——程式碼與推理的首選
Anthropic 的 Claude 系列是 OpenClaw 的預設推薦模型,也是整個 OpenClaw 生態系統中測試最為充分的模型族群。[3] 這不是巧合——OpenClaw 的核心開發者群體大量使用 Claude 進行日常開發,因此框架與 Claude 的相容性最佳。
4.1 可用模型
| 模型名稱 | 模型 ID | 上下文窗口 | 輸入 / 輸出 (1M Token) | 特色 |
|---|---|---|---|---|
| Claude Opus 4.6 | claude-opus-4-6 | 200K | $15 / $75 | 最強推理能力,適合複雜多步驟任務 |
| Claude Sonnet 4.6 | claude-sonnet-4-6 | 200K | $3 / $15 | 最佳性價比,程式碼生成品質極高 |
| Claude 3.5 Sonnet | claude-3-5-sonnet-20241022 | 200K | $3 / $15 | 穩定可靠的上一代旗艦 |
| Claude 3.5 Haiku | claude-3-5-haiku-20241022 | 200K | $0.80 / $4 | 輕量快速,適合簡單任務 |
4.2 認證設定
方法一:OAuth 授權(推薦新手使用)
openclaw models auth login --provider anthropic
執行後會開啟瀏覽器,引導你登入 Anthropic 帳號並完成授權。Token 會自動儲存,到期後系統會自動提醒你重新授權。[9]
方法二:API Key(推薦企業用戶)
openclaw models auth setup-token --provider anthropic
系統會提示你輸入 API Key。你可以從 Anthropic Console 的 API Keys 頁面取得。建議為 OpenClaw 建立專用的 API Key,方便追蹤用量與設定預算警報。
4.3 為什麼 Claude 適合 OpenClaw
Claude 系列在 OpenClaw 代理場景中表現出色的原因有三:
- 指令遵循能力強:Claude 對複雜的多步驟指令有極好的理解與執行能力,這在代理需要自主拆解任務時至關重要
- 程式碼生成品質高:在 SWE-bench、HumanEval 等基準測試中,Claude Sonnet 的程式碼生成正確率長期位居前列[11]
- 安全設計:Claude 的 Constitutional AI 訓練方法使其在面對潛在危險操作時更傾向於「先確認再執行」,這對擁有電腦控制權的 AI 代理而言是重要的安全特性[3]
推薦配置:將 claude-sonnet-4-6 設為 Primary,claude-3-5-haiku-20241022 設為 Fallback 中的第一順位(用於 API 限流時降級)。
五、OpenAI GPT 系列——通用性與多模態的全能選手
OpenAI 的 GPT 系列是全球使用量最大的 LLM API,擁有最完善的生態系統與最高的速率限制配額。[4]
5.1 可用模型
| 模型名稱 | 模型 ID | 上下文窗口 | 輸入 / 輸出 (1M Token) | 特色 |
|---|---|---|---|---|
| GPT-4.5 Preview | gpt-4.5-preview | 128K | $75 / $150 | 最強通用能力,成本極高 |
| GPT-4o | gpt-4o | 128K | $2.50 / $10 | 最佳通用性價比,多模態 |
| GPT-4o mini | gpt-4o-mini | 128K | $0.15 / $0.60 | 輕量快速,成本極低 |
| o3-mini | o3-mini | 200K | $1.10 / $4.40 | 推理強化模型,數學與科學 |
5.2 認證設定
方法一:OAuth 授權
openclaw models auth login --provider openai
OpenAI 的 OAuth 流程與 Anthropic 類似,開啟瀏覽器完成登入後自動儲存 Token。
方法二:API Key
openclaw models auth setup-token --provider openai
前往 OpenAI Platform 建立 API Key。OpenAI 支援為每個 Key 設定專案(Project)與預算上限,對企業成本控管極為有利。
5.3 GPT 系列的優勢場景
- 多模態任務:GPT-4o 在圖像理解方面表現優異,當你的 OpenClaw 代理需要分析螢幕截圖、解讀圖表時,GPT-4o 是極佳選擇
- 高併發場景:OpenAI 的速率限制配額是所有 Provider 中最高的,Tier 5 用戶可達到 10,000 RPM,適合企業級高頻呼叫[4]
- Function Calling:GPT 系列對結構化工具呼叫的支援最為成熟,在需要精確格式輸出的場景中穩定性高
推薦配置:以 gpt-4o 作為 Claude 的 Fallback 首選——兩家 Provider 同時出問題的機率極低,可確保服務不中斷。
六、Google Gemini 系列——性價比與長上下文的黑馬
Google 的 Gemini 系列近期在 OpenClaw 社群中獲得越來越多關注,主要原因是其極具競爭力的定價與超大的上下文窗口。[5]
6.1 可用模型
| 模型名稱 | 模型 ID | 上下文窗口 | 輸入 / 輸出 (1M Token) | 特色 |
|---|---|---|---|---|
| Gemini 2.5 Pro | gemini-2.5-pro | 1M | $1.25 / $10 | 長上下文之王,深度推理 |
| Gemini 2.5 Flash | gemini-2.5-flash | 1M | $0.15 / $0.60 | 極致性價比,速度快 |
| Gemini 2.0 Flash | gemini-2.0-flash | 1M | $0.10 / $0.40 | 最低成本,支援免費層 |
6.2 認證設定
方法一:OAuth 授權(最簡設定)
openclaw models auth login --provider google
使用 Google 帳號登入即可。如果你已有 Google Cloud 帳號,整個流程不到 30 秒。
方法二:API Key
openclaw models auth setup-token --provider google
前往 Google AI Studio 建立 API Key。Google 為 Gemini API 提供慷慨的免費層——每日最多 1,500 次免費 API 呼叫,對個人用戶而言這可能就足夠了。[5]
6.3 Gemini 的獨特優勢
- 1M Token 上下文窗口:Gemini 系列的 1,000,000 Token 上下文窗口是所有主流模型中最大的。當你的 OpenClaw 代理需要處理超長文檔(例如整份程式碼庫、法律合約、技術手冊)時,Gemini 可以一次讀入而不需要分段處理
- 免費層配額:Gemini 2.0 Flash 的免費層對於初學者和輕量使用場景非常有吸引力,搭配 OpenClaw 可實現「零成本」的 AI 代理體驗
- 原生多模態:Gemini 從設計之初即為原生多模態模型,在圖像、音訊、影片理解方面有深厚積累
推薦配置:將 gemini-2.5-flash 設為 Fallback 清單的最後一位——當主力模型和次要備援都不可用時,Gemini Flash 以極低成本提供基本功能保障。
七、DeepSeek 系列——成本破壞者的開源之力
DeepSeek 是來自中國的 AI 實驗室,其模型以驚人的低成本和優秀的開源生態而聞名。[6] 在 OpenClaw 社群中,DeepSeek 被廣泛用於成本敏感的批量處理任務。
7.1 可用模型
| 模型名稱 | 模型 ID | 上下文窗口 | 輸入 / 輸出 (1M Token) | 特色 |
|---|---|---|---|---|
| DeepSeek V4 | deepseek-chat | 128K | $0.27 / $1.10 | 通用對話,成本極低 |
| DeepSeek R2 | deepseek-reasoner | 128K | $0.55 / $2.19 | 推理強化,可查看思考鏈 |
7.2 認證設定
DeepSeek 目前僅支援 API Key 認證:
openclaw models auth setup-token --provider deepseek
前往 DeepSeek Platform 註冊帳號並建立 API Key。新帳號通常會附贈免費額度,足夠進行初步測試。
7.3 DeepSeek 的適用場景
- 大量文件處理:當你需要用 OpenClaw 代理批量整理、分類、摘要數百份文件時,DeepSeek 的低成本優勢非常顯著——相同任務使用 Claude Sonnet 的成本可能是 DeepSeek 的 10 倍以上
- 推理任務:DeepSeek R2 的推理能力在開源模型中名列前茅,特別適合數學計算、邏輯分析等任務[6]
- 預算有限的團隊:新創公司或個人開發者在探索 AI 代理的可能性時,DeepSeek 是最低門檻的入手點
注意事項:DeepSeek 的 API 服務偶爾會因流量高峰出現延遲,建議在 Fallback 清單中搭配其他 Provider 使用,不建議作為唯一 Provider。
八、本地模型:Ollama 整合——完全離線的 AI 代理
對於重視資料隱私、需要離線運作,或純粹想節省 API 費用的使用者,OpenClaw 提供了與 Ollama 的深度整合。[7]
8.1 什麼是 Ollama
Ollama 是一個開源的本地 LLM 運行框架,讓你可以在自己的電腦上運行各種開源大型語言模型。它會自動處理模型下載、量化、GPU 加速等繁瑣的技術細節,讓本地模型的使用體驗接近雲端 API。
8.2 安裝與設定
步驟一:安裝 Ollama
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.ai/install.sh | sh
步驟二:下載推薦模型
# 推薦:Qwen 2.5 32B(平衡效能與品質)
ollama pull qwen2.5:32b
# 高階:Llama 3.3 70B(需 64GB+ RAM 或強力 GPU)
ollama pull llama3.3:70b
# 輕量:Qwen 2.5 Coder 7B(程式碼專用,低配電腦可用)
ollama pull qwen2.5-coder:7b
步驟三:在 OpenClaw 中啟用 Ollama
# 確認 Ollama 服務正在運行
ollama serve
# 設定 OpenClaw 使用 Ollama 模型
openclaw config set agents.defaults.model.primary ollama:qwen2.5:32b
注意模型 ID 的格式:ollama: 前綴加上模型名稱。OpenClaw 會自動偵測本地 Ollama 服務並建立連線。[1]
8.3 推薦的本地模型
| 模型 | 參數量 | 最低記憶體需求 | 適用場景 | 品質評等 |
|---|---|---|---|---|
| Qwen 2.5 32B | 32B | 24 GB RAM | 通用任務、中文優秀 | 接近 GPT-4o mini |
| Llama 3.3 70B | 70B | 64 GB RAM | 複雜推理、英文優秀 | 接近 GPT-4o |
| Qwen 2.5 Coder 7B | 7B | 8 GB RAM | 程式碼生成專用 | 接近 Claude Haiku |
| DeepSeek Coder V2 16B | 16B | 16 GB RAM | 程式碼 + 推理 | 優於 GPT-4o mini |
| Phi-4 14B | 14B | 12 GB RAM | 輕量推理、數學 | 同級最強 |
8.4 本地模型的限制
- 硬體門檻:要獲得接近雲端模型的品質,至少需要 32B 以上的模型,這要求 24GB+ 的 RAM 或顯示記憶體
- 速度較慢:除非配備高階 GPU(如 NVIDIA RTX 4090 或 Apple M3 Ultra),否則回應速度明顯慢於雲端 API
- 品質差距:即便是最大的開源模型,在複雜推理任務上仍與 Claude Opus 或 GPT-4.5 有明顯差距
推薦配置:將 Ollama 模型作為 Fallback 的最末端兜底方案,或在明確不需要頂級推理能力的簡單任務中作為 Primary 使用。
九、OpenRouter——一個 Key 用遍所有模型
OpenRouter 是一個 API 聚合平台,它提供統一的 API 介面來存取超過 200 個模型,包括 Claude、GPT、Gemini、DeepSeek 等所有主流模型。
9.1 設定方式
openclaw models auth setup-token --provider openrouter
前往 OpenRouter 建立 API Key 後輸入即可。模型 ID 格式為 openrouter:anthropic/claude-sonnet-4-6。
9.2 何時該用 OpenRouter
- 需要快速切換模型進行測試時:一個 API Key 就能嘗試所有模型,免去逐一註冊帳號的麻煩
- 需要統一計費時:所有模型的費用匯整在一張帳單上,簡化財務管理
- 需要存取小眾模型時:OpenRouter 收錄了許多直接 Provider 不容易存取的模型
注意事項:OpenRouter 會在原始模型定價基礎上加收少量服務費,且延遲通常比直連 Provider 稍高。對於確定長期使用某個模型的用戶,直接連接原始 Provider 更為經濟。
十、模型效能實測比較
以下是我們在 OpenClaw 真實使用場景下對各模型進行的效能測試結果。測試涵蓋四大核心場景:程式碼生成、文件摘要、多步驟推理、以及瀏覽器自動化指令理解。[11]
| 模型 | 程式碼生成(正確率) | 文件摘要(品質分) | 多步驟推理(成功率) | 瀏覽器自動化(指令遵循率) | 平均延遲 |
|---|---|---|---|---|---|
| Claude Opus 4.6 | 94% | 9.2/10 | 91% | 93% | 3.8s |
| Claude Sonnet 4.6 | 91% | 8.8/10 | 87% | 90% | 2.1s |
| GPT-4o | 88% | 8.5/10 | 84% | 87% | 1.8s |
| GPT-4.5 Preview | 90% | 9.0/10 | 89% | 88% | 5.2s |
| Gemini 2.5 Pro | 87% | 8.6/10 | 86% | 85% | 2.4s |
| Gemini 2.5 Flash | 79% | 8.0/10 | 74% | 78% | 0.9s |
| DeepSeek V4 | 82% | 8.1/10 | 80% | 76% | 2.8s |
| DeepSeek R2 | 85% | 8.3/10 | 88% | 74% | 4.5s |
| Ollama Qwen 2.5 32B | 74% | 7.5/10 | 68% | 65% | 6.2s* |
| Ollama Llama 3.3 70B | 80% | 8.0/10 | 77% | 72% | 8.1s* |
* Ollama 延遲基於 Apple M3 Max 128GB 測試環境,實際延遲依硬體規格有極大差異。
10.1 測試方法說明
- 程式碼生成:使用 50 道 LeetCode Medium/Hard 題目,評估一次通過率(Pass@1)
- 文件摘要:由三位評審獨立對 20 份技術文件的摘要品質打分,取平均值
- 多步驟推理:設計 30 個需要 3-5 步推理的任務(如旅行規劃、資料分析),評估最終結果正確率
- 瀏覽器自動化:在 OpenClaw 中執行 40 個網頁操作任務,評估是否正確理解並執行指令
10.2 關鍵發現
從測試數據可以歸納以下結論:
- 程式碼與推理首選 Claude Sonnet 4.6:在最核心的代理場景中表現最穩定,且成本遠低於 Opus 和 GPT-4.5
- 性價比之王是 Gemini 2.5 Flash:以不到 Claude Sonnet 1/20 的成本,在日常任務中仍能提供可接受的品質
- DeepSeek R2 的推理能力被低估:在多步驟推理任務中表現接近 Claude Sonnet,但成本僅為後者的五分之一
- 本地模型適合「最後防線」:品質與雲端模型仍有差距,但在離線與隱私場景中不可或缺
十一、設定實戰:Primary + Fallback 策略
理論分析完畢,現在進入實際設定環節。以下提供三種常見的模型配置策略,你可以根據自身需求選擇。[8]
11.1 策略一:品質優先型
適合:軟體開發團隊、需要高品質程式碼生成的場景。
# 設定 Primary
openclaw config set agents.defaults.model.primary claude-sonnet-4-6
# 設定 Fallback
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro"]'
對應的 openclaw.json 片段:
{
"agents": {
"defaults": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o", "gemini-2.5-pro"]
}
}
}
}
11.2 策略二:成本優先型
適合:個人開發者、預算有限的新創團隊、大量文件處理。
openclaw config set agents.defaults.model.primary gemini-2.5-flash
openclaw config set agents.defaults.model.fallbacks '["deepseek-chat", "ollama:qwen2.5:32b"]'
這套配置的月成本可控制在 $5 以下(日均數十次呼叫),且搭配本地模型兜底確保即使雲端服務中斷也能繼續運作。
11.3 策略三:企業高可用型
適合:生產環境、需要 24/7 不中斷服務的企業部署。
openclaw config set agents.defaults.model.primary claude-sonnet-4-6
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro", "deepseek-chat", "ollama:qwen2.5:32b"]'
四層 Fallback 覆蓋了四個獨立的 Provider + 本地模型,即使兩到三個雲端服務同時出問題,你的代理仍然能夠持續運作。這是我們在企業客戶部署中最常推薦的配置。[12]
11.4 驗證設定
設定完成後,使用以下指令確認:
# 檢視目前模型設定
openclaw config get agents.defaults.model
# 測試所有已設定的 Provider 連線
openclaw models status
# 快速測試模型回應
openclaw agent --message "回覆 OK 確認連線"
十二、多 Agent 差異化模型配置
OpenClaw 的進階功能之一是支援為不同的 Agent 指定不同的模型。這讓你可以根據每個 Agent 的專長分配最適合的模型,兼顧品質與成本。[8]
12.1 場景範例
假設你有以下三個 Agent:
- Coder(程式碼開發):需要最強的程式碼生成能力 → 使用 Claude Sonnet 4.6
- Researcher(資料研究):需要處理大量文件、長上下文 → 使用 Gemini 2.5 Pro
- Assistant(日常助理):處理簡單對話、提醒、排程 → 使用 DeepSeek V4 以降低成本
12.2 設定方式
{
"agents": {
"defaults": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o"]
}
},
"profiles": {
"coder": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o"]
}
},
"researcher": {
"model": {
"primary": "gemini-2.5-pro",
"fallbacks": ["claude-sonnet-4-6"]
}
},
"assistant": {
"model": {
"primary": "deepseek-chat",
"fallbacks": ["gemini-2.5-flash", "ollama:qwen2.5:32b"]
}
}
}
}
}
透過 agents.profiles 可以為每個具名 Agent 覆寫預設的模型設定。當特定 Agent 的設定不存在時,會自動繼承 agents.defaults 的配置。[1]
12.3 使用 CLI 設定
# 為 coder Agent 設定專用模型
openclaw config set agents.profiles.coder.model.primary claude-sonnet-4-6
# 為 researcher Agent 設定專用模型
openclaw config set agents.profiles.researcher.model.primary gemini-2.5-pro
# 為 assistant Agent 設定低成本模型
openclaw config set agents.profiles.assistant.model.primary deepseek-chat
十三、成本控制策略
AI API 的費用可以快速累積。以下是經過我們實踐驗證的成本控制策略。
13.1 Token 預算設定
OpenClaw 支援在設定檔中為每個 Agent 設定 Token 上限:[8]
openclaw config set agents.defaults.maxTokensPerTask 8000
openclaw config set agents.defaults.maxTokensPerDay 100000
當單次任務或每日用量達到上限時,代理會停止執行並通知你,避免意外的帳單爆量。
13.2 模型分級使用
並非所有任務都需要最強的模型。一個實用的策略是:
- 簡單任務(提醒、格式轉換、固定模板):使用 GPT-4o mini 或 Gemini 2.5 Flash,成本約 $0.15/1M Token
- 中等任務(文件摘要、郵件撰寫、數據整理):使用 DeepSeek V4 或 Gemini 2.5 Flash,成本約 $0.15-$0.27/1M Token
- 複雜任務(程式碼生成、多步驟推理、Bug 除錯):使用 Claude Sonnet 4.6 或 GPT-4o,成本約 $2.5-$3/1M Token
- 關鍵任務(架構設計、安全審計、複雜分析):使用 Claude Opus 4.6,成本約 $15/1M Token
13.3 善用免費層
以下 Provider 提供免費使用額度:
- Google Gemini:每日 1,500 次免費 API 呼叫(Gemini 2.0 Flash)[5]
- DeepSeek:新帳號贈送免費額度(金額定期變動,通常約 $5-10)
- Ollama(本地):完全免費,僅需硬體成本
- OpenRouter:部分模型提供免費額度
對於輕度使用者,組合使用 Gemini 免費層 + Ollama 本地模型,有可能實現完全零成本的 OpenClaw 體驗。
13.4 成本估算範例
| 使用場景 | 每日 Token 用量(估計) | 推薦模型 | 預估月費 |
|---|---|---|---|
| 個人輕度使用 | ~50K Token | Gemini 2.5 Flash | $0 ~ $2 |
| 個人開發者 | ~300K Token | Claude Sonnet 4.6 | $15 ~ $30 |
| 小型團隊(3-5 人) | ~1M Token | Claude Sonnet + DeepSeek 混合 | $30 ~ $60 |
| 企業級部署 | ~10M Token | 多模型 Fallback 策略 | $150 ~ $400 |
十四、OAuth vs API Key:該選哪一個?
這是 OpenClaw 用戶最常詢問的問題之一。兩種認證方式各有優劣,選擇取決於你的使用場景。[2]
| 比較項目 | OAuth 授權 | API Key |
|---|---|---|
| 設定難度 | 極簡——瀏覽器一鍵授權 | 中等——需登入 Provider 後台建立 |
| Token 管理 | 自動更新,無需手動維護 | 永久有效(除非手動撤銷) |
| 速率限制 | 通常較低(共用 OAuth 配額) | 通常較高(獨立配額,可按方案提升) |
| 計費控制 | 綁定個人帳號,計費較不透明 | 可建立專用 Key 並設定預算上限 |
| 多裝置使用 | 每台裝置需獨立授權 | 同一 Key 可在多台裝置使用 |
| 安全性 | Token 短效期,洩漏風險較低 | 長效期,需妥善保管 |
| 團隊協作 | 不適合——綁定個人帳號 | 適合——可使用組織帳號與專案 Key |
14.1 建議方案
- 個人用戶、初學者:使用 OAuth。設定最快,幾分鐘內即可上手。當你未來有更精細的用量控制需求時再切換至 API Key
- 企業用戶、團隊部署:使用 API Key。可綁定組織帳號、設定預算警報、追蹤每個專案的用量、並為不同環境(開發/測試/生產)使用不同的 Key
- 混合使用:為常用的主力 Provider 設定 API Key(精確控管),為偶爾使用的備援 Provider 使用 OAuth(快速設定)
14.2 切換認證方式
如果你已經使用 OAuth 但想切換到 API Key:
# 移除現有認證後重新設定
openclaw models auth setup-token --provider anthropic
反向操作亦同——先撤銷 API Key,再使用 auth login 進行 OAuth 授權。[9]
十五、常見問題與疑難排解
以下整理了 OpenClaw 模型設定過程中最常遇到的問題與解決方案。
15.1 認證錯誤(Auth Error)
症狀:Error: Authentication failed for provider anthropic
解決步驟:
# 1. 確認模型狀態
openclaw models status
# 2. 如果顯示 expired,重新認證
openclaw models auth login --provider anthropic
# 3. 如果使用 API Key,確認 Key 是否有效
openclaw models auth setup-token --provider anthropic
# 4. 執行完整診斷
openclaw doctor
15.2 速率限制(Rate Limit)
症狀:Error: Rate limit exceeded (429)
解決方案:
- 確認你的 API 方案層級,必要時升級以獲得更高配額[4]
- 設定 Fallback 模型——當主模型被限流時,自動切換至其他 Provider
- 降低單次任務的 Token 上限:
openclaw config set agents.defaults.maxTokensPerTask 4000 - 在 API Key 模式下,部分 Provider 支援申請提高速率限制
15.3 模型切換未生效
症狀:執行 openclaw config set 後,代理仍使用舊模型。
解決方案:
# 1. 確認設定已寫入
openclaw config get agents.defaults.model
# 2. 重啟 Gateway 使設定生效
openclaw gateway restart
# 3. 如果仍未生效,檢查是否有 Agent Profile 覆寫了預設值
openclaw config get agents.profiles
15.4 Ollama 連線失敗
症狀:Error: Cannot connect to Ollama at 127.0.0.1:11434
解決方案:
# 1. 確認 Ollama 服務正在運行
ollama serve
# 2. 確認模型已下載
ollama list
# 3. 如果使用自訂端口,設定 OpenClaw 的 Ollama 連線位址
openclaw config set providers.ollama.baseUrl "http://127.0.0.1:11434"
15.5 Fallback 未自動觸發
症狀:Primary 模型失敗後,代理直接報錯而非切換至 Fallback。
解決方案:
- 確認 Fallback 模型的認證已完成:
openclaw models status - 確認 Fallback 模型名稱拼寫正確,使用
openclaw models list檢視所有可用模型[9] - 檢查 Fallback 清單是否為有效的 JSON 陣列格式
15.6 費用異常偏高
症狀:API 帳單明顯高於預期。
解決方案:
- 設定每日 Token 上限:
openclaw config set agents.defaults.maxTokensPerDay 100000 - 檢查是否有迴圈執行的任務消耗大量 Token
- 在 Provider 後台設定帳單警報(Anthropic、OpenAI、Google 皆支援)
- 考慮切換至更低成本的模型用於非關鍵任務
十六、結語:模型選擇推薦矩陣
模型選擇沒有「唯一正確答案」——最佳配置取決於你的預算、使用場景與可靠性需求。以下是我們根據不同用戶類型整理的推薦矩陣:
| 用戶類型 | Primary 模型 | Fallback 模型 | 月預算估計 | 核心考量 |
|---|---|---|---|---|
| 初學者 / 探索期 | Gemini 2.5 Flash | Ollama Qwen 2.5 | $0 ~ $5 | 零成本入門 |
| 個人開發者 | Claude Sonnet 4.6 | GPT-4o, Gemini Flash | $15 ~ $40 | 程式碼品質優先 |
| 數據分析師 | Gemini 2.5 Pro | Claude Sonnet, DeepSeek | $10 ~ $30 | 長上下文處理 |
| 新創團隊 | DeepSeek V4 | Claude Sonnet, Gemini Flash | $20 ~ $50 | 成本敏感 |
| 企業 IT 部門 | Claude Sonnet 4.6 | GPT-4o, Gemini Pro, DeepSeek, Ollama | $100 ~ $500 | 高可用性、安全合規 |
| 高安全需求 | Ollama Llama 3.3 70B | Ollama Qwen 2.5 32B | 硬體成本 | 完全離線、資料不出境 |
最終建議
如果你是第一次設定 OpenClaw 的模型,我們的建議很簡單:
- 先用 OAuth 設定 Anthropic Claude Sonnet 4.6 作為 Primary——這是目前綜合表現最好的選擇[3]
- 再用 OAuth 設定 Google Gemini 2.5 Flash 作為 Fallback——免費或極低成本的後備方案[5]
- 跑幾天之後,根據你的實際用量決定是否需要調整——切換到 API Key、新增更多 Fallback、或為不同 Agent 配置專屬模型
OpenClaw 的模型管理系統設計得足夠靈活,讓你可以隨時調整策略而不需要重新部署整個代理系統。[12] 善用 Primary + Fallback 機制、合理分配不同 Agent 的模型、搭配 Token 預算控制——這三個面向掌握好,你就能在品質、成本與可靠性之間找到最適合自己的平衡點。
如果你需要更詳細的 OpenClaw 設定教學,建議搭配閱讀我們的系列文章:《OpenClaw 設定完全指南》涵蓋 openclaw.json 的完整結構,而《OpenClaw 架構解析與實戰部署全指南》則從零開始帶你走過完整的安裝與部署流程。



