OpenClaw noch nicht installiert? Klicken Sie hier fur die Ein-Klick-Installationsanweisungen
curl -fsSL https://openclaw.ai/install.sh | bash
iwr -useb https://openclaw.ai/install.ps1 | iex
curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
Bedenken wegen Auswirkungen auf Ihren Computer? ClawTank -- Cloud-basiert ohne Installation, kein Risiko versehentlicher Loschungen
Key Findings
  • OpenClaw unterstutzt nativ sechs API Provider (Anthropic, OpenAI, Google, DeepSeek, Ollama, OpenRouter). Jeder Provider kann uber OAuth oder API Key authentifiziert werden und unterstutzt einen Primary + Fallback Zweischicht-Modellwechselmechanismus[1]
  • Im Praxisvergleich zeigte Anthropic Claude 3.5 Sonnet die beste Leistung bei Codegenerierung und Reasoning-Aufgaben; Google Gemini 2.5 Flash bietet bei alltaglichen Dialogen und Zusammenfassungsaufgaben das beste Preis-Leistungs-Verhaltnis zu ausserst niedrigen Kosten[11]
  • DeepSeek V4 ist derzeit die gunstigste Cloud-Modelloption im OpenClaw-Okosystem -- Input-Token kosten nur $0,27/1M und eignen sich fur die Massenverarbeitung von Dokumenten sowie budgetsensitive Anwendungsszenarien[6]
  • Im Bereich der lokalen Bereitstellung ermoglicht die Ollama-Integration den Betrieb von OpenClaw in einer vollstandig Offline-Umgebung. In Kombination mit Open-Source-Modellen wie Qwen 2.5 32B oder Llama 3.3 70B lasst sich eine Leistung erzielen, die nahe an Cloud-Modellen liegt[7]
  • Fur Enterprise-Bereitstellungen empfehlen wir eine dreistufige Fallback-Strategie bestehend aus „Claude Sonnet als Hauptmodell + GPT-4o als Backup + lokales Modell als letzte Absicherung", um eine Dienstverfugbarkeit von uber 99,9 % sicherzustellen[8]
  • OAuth-Authentifizierung reduziert im Vergleich zum API Key die Komplexitat der Schlusselverwaltung, ist jedoch durch die Rate-Limits der jeweiligen Provider begrenzt; API Keys bieten flexiblere Nutzungskontrolle und Abrechnungstrennung[2]

I. Warum die Modellauswahl die wichtigste Entscheidung bei OpenClaw ist

OpenClaw ist das meistbeachtete Open-Source-AI-Agent-Framework des Jahres 2026 und bezieht seine Kernfahigkeiten aus den grossen Sprachmodellen (LLMs), mit denen es verbunden ist.[10] Allerdings unterscheiden sich verschiedene Modelle erheblich in Bezug auf Reasoning-Fahigkeiten, Codegenerierungsqualitat, Antwortgeschwindigkeit und Kostenstruktur. Mit dem richtigen Modell kann Ihr AI-Agent komplexe Browser-Automatisierung und mehrstufige Workflows prazise ausfuhren; mit dem falschen Modell drohen langsame Antworten, fehlerhaftes Befehlsverstandnis oder sogar unkontrollierte Kosten.

Dieser Artikel geht von den Architekturprinzipien aus und zerlegt systematisch den Modellverwaltungsmechanismus von OpenClaw. Wir bewerten die Modellleistung aller sechs API Provider einzeln und bieten vollstandige Einrichtungsanleitungen, Kostenanalysen und Enterprise Best Practices. Ob Sie ein Einsteiger sind, der OpenClaw gerade erst installiert hat, ein Einzelentwickler, der API-Kosten senken mochte, oder ein technischer Leiter, der Enterprise-Bereitstellungsoptionen evaluiert -- dieser Leitfaden liefert Ihnen die umfassendste Entscheidungsgrundlage.

II. Uberblick uber die OpenClaw-Modellarchitektur

Bevor wir die einzelnen Modelle im Detail vergleichen, ist es wichtig zu verstehen, wie OpenClaw Modelle verwaltet. Dieses Architekturdesign bestimmt die Logik all Ihrer nachfolgenden Konfigurationen.[1]

2.1 Provider-Model-Schichtarchitektur

OpenClaw teilt die Modellverwaltung in zwei Ebenen auf:

Der Vorteil dieses Schichtdesigns: Sie konnen die Authentifizierung fur mehrere Provider gleichzeitig konfigurieren und dann auf Modellebene frei wechseln, ohne jedes Mal die Authentifizierung neu einrichten zu mussen.

2.2 Primary + Fallback Zweischicht-Mechanismus

Die Modellkonfiguration von OpenClaw verwendet eine Primary (Haupt) + Fallback (Backup) Zweischicht-Architektur -- dies ist der Kern des Zuverlassigkeitsdesigns:[8]

// openclaw.json -- Modellkonfigurationsstruktur
{
  "agents": {
    "defaults": {
      "model": {
        "primary": "claude-sonnet-4-6",
        "fallbacks": ["gpt-4o", "gemini-2.5-flash"]
      }
    }
  }
}

Die Funktionslogik ist wie folgt:

Das bedeutet: Selbst wenn die Anthropic-API vorubergehend Probleme hat, kann Ihr OpenClaw-Agent uber Modelle von OpenAI oder Google weiterarbeiten -- fur Produktionsumgebungen ist dies eine unverzichtbare Zuverlassigkeitsgarantie.

2.3 Authentifizierungsverwaltung: OAuth vs API Key

OpenClaw unterstutzt zwei Authentifizierungsmethoden, wobei jeder Provider mindestens eine davon unterstutzt:[2]

Authentifizierungsinformationen werden einheitlich in ~/.openclaw/auth-profiles.json gespeichert und sind von der Hauptkonfigurationsdatei openclaw.json getrennt, um das Risiko einer versehentlichen Offenlegung zu verringern.

III. Ubersicht der unterstutzten API Provider

Nachfolgend finden Sie einen vollstandigen Vergleich aller derzeit von OpenClaw unterstutzten API Provider. Diese Tabelle hilft Ihnen, die wesentlichen Unterschiede schnell zu erfassen:[1]

ProviderEmpfohlenes ModellAuthentifizierungInput / Output (1M Token)Rate LimitBestes Einsatzszenario
AnthropicClaude 3.5 SonnetOAuth / API Key$3 / $154.000 RPM (bezahlt)Codegenerierung, logisches Reasoning
OpenAIGPT-4oOAuth / API Key$2,5 / $1010.000 RPM (Tier 5)Allgemeine Aufgaben, multimodal
GoogleGemini 2.5 FlashOAuth / API Key$0,15 / $0,602.000 RPM (kostenlos)Alltagsdialoge, Zusammenfassungen
DeepSeekDeepSeek V4API Key$0,27 / $1,10500 RPMMassenverarbeitung, kostenorientiert
Ollama (lokal)Qwen 2.5 32BKeine AuthentifizierungKostenlos (Hardwarekosten)HardwarelimitierungOffline, Datenschutz, Experimente
OpenRouterModellabhangigAPI KeyModellabhangigTarifabhangigAggregation mehrerer Anbieter, einheitliche Abrechnung

Im Folgenden analysieren wir jeden Provider einzeln im Detail hinsichtlich Modelleigenschaften, Einrichtungsmethoden und Einsatzszenarien.

IV. Anthropic Claude Serie -- Die erste Wahl fur Code und Reasoning

Die Claude-Serie von Anthropic ist das standardmassig empfohlene Modell fur OpenClaw und die am grundlichsten getestete Modellfamilie im gesamten OpenClaw-Okosystem.[3] Das ist kein Zufall -- die Kernentwickler von OpenClaw nutzen Claude intensiv fur die tagliche Entwicklung, weshalb die Kompatibilitat zwischen dem Framework und Claude am besten ist.

4.1 Verfugbare Modelle

ModellnameModell-IDContext WindowInput / Output (1M Token)Besonderheit
Claude Opus 4.6claude-opus-4-6200K$15 / $75Starkste Reasoning-Fahigkeit, geeignet fur komplexe mehrstufige Aufgaben
Claude Sonnet 4.6claude-sonnet-4-6200K$3 / $15Bestes Preis-Leistungs-Verhaltnis, ausserst hohe Codegenerierungsqualitat
Claude 3.5 Sonnetclaude-3-5-sonnet-20241022200K$3 / $15Stabiles und zuverlassiges Vorgangermodell der Spitzenklasse
Claude 3.5 Haikuclaude-3-5-haiku-20241022200K$0,80 / $4Leichtgewichtig und schnell, geeignet fur einfache Aufgaben

4.2 Authentifizierungseinrichtung

Methode 1: OAuth-Autorisierung (empfohlen fur Einsteiger)

openclaw models auth login --provider anthropic

Nach der Ausfuhrung offnet sich der Browser, der Sie zur Anmeldung bei Ihrem Anthropic-Konto und zur Autorisierung fuhrt. Der Token wird automatisch gespeichert, und das System erinnert Sie automatisch an eine erneute Autorisierung bei Ablauf.[9]

Methode 2: API Key (empfohlen fur Unternehmenskunden)

openclaw models auth setup-token --provider anthropic

Das System fordert Sie zur Eingabe des API Key auf. Diesen konnen Sie auf der Seite „API Keys" in der Anthropic Console erhalten. Es wird empfohlen, einen dedizierten API Key fur OpenClaw zu erstellen, um die Nutzung besser verfolgen und Budget-Warnungen einrichten zu konnen.

4.3 Warum Claude ideal fur OpenClaw ist

Die Claude-Serie uberzeugt in OpenClaw-Agent-Szenarien aus drei Grunden:

Empfohlene Konfiguration: Setzen Sie claude-sonnet-4-6 als Primary und claude-3-5-haiku-20241022 als erste Position in der Fallback-Liste (fur die Herabstufung bei API-Drosselung).

V. OpenAI GPT Serie -- Der Allrounder fur Universalitat und Multimodalitat

Die GPT-Serie von OpenAI ist die weltweit am meisten genutzte LLM-API und verfugt uber das umfassendste Okosystem sowie die hochsten Rate-Limit-Kontingente.[4]

5.1 Verfugbare Modelle

ModellnameModell-IDContext WindowInput / Output (1M Token)Besonderheit
GPT-4.5 Previewgpt-4.5-preview128K$75 / $150Starkste universelle Fahigkeit, ausserst hohe Kosten
GPT-4ogpt-4o128K$2,50 / $10Bestes universelles Preis-Leistungs-Verhaltnis, multimodal
GPT-4o minigpt-4o-mini128K$0,15 / $0,60Leichtgewichtig und schnell, ausserst niedrige Kosten
o3-minio3-mini200K$1,10 / $4,40Reasoning-verbessertes Modell, Mathematik und Wissenschaft

5.2 Authentifizierungseinrichtung

Methode 1: OAuth-Autorisierung

openclaw models auth login --provider openai

Der OAuth-Ablauf von OpenAI ist ahnlich wie bei Anthropic -- offnen Sie den Browser, schliessen Sie die Anmeldung ab, und der Token wird automatisch gespeichert.

Methode 2: API Key

openclaw models auth setup-token --provider openai

Gehen Sie zur OpenAI Platform, um einen API Key zu erstellen. OpenAI unterstutzt die Zuweisung von Projekten und Budgetlimits fur jeden Key -- ausserst vorteilhaft fur die Kostenkontrolle in Unternehmen.

5.3 Vorteilsszenarien der GPT-Serie

Empfohlene Konfiguration: Verwenden Sie gpt-4o als bevorzugtes Fallback fur Claude -- die Wahrscheinlichkeit, dass beide Provider gleichzeitig Probleme haben, ist ausserst gering, was eine ununterbrochene Dienstverfugbarkeit sicherstellt.

VI. Google Gemini Serie -- Der Geheimtipp fur Preis-Leistung und langen Kontext

Die Gemini-Serie von Google erhalt in der OpenClaw-Community zunehmende Aufmerksamkeit, hauptsachlich aufgrund ihrer ausserst wettbewerbsfahigen Preisgestaltung und des ubergrossen Context Window.[5]

6.1 Verfugbare Modelle

ModellnameModell-IDContext WindowInput / Output (1M Token)Besonderheit
Gemini 2.5 Progemini-2.5-pro1M$1,25 / $10Konig des langen Kontexts, tiefes Reasoning
Gemini 2.5 Flashgemini-2.5-flash1M$0,15 / $0,60Ultimatives Preis-Leistungs-Verhaltnis, hohe Geschwindigkeit
Gemini 2.0 Flashgemini-2.0-flash1M$0,10 / $0,40Niedrigste Kosten, unterstutzt kostenlose Stufe

6.2 Authentifizierungseinrichtung

Methode 1: OAuth-Autorisierung (einfachste Einrichtung)

openclaw models auth login --provider google

Melden Sie sich einfach mit Ihrem Google-Konto an. Wenn Sie bereits ein Google Cloud-Konto haben, dauert der gesamte Vorgang weniger als 30 Sekunden.

Methode 2: API Key

openclaw models auth setup-token --provider google

Gehen Sie zu Google AI Studio, um einen API Key zu erstellen. Google bietet fur die Gemini-API eine grosszugige kostenlose Stufe -- bis zu 1.500 kostenlose API-Aufrufe pro Tag, was fur Einzelbenutzer moglicherweise vollig ausreichend ist.[5]

6.3 Die einzigartigen Vorteile von Gemini

Empfohlene Konfiguration: Setzen Sie gemini-2.5-flash als letzte Position in der Fallback-Liste -- wenn sowohl das Hauptmodell als auch das sekundare Backup nicht verfugbar sind, bietet Gemini Flash grundlegende Funktionsabsicherung zu ausserst niedrigen Kosten.

VII. DeepSeek Serie -- Die Open-Source-Kraft des Kostenstorers

DeepSeek ist ein AI-Labor aus China, dessen Modelle fur ihre erstaunlich niedrigen Kosten und ihr hervorragendes Open-Source-Okosystem bekannt sind.[6] In der OpenClaw-Community wird DeepSeek haufig fur kostensensitive Massenverarbeitungsaufgaben eingesetzt.

7.1 Verfugbare Modelle

ModellnameModell-IDContext WindowInput / Output (1M Token)Besonderheit
DeepSeek V4deepseek-chat128K$0,27 / $1,10Universeller Dialog, ausserst niedrige Kosten
DeepSeek R2deepseek-reasoner128K$0,55 / $2,19Reasoning-verstarktes Modell, einsehbare Gedankenkette

7.2 Authentifizierungseinrichtung

DeepSeek unterstutzt derzeit ausschliesslich API Key-Authentifizierung:

openclaw models auth setup-token --provider deepseek

Gehen Sie zur DeepSeek Platform, um ein Konto zu registrieren und einen API Key zu erstellen. Neue Konten erhalten in der Regel ein kostenloses Guthaben, das fur erste Tests ausreicht.

7.3 Einsatzszenarien fur DeepSeek

Hinweis: Der API-Dienst von DeepSeek kann gelegentlich aufgrund von Lastspitzen Verzogerungen aufweisen. Es wird empfohlen, DeepSeek in der Fallback-Liste mit anderen Providern zu kombinieren und es nicht als einzigen Provider zu verwenden.

VIII. Lokale Modelle: Ollama-Integration -- Der vollstandig Offline-AI-Agent

Fur Benutzer, die Wert auf Datenschutz legen, Offline-Betrieb benotigen oder einfach API-Kosten sparen mochten, bietet OpenClaw eine tiefe Integration mit Ollama.[7]

8.1 Was ist Ollama

Ollama ist ein Open-Source-Framework zum lokalen Betrieb von LLMs, mit dem Sie verschiedene Open-Source-Sprachmodelle auf Ihrem eigenen Computer ausfuhren konnen. Es kummert sich automatisch um Modell-Downloads, Quantisierung, GPU-Beschleunigung und andere technische Details und sorgt dafur, dass sich die Nutzung lokaler Modelle ahnlich angenehm anfuhlt wie Cloud-APIs.

8.2 Installation und Einrichtung

Schritt 1: Ollama installieren

# macOS
brew install ollama

# Linux
curl -fsSL https://ollama.ai/install.sh | sh

Schritt 2: Empfohlene Modelle herunterladen

# Empfohlen: Qwen 2.5 32B (Balance zwischen Leistung und Qualitat)
ollama pull qwen2.5:32b

# High-End: Llama 3.3 70B (erfordert 64GB+ RAM oder leistungsstarke GPU)
ollama pull llama3.3:70b

# Leichtgewichtig: Qwen 2.5 Coder 7B (Code-spezialisiert, fur schwachere Hardware geeignet)
ollama pull qwen2.5-coder:7b

Schritt 3: Ollama in OpenClaw aktivieren

# Sicherstellen, dass der Ollama-Dienst lauft
ollama serve

# OpenClaw fur die Verwendung eines Ollama-Modells konfigurieren
openclaw config set agents.defaults.model.primary ollama:qwen2.5:32b

Beachten Sie das Format der Modell-ID: ollama:-Prafix plus Modellname. OpenClaw erkennt automatisch den lokalen Ollama-Dienst und stellt die Verbindung her.[1]

8.3 Empfohlene lokale Modelle

ModellParameteranzahlMindestspeicheranforderungEinsatzszenarioQualitatsbewertung
Qwen 2.5 32B32B24 GB RAMUniverselle Aufgaben, hervorragend auf ChinesischNahe an GPT-4o mini
Llama 3.3 70B70B64 GB RAMKomplexes Reasoning, hervorragend auf EnglischNahe an GPT-4o
Qwen 2.5 Coder 7B7B8 GB RAMSpezialisiert auf CodegenerierungNahe an Claude Haiku
DeepSeek Coder V2 16B16B16 GB RAMCode + ReasoningBesser als GPT-4o mini
Phi-4 14B14B12 GB RAMLeichtgewichtiges Reasoning, MathematikBestes in seiner Klasse

8.4 Einschrankungen lokaler Modelle

Empfohlene Konfiguration: Verwenden Sie Ollama-Modelle als letzte Absicherung am Ende der Fallback-Kette oder als Primary-Modell fur einfache Aufgaben, bei denen keine Spitzen-Reasoning-Fahigkeit erforderlich ist.

IX. OpenRouter -- Ein Key fur alle Modelle

OpenRouter ist eine API-Aggregationsplattform, die eine einheitliche API-Schnittstelle fur den Zugriff auf uber 200 Modelle bietet, darunter Claude, GPT, Gemini, DeepSeek und alle anderen fuhrenden Modelle.

9.1 Einrichtung

openclaw models auth setup-token --provider openrouter

Gehen Sie zu OpenRouter, um einen API Key zu erstellen, und geben Sie ihn ein. Das Modell-ID-Format lautet openrouter:anthropic/claude-sonnet-4-6.

9.2 Wann sollte OpenRouter verwendet werden

Hinweis: OpenRouter erhebt eine geringe Servicegebuhr auf die ursprunglichen Modellpreise, und die Latenz ist in der Regel etwas hoher als bei einer direkten Verbindung zum Provider. Fur Benutzer, die ein bestimmtes Modell langfristig nutzen, ist die direkte Verbindung zum Original-Provider wirtschaftlicher.

X. Modell-Leistungsvergleich in der Praxis

Nachfolgend finden Sie die Ergebnisse unserer Leistungstests der verschiedenen Modelle in realen OpenClaw-Einsatzszenarien. Die Tests umfassen vier Kernszenarien: Codegenerierung, Dokumentenzusammenfassung, mehrstufiges Reasoning und Befehlsverstandnis bei Browser-Automatisierung.[11]

ModellCodegenerierung (Korrektheit)Dokumentenzusammenfassung (Qualitatswert)Mehrstufiges Reasoning (Erfolgsrate)Browser-Automatisierung (Instruktionsbefolgungsrate)Durchschnittliche Latenz
Claude Opus 4.694%9,2/1091%93%3,8s
Claude Sonnet 4.691%8,8/1087%90%2,1s
GPT-4o88%8,5/1084%87%1,8s
GPT-4.5 Preview90%9,0/1089%88%5,2s
Gemini 2.5 Pro87%8,6/1086%85%2,4s
Gemini 2.5 Flash79%8,0/1074%78%0,9s
DeepSeek V482%8,1/1080%76%2,8s
DeepSeek R285%8,3/1088%74%4,5s
Ollama Qwen 2.5 32B74%7,5/1068%65%6,2s*
Ollama Llama 3.3 70B80%8,0/1077%72%8,1s*

* Die Ollama-Latenz basiert auf einer Apple M3 Max 128 GB Testumgebung. Die tatsachliche Latenz variiert erheblich je nach Hardwarespezifikation.

10.1 Erlauterung der Testmethodik

10.2 Wichtigste Erkenntnisse

Aus den Testdaten lassen sich folgende Schlussfolgerungen ableiten:

XI. Konfiguration in der Praxis: Primary + Fallback-Strategien

Nach der theoretischen Analyse kommen wir nun zur praktischen Konfiguration. Nachfolgend finden Sie drei gangige Modellkonfigurationsstrategien, aus denen Sie je nach Ihren Anforderungen wahlen konnen.[8]

11.1 Strategie 1: Qualitatsorientiert

Geeignet fur: Softwareentwicklungsteams, Szenarien, die hochwertige Codegenerierung erfordern.

# Primary konfigurieren
openclaw config set agents.defaults.model.primary claude-sonnet-4-6

# Fallback konfigurieren
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro"]'

Entsprechender openclaw.json-Ausschnitt:

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "claude-sonnet-4-6",
        "fallbacks": ["gpt-4o", "gemini-2.5-pro"]
      }
    }
  }
}

11.2 Strategie 2: Kostenorientiert

Geeignet fur: Einzelentwickler, Startup-Teams mit begrenztem Budget, Massenverarbeitung von Dokumenten.

openclaw config set agents.defaults.model.primary gemini-2.5-flash
openclaw config set agents.defaults.model.fallbacks '["deepseek-chat", "ollama:qwen2.5:32b"]'

Die monatlichen Kosten dieser Konfiguration lassen sich auf unter $5 beschranken (bei durchschnittlich einigen Dutzend Aufrufen pro Tag), und die Kombination mit einem lokalen Modell als Absicherung stellt sicher, dass der Betrieb auch bei einem Cloud-Dienstausfall fortgesetzt werden kann.

11.3 Strategie 3: Enterprise-Hochverfugbarkeit

Geeignet fur: Produktionsumgebungen, Enterprise-Bereitstellungen, die einen 24/7-ununterbrochenen Dienst erfordern.

openclaw config set agents.defaults.model.primary claude-sonnet-4-6
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro", "deepseek-chat", "ollama:qwen2.5:32b"]'

Vier Fallback-Ebenen decken vier unabhangige Provider plus ein lokales Modell ab. Selbst wenn zwei bis drei Cloud-Dienste gleichzeitig Probleme haben, kann Ihr Agent weiterhin arbeiten. Dies ist die Konfiguration, die wir bei Enterprise-Bereitstellungen am haufigsten empfehlen.[12]

11.4 Konfiguration uberprufen

Verwenden Sie nach Abschluss der Konfiguration die folgenden Befehle zur Uberprufung:

# Aktuelle Modellkonfiguration anzeigen
openclaw config get agents.defaults.model

# Verbindung aller konfigurierten Provider testen
openclaw models status

# Schnelltest der Modellantwort
openclaw agent --message "Antworten Sie mit OK zur Verbindungsbestatigung"

XII. Differenzierte Modellkonfiguration fur Multi-Agenten

Eine der erweiterten Funktionen von OpenClaw ist die Moglichkeit, verschiedenen Agenten unterschiedliche Modelle zuzuweisen. Damit konnen Sie jedem Agenten je nach Spezialisierung das am besten geeignete Modell zuordnen und so Qualitat und Kosten ausgewogen berucksichtigen.[8]

12.1 Szenariobeispiel

Angenommen, Sie haben die folgenden drei Agenten:

12.2 Konfigurationsmethode

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "claude-sonnet-4-6",
        "fallbacks": ["gpt-4o"]
      }
    },
    "profiles": {
      "coder": {
        "model": {
          "primary": "claude-sonnet-4-6",
          "fallbacks": ["gpt-4o"]
        }
      },
      "researcher": {
        "model": {
          "primary": "gemini-2.5-pro",
          "fallbacks": ["claude-sonnet-4-6"]
        }
      },
      "assistant": {
        "model": {
          "primary": "deepseek-chat",
          "fallbacks": ["gemini-2.5-flash", "ollama:qwen2.5:32b"]
        }
      }
    }
  }
}

Uber agents.profiles konnen Sie die Standard-Modelleinstellungen fur jeden benannten Agenten uberschreiben. Wenn fur einen bestimmten Agenten keine Konfiguration vorhanden ist, erbt er automatisch die agents.defaults-Konfiguration.[1]

12.3 Konfiguration uber CLI

# Dediziertes Modell fur den Coder-Agenten konfigurieren
openclaw config set agents.profiles.coder.model.primary claude-sonnet-4-6

# Dediziertes Modell fur den Researcher-Agenten konfigurieren
openclaw config set agents.profiles.researcher.model.primary gemini-2.5-pro

# Kostengunstiges Modell fur den Assistant-Agenten konfigurieren
openclaw config set agents.profiles.assistant.model.primary deepseek-chat

XIII. Strategien zur Kostenkontrolle

Die Kosten fur AI-APIs konnen sich schnell summieren. Nachfolgend finden Sie praxiserprobte Strategien zur Kostenkontrolle.

13.1 Token-Budget-Einstellung

OpenClaw unterstutzt die Festlegung von Token-Limits fur jeden Agenten in der Konfigurationsdatei:[8]

openclaw config set agents.defaults.maxTokensPerTask 8000
openclaw config set agents.defaults.maxTokensPerDay 100000

Wenn das Limit fur eine einzelne Aufgabe oder den taglichen Verbrauch erreicht wird, stoppt der Agent die Ausfuhrung und benachrichtigt Sie -- so werden unerwartete Rechnungsexplosionen vermieden.

13.2 Gestufte Modellnutzung

Nicht alle Aufgaben erfordern das leistungsstarkste Modell. Eine praktische Strategie ist:

13.3 Kostenlose Kontingente nutzen

Folgende Provider bieten kostenlose Nutzungskontingente:

Fur Gelegenheitsnutzer ist es moglich, durch die Kombination von Geminis kostenloser Stufe + lokalen Ollama-Modellen eine vollstandig kostenlose OpenClaw-Erfahrung zu erzielen.

13.4 Beispiel zur Kostenschatzung

EinsatzszenarioTaglicher Token-Verbrauch (geschatzt)Empfohlenes ModellGeschatzte monatliche Kosten
Personliche Leichtnutzung~50K TokenGemini 2.5 Flash$0 ~ $2
Einzelentwickler~300K TokenClaude Sonnet 4.6$15 ~ $30
Kleines Team (3--5 Personen)~1M TokenClaude Sonnet + DeepSeek gemischt$30 ~ $60
Enterprise-Bereitstellung~10M TokenMulti-Modell-Fallback-Strategie$150 ~ $400

XIV. OAuth vs API Key: Welche Methode sollten Sie wahlen?

Dies ist eine der am haufigsten gestellten Fragen von OpenClaw-Benutzern. Beide Authentifizierungsmethoden haben ihre Vor- und Nachteile, und die Wahl hangt von Ihrem Einsatzszenario ab.[2]

VergleichskriteriumOAuth-AutorisierungAPI Key
EinrichtungsschwierigkeitSehr einfach -- Ein-Klick-Autorisierung im BrowserMittel -- erfordert Anmeldung im Provider-Backend zur Erstellung
Token-VerwaltungAutomatische Aktualisierung, keine manuelle Wartung erforderlichDauerhaft gultig (es sei denn, manuell widerrufen)
Rate LimitsIn der Regel niedriger (gemeinsames OAuth-Kontingent)In der Regel hoher (unabhangiges Kontingent, tarifabhangig erhohbar)
AbrechnungskontrolleAn personliches Konto gebunden, weniger transparente AbrechnungDedizierter Key mit Budgetlimit moglich
Multi-Gerate-NutzungJedes Gerat erfordert separate AutorisierungEin Key kann auf mehreren Geraten verwendet werden
SicherheitToken mit kurzer Gultigkeit, geringeres Leakage-RisikoLange Gultigkeit, sorgfaltige Aufbewahrung erforderlich
TeamzusammenarbeitUngeeignet -- an personliches Konto gebundenGeeignet -- Organisationskonten und Projekt-Keys moglich

14.1 Empfohlene Vorgehensweise

14.2 Authentifizierungsmethode wechseln

Wenn Sie bereits OAuth verwenden, aber auf API Key umstellen mochten:

# Vorhandene Authentifizierung entfernen und neu einrichten
openclaw models auth setup-token --provider anthropic

Der umgekehrte Vorgang funktioniert genauso -- widerrufen Sie zunachst den API Key und verwenden Sie dann auth login fur die OAuth-Autorisierung.[9]

XV. Haufige Probleme und Fehlerbehebung

Nachfolgend finden Sie die haufigsten Probleme und Losungen bei der Konfiguration von OpenClaw-Modellen.

15.1 Authentifizierungsfehler (Auth Error)

Symptom: Error: Authentication failed for provider anthropic

Losungsschritte:

# 1. Modellstatus uberprufen
openclaw models status

# 2. Bei Anzeige von "expired" erneut authentifizieren
openclaw models auth login --provider anthropic

# 3. Bei Verwendung eines API Key sicherstellen, dass der Key gultig ist
openclaw models auth setup-token --provider anthropic

# 4. Vollstandige Diagnose durchfuhren
openclaw doctor

15.2 Rate Limit

Symptom: Error: Rate limit exceeded (429)

Losungen:

15.3 Modellwechsel wird nicht wirksam

Symptom: Nach Ausfuhrung von openclaw config set verwendet der Agent weiterhin das alte Modell.

Losungen:

# 1. Bestatigen, dass die Einstellung geschrieben wurde
openclaw config get agents.defaults.model

# 2. Gateway neu starten, um die Einstellung zu aktivieren
openclaw gateway restart

# 3. Falls immer noch nicht wirksam, prufen, ob ein Agent Profile den Standardwert uberschreibt
openclaw config get agents.profiles

15.4 Ollama-Verbindungsfehler

Symptom: Error: Cannot connect to Ollama at 127.0.0.1:11434

Losungen:

# 1. Sicherstellen, dass der Ollama-Dienst lauft
ollama serve

# 2. Bestatigen, dass das Modell heruntergeladen wurde
ollama list

# 3. Bei Verwendung eines benutzerdefinierten Ports die Ollama-Verbindungsadresse in OpenClaw konfigurieren
openclaw config set providers.ollama.baseUrl "http://127.0.0.1:11434"

15.5 Fallback wird nicht automatisch ausgelost

Symptom: Nach dem Fehlschlagen des Primary-Modells meldet der Agent direkt einen Fehler, anstatt zum Fallback zu wechseln.

Losungen:

15.6 Ungewohnlich hohe Kosten

Symptom: Die API-Rechnung ist deutlich hoher als erwartet.

Losungen:

XVI. Fazit: Empfehlungsmatrix fur die Modellauswahl

Es gibt keine „einzig richtige Antwort" bei der Modellauswahl -- die optimale Konfiguration hangt von Ihrem Budget, Ihren Einsatzszenarien und Ihren Zuverlassigkeitsanforderungen ab. Nachfolgend finden Sie unsere Empfehlungsmatrix nach verschiedenen Benutzertypen:

BenutzertypPrimary-ModellFallback-ModellGeschatzte monatliche KostenKernuberlegung
Einsteiger / ErkundungsphaseGemini 2.5 FlashOllama Qwen 2.5$0 ~ $5Kostenloser Einstieg
EinzelentwicklerClaude Sonnet 4.6GPT-4o, Gemini Flash$15 ~ $40Codequalitat hat Prioritat
DatenanalystGemini 2.5 ProClaude Sonnet, DeepSeek$10 ~ $30Verarbeitung langer Kontexte
Startup-TeamDeepSeek V4Claude Sonnet, Gemini Flash$20 ~ $50Kostensensitiv
Enterprise-IT-AbteilungClaude Sonnet 4.6GPT-4o, Gemini Pro, DeepSeek, Ollama$100 ~ $500Hochverfugbarkeit, Sicherheits-Compliance
Hohe SicherheitsanforderungenOllama Llama 3.3 70BOllama Qwen 2.5 32BHardwarekostenVollstandig Offline, Daten verlassen nicht das Unternehmen

Abschliessende Empfehlung

Wenn Sie zum ersten Mal die Modelle fur OpenClaw konfigurieren, lautet unsere Empfehlung ganz einfach:

  1. Richten Sie zunachst uber OAuth Anthropic Claude Sonnet 4.6 als Primary ein -- dies ist derzeit die beste Gesamtleistungswahl[3]
  2. Richten Sie dann uber OAuth Google Gemini 2.5 Flash als Fallback ein -- eine kostenlose oder ausserst gunstige Backup-Losung[5]
  3. Nach einigen Tagen Nutzung entscheiden Sie basierend auf Ihrem tatsachlichen Verbrauch, ob Anpassungen erforderlich sind -- Wechsel zum API Key, Hinzufugen weiterer Fallbacks oder Konfiguration dedizierter Modelle fur verschiedene Agenten

Das Modellverwaltungssystem von OpenClaw ist flexibel genug, um Strategieanpassungen jederzeit ohne Neubereitstellung des gesamten Agent-Systems zu ermoglichen.[12] Nutzen Sie den Primary + Fallback-Mechanismus effektiv, verteilen Sie die Modelle sinnvoll auf verschiedene Agenten und kombinieren Sie dies mit Token-Budget-Kontrolle -- wenn Sie diese drei Aspekte beherrschen, finden Sie die optimale Balance zwischen Qualitat, Kosten und Zuverlassigkeit.

Wenn Sie detailliertere OpenClaw-Konfigurationsanleitungen benotigen, empfehlen wir die Lekture unserer Artikelserie: Der vollstandige OpenClaw-Konfigurationsleitfaden behandelt die gesamte Struktur von openclaw.json, wahrend OpenClaw Architekturanalyse und Praxis-Bereitstellungsleitfaden Sie Schritt fur Schritt durch den gesamten Installations- und Bereitstellungsprozess fuhrt.