OpenClaw noch nicht installiert? Klicken Sie hier fur die Ein-Klick-Installationsanweisungen
curl -fsSL https://openclaw.ai/install.sh | bashiwr -useb https://openclaw.ai/install.ps1 | iexcurl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd- OpenClaw unterstutzt nativ sechs API Provider (Anthropic, OpenAI, Google, DeepSeek, Ollama, OpenRouter). Jeder Provider kann uber OAuth oder API Key authentifiziert werden und unterstutzt einen Primary + Fallback Zweischicht-Modellwechselmechanismus[1]
- Im Praxisvergleich zeigte Anthropic Claude 3.5 Sonnet die beste Leistung bei Codegenerierung und Reasoning-Aufgaben; Google Gemini 2.5 Flash bietet bei alltaglichen Dialogen und Zusammenfassungsaufgaben das beste Preis-Leistungs-Verhaltnis zu ausserst niedrigen Kosten[11]
- DeepSeek V4 ist derzeit die gunstigste Cloud-Modelloption im OpenClaw-Okosystem -- Input-Token kosten nur $0,27/1M und eignen sich fur die Massenverarbeitung von Dokumenten sowie budgetsensitive Anwendungsszenarien[6]
- Im Bereich der lokalen Bereitstellung ermoglicht die Ollama-Integration den Betrieb von OpenClaw in einer vollstandig Offline-Umgebung. In Kombination mit Open-Source-Modellen wie Qwen 2.5 32B oder Llama 3.3 70B lasst sich eine Leistung erzielen, die nahe an Cloud-Modellen liegt[7]
- Fur Enterprise-Bereitstellungen empfehlen wir eine dreistufige Fallback-Strategie bestehend aus „Claude Sonnet als Hauptmodell + GPT-4o als Backup + lokales Modell als letzte Absicherung", um eine Dienstverfugbarkeit von uber 99,9 % sicherzustellen[8]
- OAuth-Authentifizierung reduziert im Vergleich zum API Key die Komplexitat der Schlusselverwaltung, ist jedoch durch die Rate-Limits der jeweiligen Provider begrenzt; API Keys bieten flexiblere Nutzungskontrolle und Abrechnungstrennung[2]
I. Warum die Modellauswahl die wichtigste Entscheidung bei OpenClaw ist
OpenClaw ist das meistbeachtete Open-Source-AI-Agent-Framework des Jahres 2026 und bezieht seine Kernfahigkeiten aus den grossen Sprachmodellen (LLMs), mit denen es verbunden ist.[10] Allerdings unterscheiden sich verschiedene Modelle erheblich in Bezug auf Reasoning-Fahigkeiten, Codegenerierungsqualitat, Antwortgeschwindigkeit und Kostenstruktur. Mit dem richtigen Modell kann Ihr AI-Agent komplexe Browser-Automatisierung und mehrstufige Workflows prazise ausfuhren; mit dem falschen Modell drohen langsame Antworten, fehlerhaftes Befehlsverstandnis oder sogar unkontrollierte Kosten.
Dieser Artikel geht von den Architekturprinzipien aus und zerlegt systematisch den Modellverwaltungsmechanismus von OpenClaw. Wir bewerten die Modellleistung aller sechs API Provider einzeln und bieten vollstandige Einrichtungsanleitungen, Kostenanalysen und Enterprise Best Practices. Ob Sie ein Einsteiger sind, der OpenClaw gerade erst installiert hat, ein Einzelentwickler, der API-Kosten senken mochte, oder ein technischer Leiter, der Enterprise-Bereitstellungsoptionen evaluiert -- dieser Leitfaden liefert Ihnen die umfassendste Entscheidungsgrundlage.
II. Uberblick uber die OpenClaw-Modellarchitektur
Bevor wir die einzelnen Modelle im Detail vergleichen, ist es wichtig zu verstehen, wie OpenClaw Modelle verwaltet. Dieses Architekturdesign bestimmt die Logik all Ihrer nachfolgenden Konfigurationen.[1]
2.1 Provider-Model-Schichtarchitektur
OpenClaw teilt die Modellverwaltung in zwei Ebenen auf:
- Provider (Anbieter): Bezeichnet den Dienstanbieter, der die AI-Modell-API bereitstellt -- Anthropic, OpenAI, Google, DeepSeek, Ollama (lokal), OpenRouter (Aggregator). Jeder Provider verfugt uber eigene Authentifizierungsmethoden und Abrechnungsmodelle
- Model (Modell): Bezeichnet die spezifische Modellversion unter einem Provider -- beispielsweise
claude-opus-4-6,claude-sonnet-4-6unter Anthropic;gpt-4o,gpt-4.5-previewunter OpenAI
Der Vorteil dieses Schichtdesigns: Sie konnen die Authentifizierung fur mehrere Provider gleichzeitig konfigurieren und dann auf Modellebene frei wechseln, ohne jedes Mal die Authentifizierung neu einrichten zu mussen.
2.2 Primary + Fallback Zweischicht-Mechanismus
Die Modellkonfiguration von OpenClaw verwendet eine Primary (Haupt) + Fallback (Backup) Zweischicht-Architektur -- dies ist der Kern des Zuverlassigkeitsdesigns:[8]
// openclaw.json -- Modellkonfigurationsstruktur
{
"agents": {
"defaults": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o", "gemini-2.5-flash"]
}
}
}
}
Die Funktionslogik ist wie folgt:
- Bei jeder Aufgabenausfuhrung durch den Agenten wird zunachst das Primary-Modell verwendet
- Wenn das Primary-Modell nicht verfugbar ist (API-Drosselung, Dienstunterbrechung, abgelaufene Authentifizierung), versucht das System der Reihe nach die Modelle in der Fallback-Liste
- Das erste Modell, das erfolgreich antwortet, wird fur diese Aufgabe verwendet
- Bei jeder neuen Aufgabe wird vorrangig das Primary-Modell versucht (es bleibt nicht am Fallback „kleben")
Das bedeutet: Selbst wenn die Anthropic-API vorubergehend Probleme hat, kann Ihr OpenClaw-Agent uber Modelle von OpenAI oder Google weiterarbeiten -- fur Produktionsumgebungen ist dies eine unverzichtbare Zuverlassigkeitsgarantie.
2.3 Authentifizierungsverwaltung: OAuth vs API Key
OpenClaw unterstutzt zwei Authentifizierungsmethoden, wobei jeder Provider mindestens eine davon unterstutzt:[2]
- OAuth (interaktive Autorisierung): Der Autorisierungsablauf wird uber den Browser abgeschlossen, Token werden automatisch verwaltet und aktualisiert. Geeignet fur Einzelbenutzer, einfachste Einrichtung
- API Key (Schlusselauthentifizierung): Manuelles Eingeben des API-Schlussels, der von der Provider-Website bezogen wird. Geeignet fur Unternehmenskunden mit praziser Nutzungs- und Abrechnungskontrolle
Authentifizierungsinformationen werden einheitlich in ~/.openclaw/auth-profiles.json gespeichert und sind von der Hauptkonfigurationsdatei openclaw.json getrennt, um das Risiko einer versehentlichen Offenlegung zu verringern.
III. Ubersicht der unterstutzten API Provider
Nachfolgend finden Sie einen vollstandigen Vergleich aller derzeit von OpenClaw unterstutzten API Provider. Diese Tabelle hilft Ihnen, die wesentlichen Unterschiede schnell zu erfassen:[1]
| Provider | Empfohlenes Modell | Authentifizierung | Input / Output (1M Token) | Rate Limit | Bestes Einsatzszenario |
|---|---|---|---|---|---|
| Anthropic | Claude 3.5 Sonnet | OAuth / API Key | $3 / $15 | 4.000 RPM (bezahlt) | Codegenerierung, logisches Reasoning |
| OpenAI | GPT-4o | OAuth / API Key | $2,5 / $10 | 10.000 RPM (Tier 5) | Allgemeine Aufgaben, multimodal |
| Gemini 2.5 Flash | OAuth / API Key | $0,15 / $0,60 | 2.000 RPM (kostenlos) | Alltagsdialoge, Zusammenfassungen | |
| DeepSeek | DeepSeek V4 | API Key | $0,27 / $1,10 | 500 RPM | Massenverarbeitung, kostenorientiert |
| Ollama (lokal) | Qwen 2.5 32B | Keine Authentifizierung | Kostenlos (Hardwarekosten) | Hardwarelimitierung | Offline, Datenschutz, Experimente |
| OpenRouter | Modellabhangig | API Key | Modellabhangig | Tarifabhangig | Aggregation mehrerer Anbieter, einheitliche Abrechnung |
Im Folgenden analysieren wir jeden Provider einzeln im Detail hinsichtlich Modelleigenschaften, Einrichtungsmethoden und Einsatzszenarien.
IV. Anthropic Claude Serie -- Die erste Wahl fur Code und Reasoning
Die Claude-Serie von Anthropic ist das standardmassig empfohlene Modell fur OpenClaw und die am grundlichsten getestete Modellfamilie im gesamten OpenClaw-Okosystem.[3] Das ist kein Zufall -- die Kernentwickler von OpenClaw nutzen Claude intensiv fur die tagliche Entwicklung, weshalb die Kompatibilitat zwischen dem Framework und Claude am besten ist.
4.1 Verfugbare Modelle
| Modellname | Modell-ID | Context Window | Input / Output (1M Token) | Besonderheit |
|---|---|---|---|---|
| Claude Opus 4.6 | claude-opus-4-6 | 200K | $15 / $75 | Starkste Reasoning-Fahigkeit, geeignet fur komplexe mehrstufige Aufgaben |
| Claude Sonnet 4.6 | claude-sonnet-4-6 | 200K | $3 / $15 | Bestes Preis-Leistungs-Verhaltnis, ausserst hohe Codegenerierungsqualitat |
| Claude 3.5 Sonnet | claude-3-5-sonnet-20241022 | 200K | $3 / $15 | Stabiles und zuverlassiges Vorgangermodell der Spitzenklasse |
| Claude 3.5 Haiku | claude-3-5-haiku-20241022 | 200K | $0,80 / $4 | Leichtgewichtig und schnell, geeignet fur einfache Aufgaben |
4.2 Authentifizierungseinrichtung
Methode 1: OAuth-Autorisierung (empfohlen fur Einsteiger)
openclaw models auth login --provider anthropic
Nach der Ausfuhrung offnet sich der Browser, der Sie zur Anmeldung bei Ihrem Anthropic-Konto und zur Autorisierung fuhrt. Der Token wird automatisch gespeichert, und das System erinnert Sie automatisch an eine erneute Autorisierung bei Ablauf.[9]
Methode 2: API Key (empfohlen fur Unternehmenskunden)
openclaw models auth setup-token --provider anthropic
Das System fordert Sie zur Eingabe des API Key auf. Diesen konnen Sie auf der Seite „API Keys" in der Anthropic Console erhalten. Es wird empfohlen, einen dedizierten API Key fur OpenClaw zu erstellen, um die Nutzung besser verfolgen und Budget-Warnungen einrichten zu konnen.
4.3 Warum Claude ideal fur OpenClaw ist
Die Claude-Serie uberzeugt in OpenClaw-Agent-Szenarien aus drei Grunden:
- Starke Instruktionsbefolgung: Claude verfugt uber eine hervorragende Fahigkeit, komplexe mehrstufige Anweisungen zu verstehen und auszufuhren -- dies ist entscheidend, wenn der Agent Aufgaben eigenstandig zerlegen muss
- Hohe Codegenerierungsqualitat: In Benchmarks wie SWE-bench und HumanEval liegt die Korrektheit der Codegenerierung von Claude Sonnet dauerhaft in den Spitzenpositionen[11]
- Sicherheitsdesign: Die Constitutional AI-Trainingsmethode von Claude fuhrt dazu, dass das Modell bei potenziell gefahrlichen Operationen eher zur Ruckfrage tendiert als zur sofortigen Ausfuhrung -- fur einen AI-Agenten mit Computerzugriff ist dies eine wichtige Sicherheitseigenschaft[3]
Empfohlene Konfiguration: Setzen Sie claude-sonnet-4-6 als Primary und claude-3-5-haiku-20241022 als erste Position in der Fallback-Liste (fur die Herabstufung bei API-Drosselung).
V. OpenAI GPT Serie -- Der Allrounder fur Universalitat und Multimodalitat
Die GPT-Serie von OpenAI ist die weltweit am meisten genutzte LLM-API und verfugt uber das umfassendste Okosystem sowie die hochsten Rate-Limit-Kontingente.[4]
5.1 Verfugbare Modelle
| Modellname | Modell-ID | Context Window | Input / Output (1M Token) | Besonderheit |
|---|---|---|---|---|
| GPT-4.5 Preview | gpt-4.5-preview | 128K | $75 / $150 | Starkste universelle Fahigkeit, ausserst hohe Kosten |
| GPT-4o | gpt-4o | 128K | $2,50 / $10 | Bestes universelles Preis-Leistungs-Verhaltnis, multimodal |
| GPT-4o mini | gpt-4o-mini | 128K | $0,15 / $0,60 | Leichtgewichtig und schnell, ausserst niedrige Kosten |
| o3-mini | o3-mini | 200K | $1,10 / $4,40 | Reasoning-verbessertes Modell, Mathematik und Wissenschaft |
5.2 Authentifizierungseinrichtung
Methode 1: OAuth-Autorisierung
openclaw models auth login --provider openai
Der OAuth-Ablauf von OpenAI ist ahnlich wie bei Anthropic -- offnen Sie den Browser, schliessen Sie die Anmeldung ab, und der Token wird automatisch gespeichert.
Methode 2: API Key
openclaw models auth setup-token --provider openai
Gehen Sie zur OpenAI Platform, um einen API Key zu erstellen. OpenAI unterstutzt die Zuweisung von Projekten und Budgetlimits fur jeden Key -- ausserst vorteilhaft fur die Kostenkontrolle in Unternehmen.
5.3 Vorteilsszenarien der GPT-Serie
- Multimodale Aufgaben: GPT-4o zeigt hervorragende Leistung bei der Bildanalyse. Wenn Ihr OpenClaw-Agent Screenshots analysieren oder Diagramme interpretieren muss, ist GPT-4o eine ausgezeichnete Wahl
- Hochlast-Szenarien: Die Rate-Limit-Kontingente von OpenAI sind die hochsten unter allen Providern. Tier-5-Benutzer konnen 10.000 RPM erreichen -- geeignet fur hochfrequente Enterprise-Aufrufe[4]
- Function Calling: Die GPT-Serie bietet die ausgereifteste Unterstutzung fur strukturierte Tool-Aufrufe und liefert hohe Stabilitat in Szenarien, die prazise Formatausgaben erfordern
Empfohlene Konfiguration: Verwenden Sie gpt-4o als bevorzugtes Fallback fur Claude -- die Wahrscheinlichkeit, dass beide Provider gleichzeitig Probleme haben, ist ausserst gering, was eine ununterbrochene Dienstverfugbarkeit sicherstellt.
VI. Google Gemini Serie -- Der Geheimtipp fur Preis-Leistung und langen Kontext
Die Gemini-Serie von Google erhalt in der OpenClaw-Community zunehmende Aufmerksamkeit, hauptsachlich aufgrund ihrer ausserst wettbewerbsfahigen Preisgestaltung und des ubergrossen Context Window.[5]
6.1 Verfugbare Modelle
| Modellname | Modell-ID | Context Window | Input / Output (1M Token) | Besonderheit |
|---|---|---|---|---|
| Gemini 2.5 Pro | gemini-2.5-pro | 1M | $1,25 / $10 | Konig des langen Kontexts, tiefes Reasoning |
| Gemini 2.5 Flash | gemini-2.5-flash | 1M | $0,15 / $0,60 | Ultimatives Preis-Leistungs-Verhaltnis, hohe Geschwindigkeit |
| Gemini 2.0 Flash | gemini-2.0-flash | 1M | $0,10 / $0,40 | Niedrigste Kosten, unterstutzt kostenlose Stufe |
6.2 Authentifizierungseinrichtung
Methode 1: OAuth-Autorisierung (einfachste Einrichtung)
openclaw models auth login --provider google
Melden Sie sich einfach mit Ihrem Google-Konto an. Wenn Sie bereits ein Google Cloud-Konto haben, dauert der gesamte Vorgang weniger als 30 Sekunden.
Methode 2: API Key
openclaw models auth setup-token --provider google
Gehen Sie zu Google AI Studio, um einen API Key zu erstellen. Google bietet fur die Gemini-API eine grosszugige kostenlose Stufe -- bis zu 1.500 kostenlose API-Aufrufe pro Tag, was fur Einzelbenutzer moglicherweise vollig ausreichend ist.[5]
6.3 Die einzigartigen Vorteile von Gemini
- 1M Token Context Window: Das 1.000.000 Token Context Window der Gemini-Serie ist das grosste unter allen fuhrenden Modellen. Wenn Ihr OpenClaw-Agent uberlange Dokumente verarbeiten muss (z. B. eine gesamte Codebasis, Rechtsvertrage, technische Handbucher), kann Gemini diese vollstandig auf einmal einlesen, ohne sie segmentieren zu mussen
- Kostenloses Kontingent: Die kostenlose Stufe von Gemini 2.0 Flash ist fur Einsteiger und Leichtnutzungsszenarien sehr attraktiv -- in Kombination mit OpenClaw ermoglicht sie ein „Null-Kosten"-AI-Agent-Erlebnis
- Nativ multimodal: Gemini wurde von Anfang an als nativ multimodales Modell konzipiert und verfugt uber umfangreiche Erfahrung im Bereich Bild-, Audio- und Video-Verstandnis
Empfohlene Konfiguration: Setzen Sie gemini-2.5-flash als letzte Position in der Fallback-Liste -- wenn sowohl das Hauptmodell als auch das sekundare Backup nicht verfugbar sind, bietet Gemini Flash grundlegende Funktionsabsicherung zu ausserst niedrigen Kosten.
VII. DeepSeek Serie -- Die Open-Source-Kraft des Kostenstorers
DeepSeek ist ein AI-Labor aus China, dessen Modelle fur ihre erstaunlich niedrigen Kosten und ihr hervorragendes Open-Source-Okosystem bekannt sind.[6] In der OpenClaw-Community wird DeepSeek haufig fur kostensensitive Massenverarbeitungsaufgaben eingesetzt.
7.1 Verfugbare Modelle
| Modellname | Modell-ID | Context Window | Input / Output (1M Token) | Besonderheit |
|---|---|---|---|---|
| DeepSeek V4 | deepseek-chat | 128K | $0,27 / $1,10 | Universeller Dialog, ausserst niedrige Kosten |
| DeepSeek R2 | deepseek-reasoner | 128K | $0,55 / $2,19 | Reasoning-verstarktes Modell, einsehbare Gedankenkette |
7.2 Authentifizierungseinrichtung
DeepSeek unterstutzt derzeit ausschliesslich API Key-Authentifizierung:
openclaw models auth setup-token --provider deepseek
Gehen Sie zur DeepSeek Platform, um ein Konto zu registrieren und einen API Key zu erstellen. Neue Konten erhalten in der Regel ein kostenloses Guthaben, das fur erste Tests ausreicht.
7.3 Einsatzszenarien fur DeepSeek
- Massenverarbeitung von Dokumenten: Wenn Sie mit dem OpenClaw-Agenten Hunderte von Dokumenten stapelweise sortieren, klassifizieren und zusammenfassen mussen, ist der Kostenvorteil von DeepSeek sehr bedeutend -- dieselbe Aufgabe mit Claude Sonnet kann mehr als das 10-Fache kosten
- Reasoning-Aufgaben: Die Reasoning-Fahigkeit von DeepSeek R2 gehort zu den Spitzenmodellen unter den Open-Source-Modellen und eignet sich besonders fur mathematische Berechnungen und logische Analysen[6]
- Teams mit begrenztem Budget: Fur Startups oder Einzelentwickler, die die Moglichkeiten von AI-Agenten erkunden, ist DeepSeek der Einstiegspunkt mit der niedrigsten Schwelle
Hinweis: Der API-Dienst von DeepSeek kann gelegentlich aufgrund von Lastspitzen Verzogerungen aufweisen. Es wird empfohlen, DeepSeek in der Fallback-Liste mit anderen Providern zu kombinieren und es nicht als einzigen Provider zu verwenden.
VIII. Lokale Modelle: Ollama-Integration -- Der vollstandig Offline-AI-Agent
Fur Benutzer, die Wert auf Datenschutz legen, Offline-Betrieb benotigen oder einfach API-Kosten sparen mochten, bietet OpenClaw eine tiefe Integration mit Ollama.[7]
8.1 Was ist Ollama
Ollama ist ein Open-Source-Framework zum lokalen Betrieb von LLMs, mit dem Sie verschiedene Open-Source-Sprachmodelle auf Ihrem eigenen Computer ausfuhren konnen. Es kummert sich automatisch um Modell-Downloads, Quantisierung, GPU-Beschleunigung und andere technische Details und sorgt dafur, dass sich die Nutzung lokaler Modelle ahnlich angenehm anfuhlt wie Cloud-APIs.
8.2 Installation und Einrichtung
Schritt 1: Ollama installieren
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.ai/install.sh | sh
Schritt 2: Empfohlene Modelle herunterladen
# Empfohlen: Qwen 2.5 32B (Balance zwischen Leistung und Qualitat)
ollama pull qwen2.5:32b
# High-End: Llama 3.3 70B (erfordert 64GB+ RAM oder leistungsstarke GPU)
ollama pull llama3.3:70b
# Leichtgewichtig: Qwen 2.5 Coder 7B (Code-spezialisiert, fur schwachere Hardware geeignet)
ollama pull qwen2.5-coder:7b
Schritt 3: Ollama in OpenClaw aktivieren
# Sicherstellen, dass der Ollama-Dienst lauft
ollama serve
# OpenClaw fur die Verwendung eines Ollama-Modells konfigurieren
openclaw config set agents.defaults.model.primary ollama:qwen2.5:32b
Beachten Sie das Format der Modell-ID: ollama:-Prafix plus Modellname. OpenClaw erkennt automatisch den lokalen Ollama-Dienst und stellt die Verbindung her.[1]
8.3 Empfohlene lokale Modelle
| Modell | Parameteranzahl | Mindestspeicheranforderung | Einsatzszenario | Qualitatsbewertung |
|---|---|---|---|---|
| Qwen 2.5 32B | 32B | 24 GB RAM | Universelle Aufgaben, hervorragend auf Chinesisch | Nahe an GPT-4o mini |
| Llama 3.3 70B | 70B | 64 GB RAM | Komplexes Reasoning, hervorragend auf Englisch | Nahe an GPT-4o |
| Qwen 2.5 Coder 7B | 7B | 8 GB RAM | Spezialisiert auf Codegenerierung | Nahe an Claude Haiku |
| DeepSeek Coder V2 16B | 16B | 16 GB RAM | Code + Reasoning | Besser als GPT-4o mini |
| Phi-4 14B | 14B | 12 GB RAM | Leichtgewichtiges Reasoning, Mathematik | Bestes in seiner Klasse |
8.4 Einschrankungen lokaler Modelle
- Hardwareanforderungen: Um eine Qualitat zu erzielen, die Cloud-Modellen nahekommt, ist mindestens ein 32B-Modell erforderlich, was 24 GB+ RAM oder Videospeicher voraussetzt
- Langsamere Geschwindigkeit: Ohne High-End-GPU (wie NVIDIA RTX 4090 oder Apple M3 Ultra) ist die Antwortgeschwindigkeit deutlich langsamer als bei Cloud-APIs
- Qualitatslucke: Selbst die grossten Open-Source-Modelle weisen bei komplexen Reasoning-Aufgaben noch einen merklichen Abstand zu Claude Opus oder GPT-4.5 auf
Empfohlene Konfiguration: Verwenden Sie Ollama-Modelle als letzte Absicherung am Ende der Fallback-Kette oder als Primary-Modell fur einfache Aufgaben, bei denen keine Spitzen-Reasoning-Fahigkeit erforderlich ist.
IX. OpenRouter -- Ein Key fur alle Modelle
OpenRouter ist eine API-Aggregationsplattform, die eine einheitliche API-Schnittstelle fur den Zugriff auf uber 200 Modelle bietet, darunter Claude, GPT, Gemini, DeepSeek und alle anderen fuhrenden Modelle.
9.1 Einrichtung
openclaw models auth setup-token --provider openrouter
Gehen Sie zu OpenRouter, um einen API Key zu erstellen, und geben Sie ihn ein. Das Modell-ID-Format lautet openrouter:anthropic/claude-sonnet-4-6.
9.2 Wann sollte OpenRouter verwendet werden
- Schnelles Wechseln zwischen Modellen zum Testen: Mit einem einzigen API Key konnen Sie alle Modelle ausprobieren, ohne sich bei jedem Anbieter einzeln registrieren zu mussen
- Einheitliche Abrechnung: Die Kosten aller Modelle werden auf einer einzigen Rechnung zusammengefasst, was die Finanzverwaltung vereinfacht
- Zugang zu Nischenmodellen: OpenRouter enthalt viele Modelle, die uber direkte Provider schwer zuganglich sind
Hinweis: OpenRouter erhebt eine geringe Servicegebuhr auf die ursprunglichen Modellpreise, und die Latenz ist in der Regel etwas hoher als bei einer direkten Verbindung zum Provider. Fur Benutzer, die ein bestimmtes Modell langfristig nutzen, ist die direkte Verbindung zum Original-Provider wirtschaftlicher.
X. Modell-Leistungsvergleich in der Praxis
Nachfolgend finden Sie die Ergebnisse unserer Leistungstests der verschiedenen Modelle in realen OpenClaw-Einsatzszenarien. Die Tests umfassen vier Kernszenarien: Codegenerierung, Dokumentenzusammenfassung, mehrstufiges Reasoning und Befehlsverstandnis bei Browser-Automatisierung.[11]
| Modell | Codegenerierung (Korrektheit) | Dokumentenzusammenfassung (Qualitatswert) | Mehrstufiges Reasoning (Erfolgsrate) | Browser-Automatisierung (Instruktionsbefolgungsrate) | Durchschnittliche Latenz |
|---|---|---|---|---|---|
| Claude Opus 4.6 | 94% | 9,2/10 | 91% | 93% | 3,8s |
| Claude Sonnet 4.6 | 91% | 8,8/10 | 87% | 90% | 2,1s |
| GPT-4o | 88% | 8,5/10 | 84% | 87% | 1,8s |
| GPT-4.5 Preview | 90% | 9,0/10 | 89% | 88% | 5,2s |
| Gemini 2.5 Pro | 87% | 8,6/10 | 86% | 85% | 2,4s |
| Gemini 2.5 Flash | 79% | 8,0/10 | 74% | 78% | 0,9s |
| DeepSeek V4 | 82% | 8,1/10 | 80% | 76% | 2,8s |
| DeepSeek R2 | 85% | 8,3/10 | 88% | 74% | 4,5s |
| Ollama Qwen 2.5 32B | 74% | 7,5/10 | 68% | 65% | 6,2s* |
| Ollama Llama 3.3 70B | 80% | 8,0/10 | 77% | 72% | 8,1s* |
* Die Ollama-Latenz basiert auf einer Apple M3 Max 128 GB Testumgebung. Die tatsachliche Latenz variiert erheblich je nach Hardwarespezifikation.
10.1 Erlauterung der Testmethodik
- Codegenerierung: 50 LeetCode-Aufgaben der Schwierigkeitsgrade Medium/Hard zur Bewertung der Erstversuchserfolgsrate (Pass@1)
- Dokumentenzusammenfassung: Drei unabhangige Bewerter haben die Zusammenfassungsqualitat von 20 technischen Dokumenten bewertet; der Durchschnitt wurde ermittelt
- Mehrstufiges Reasoning: 30 Aufgaben mit 3--5 Reasoning-Schritten (z. B. Reiseplanung, Datenanalyse); Bewertung der Korrektheit des Endergebnisses
- Browser-Automatisierung: 40 Web-Bedienungsaufgaben in OpenClaw; Bewertung, ob die Anweisungen korrekt verstanden und ausgefuhrt wurden
10.2 Wichtigste Erkenntnisse
Aus den Testdaten lassen sich folgende Schlussfolgerungen ableiten:
- Erste Wahl fur Code und Reasoning ist Claude Sonnet 4.6: Zeigt die stabilste Leistung in den wichtigsten Agent-Szenarien bei deutlich niedrigeren Kosten als Opus und GPT-4.5
- Preis-Leistungs-Konig ist Gemini 2.5 Flash: Bietet bei weniger als 1/20 der Kosten von Claude Sonnet eine akzeptable Qualitat fur alltagliche Aufgaben
- Die Reasoning-Fahigkeit von DeepSeek R2 wird unterschatzt: Erreicht bei mehrstufigen Reasoning-Aufgaben eine Leistung nahe an Claude Sonnet, bei nur einem Funftel der Kosten
- Lokale Modelle eignen sich als „letzte Verteidigungslinie": Die Qualitat liegt noch hinter Cloud-Modellen zuruck, ist aber fur Offline- und Datenschutz-Szenarien unverzichtbar
XI. Konfiguration in der Praxis: Primary + Fallback-Strategien
Nach der theoretischen Analyse kommen wir nun zur praktischen Konfiguration. Nachfolgend finden Sie drei gangige Modellkonfigurationsstrategien, aus denen Sie je nach Ihren Anforderungen wahlen konnen.[8]
11.1 Strategie 1: Qualitatsorientiert
Geeignet fur: Softwareentwicklungsteams, Szenarien, die hochwertige Codegenerierung erfordern.
# Primary konfigurieren
openclaw config set agents.defaults.model.primary claude-sonnet-4-6
# Fallback konfigurieren
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro"]'
Entsprechender openclaw.json-Ausschnitt:
{
"agents": {
"defaults": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o", "gemini-2.5-pro"]
}
}
}
}
11.2 Strategie 2: Kostenorientiert
Geeignet fur: Einzelentwickler, Startup-Teams mit begrenztem Budget, Massenverarbeitung von Dokumenten.
openclaw config set agents.defaults.model.primary gemini-2.5-flash
openclaw config set agents.defaults.model.fallbacks '["deepseek-chat", "ollama:qwen2.5:32b"]'
Die monatlichen Kosten dieser Konfiguration lassen sich auf unter $5 beschranken (bei durchschnittlich einigen Dutzend Aufrufen pro Tag), und die Kombination mit einem lokalen Modell als Absicherung stellt sicher, dass der Betrieb auch bei einem Cloud-Dienstausfall fortgesetzt werden kann.
11.3 Strategie 3: Enterprise-Hochverfugbarkeit
Geeignet fur: Produktionsumgebungen, Enterprise-Bereitstellungen, die einen 24/7-ununterbrochenen Dienst erfordern.
openclaw config set agents.defaults.model.primary claude-sonnet-4-6
openclaw config set agents.defaults.model.fallbacks '["gpt-4o", "gemini-2.5-pro", "deepseek-chat", "ollama:qwen2.5:32b"]'
Vier Fallback-Ebenen decken vier unabhangige Provider plus ein lokales Modell ab. Selbst wenn zwei bis drei Cloud-Dienste gleichzeitig Probleme haben, kann Ihr Agent weiterhin arbeiten. Dies ist die Konfiguration, die wir bei Enterprise-Bereitstellungen am haufigsten empfehlen.[12]
11.4 Konfiguration uberprufen
Verwenden Sie nach Abschluss der Konfiguration die folgenden Befehle zur Uberprufung:
# Aktuelle Modellkonfiguration anzeigen
openclaw config get agents.defaults.model
# Verbindung aller konfigurierten Provider testen
openclaw models status
# Schnelltest der Modellantwort
openclaw agent --message "Antworten Sie mit OK zur Verbindungsbestatigung"
XII. Differenzierte Modellkonfiguration fur Multi-Agenten
Eine der erweiterten Funktionen von OpenClaw ist die Moglichkeit, verschiedenen Agenten unterschiedliche Modelle zuzuweisen. Damit konnen Sie jedem Agenten je nach Spezialisierung das am besten geeignete Modell zuordnen und so Qualitat und Kosten ausgewogen berucksichtigen.[8]
12.1 Szenariobeispiel
Angenommen, Sie haben die folgenden drei Agenten:
- Coder (Code-Entwicklung): Erfordert die starkste Codegenerierungsfahigkeit → Claude Sonnet 4.6 verwenden
- Researcher (Datenrecherche): Muss grosse Mengen an Dokumenten und langen Kontext verarbeiten → Gemini 2.5 Pro verwenden
- Assistant (Alltagsassistent): Erledigt einfache Dialoge, Erinnerungen, Terminplanung → DeepSeek V4 verwenden, um Kosten zu senken
12.2 Konfigurationsmethode
{
"agents": {
"defaults": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o"]
}
},
"profiles": {
"coder": {
"model": {
"primary": "claude-sonnet-4-6",
"fallbacks": ["gpt-4o"]
}
},
"researcher": {
"model": {
"primary": "gemini-2.5-pro",
"fallbacks": ["claude-sonnet-4-6"]
}
},
"assistant": {
"model": {
"primary": "deepseek-chat",
"fallbacks": ["gemini-2.5-flash", "ollama:qwen2.5:32b"]
}
}
}
}
}
Uber agents.profiles konnen Sie die Standard-Modelleinstellungen fur jeden benannten Agenten uberschreiben. Wenn fur einen bestimmten Agenten keine Konfiguration vorhanden ist, erbt er automatisch die agents.defaults-Konfiguration.[1]
12.3 Konfiguration uber CLI
# Dediziertes Modell fur den Coder-Agenten konfigurieren
openclaw config set agents.profiles.coder.model.primary claude-sonnet-4-6
# Dediziertes Modell fur den Researcher-Agenten konfigurieren
openclaw config set agents.profiles.researcher.model.primary gemini-2.5-pro
# Kostengunstiges Modell fur den Assistant-Agenten konfigurieren
openclaw config set agents.profiles.assistant.model.primary deepseek-chat
XIII. Strategien zur Kostenkontrolle
Die Kosten fur AI-APIs konnen sich schnell summieren. Nachfolgend finden Sie praxiserprobte Strategien zur Kostenkontrolle.
13.1 Token-Budget-Einstellung
OpenClaw unterstutzt die Festlegung von Token-Limits fur jeden Agenten in der Konfigurationsdatei:[8]
openclaw config set agents.defaults.maxTokensPerTask 8000
openclaw config set agents.defaults.maxTokensPerDay 100000
Wenn das Limit fur eine einzelne Aufgabe oder den taglichen Verbrauch erreicht wird, stoppt der Agent die Ausfuhrung und benachrichtigt Sie -- so werden unerwartete Rechnungsexplosionen vermieden.
13.2 Gestufte Modellnutzung
Nicht alle Aufgaben erfordern das leistungsstarkste Modell. Eine praktische Strategie ist:
- Einfache Aufgaben (Erinnerungen, Formatkonvertierung, feste Vorlagen): GPT-4o mini oder Gemini 2.5 Flash verwenden, Kosten ca. $0,15/1M Token
- Mittlere Aufgaben (Dokumentenzusammenfassungen, E-Mail-Erstellung, Datenaufbereitung): DeepSeek V4 oder Gemini 2.5 Flash verwenden, Kosten ca. $0,15--$0,27/1M Token
- Komplexe Aufgaben (Codegenerierung, mehrstufiges Reasoning, Fehlerbehebung): Claude Sonnet 4.6 oder GPT-4o verwenden, Kosten ca. $2,5--$3/1M Token
- Kritische Aufgaben (Architekturdesign, Sicherheitsaudit, komplexe Analysen): Claude Opus 4.6 verwenden, Kosten ca. $15/1M Token
13.3 Kostenlose Kontingente nutzen
Folgende Provider bieten kostenlose Nutzungskontingente:
- Google Gemini: Bis zu 1.500 kostenlose API-Aufrufe pro Tag (Gemini 2.0 Flash)[5]
- DeepSeek: Kostenloses Guthaben fur neue Konten (Betrag andert sich regelmasig, ublicherweise ca. $5--10)
- Ollama (lokal): Vollstandig kostenlos, nur Hardwarekosten
- OpenRouter: Einige Modelle bieten kostenlose Kontingente
Fur Gelegenheitsnutzer ist es moglich, durch die Kombination von Geminis kostenloser Stufe + lokalen Ollama-Modellen eine vollstandig kostenlose OpenClaw-Erfahrung zu erzielen.
13.4 Beispiel zur Kostenschatzung
| Einsatzszenario | Taglicher Token-Verbrauch (geschatzt) | Empfohlenes Modell | Geschatzte monatliche Kosten |
|---|---|---|---|
| Personliche Leichtnutzung | ~50K Token | Gemini 2.5 Flash | $0 ~ $2 |
| Einzelentwickler | ~300K Token | Claude Sonnet 4.6 | $15 ~ $30 |
| Kleines Team (3--5 Personen) | ~1M Token | Claude Sonnet + DeepSeek gemischt | $30 ~ $60 |
| Enterprise-Bereitstellung | ~10M Token | Multi-Modell-Fallback-Strategie | $150 ~ $400 |
XIV. OAuth vs API Key: Welche Methode sollten Sie wahlen?
Dies ist eine der am haufigsten gestellten Fragen von OpenClaw-Benutzern. Beide Authentifizierungsmethoden haben ihre Vor- und Nachteile, und die Wahl hangt von Ihrem Einsatzszenario ab.[2]
| Vergleichskriterium | OAuth-Autorisierung | API Key |
|---|---|---|
| Einrichtungsschwierigkeit | Sehr einfach -- Ein-Klick-Autorisierung im Browser | Mittel -- erfordert Anmeldung im Provider-Backend zur Erstellung |
| Token-Verwaltung | Automatische Aktualisierung, keine manuelle Wartung erforderlich | Dauerhaft gultig (es sei denn, manuell widerrufen) |
| Rate Limits | In der Regel niedriger (gemeinsames OAuth-Kontingent) | In der Regel hoher (unabhangiges Kontingent, tarifabhangig erhohbar) |
| Abrechnungskontrolle | An personliches Konto gebunden, weniger transparente Abrechnung | Dedizierter Key mit Budgetlimit moglich |
| Multi-Gerate-Nutzung | Jedes Gerat erfordert separate Autorisierung | Ein Key kann auf mehreren Geraten verwendet werden |
| Sicherheit | Token mit kurzer Gultigkeit, geringeres Leakage-Risiko | Lange Gultigkeit, sorgfaltige Aufbewahrung erforderlich |
| Teamzusammenarbeit | Ungeeignet -- an personliches Konto gebunden | Geeignet -- Organisationskonten und Projekt-Keys moglich |
14.1 Empfohlene Vorgehensweise
- Einzelbenutzer, Einsteiger: Verwenden Sie OAuth. Die schnellste Einrichtung, in wenigen Minuten einsatzbereit. Wenn Sie spater prazisere Nutzungskontrolle benotigen, konnen Sie auf API Key umstellen
- Unternehmenskunden, Teambereitstellungen: Verwenden Sie API Key. Ermoglicht die Anbindung an Organisationskonten, Budget-Warnungen, Nutzungsverfolgung pro Projekt und separate Keys fur verschiedene Umgebungen (Entwicklung/Test/Produktion)
- Hybridnutzung: Richten Sie API Keys fur haufig genutzte Haupt-Provider ein (prazise Kontrolle) und verwenden Sie OAuth fur gelegentlich genutzte Backup-Provider (schnelle Einrichtung)
14.2 Authentifizierungsmethode wechseln
Wenn Sie bereits OAuth verwenden, aber auf API Key umstellen mochten:
# Vorhandene Authentifizierung entfernen und neu einrichten
openclaw models auth setup-token --provider anthropic
Der umgekehrte Vorgang funktioniert genauso -- widerrufen Sie zunachst den API Key und verwenden Sie dann auth login fur die OAuth-Autorisierung.[9]
XV. Haufige Probleme und Fehlerbehebung
Nachfolgend finden Sie die haufigsten Probleme und Losungen bei der Konfiguration von OpenClaw-Modellen.
15.1 Authentifizierungsfehler (Auth Error)
Symptom: Error: Authentication failed for provider anthropic
Losungsschritte:
# 1. Modellstatus uberprufen
openclaw models status
# 2. Bei Anzeige von "expired" erneut authentifizieren
openclaw models auth login --provider anthropic
# 3. Bei Verwendung eines API Key sicherstellen, dass der Key gultig ist
openclaw models auth setup-token --provider anthropic
# 4. Vollstandige Diagnose durchfuhren
openclaw doctor
15.2 Rate Limit
Symptom: Error: Rate limit exceeded (429)
Losungen:
- Uberprufen Sie Ihre API-Tarifstufe und fuhren Sie bei Bedarf ein Upgrade fur hohere Kontingente durch[4]
- Konfigurieren Sie Fallback-Modelle -- bei Drosselung des Hauptmodells wird automatisch zu einem anderen Provider gewechselt
- Reduzieren Sie das Token-Limit pro Aufgabe:
openclaw config set agents.defaults.maxTokensPerTask 4000 - Im API Key-Modus unterstutzen einige Provider die Beantragung hoherer Rate Limits
15.3 Modellwechsel wird nicht wirksam
Symptom: Nach Ausfuhrung von openclaw config set verwendet der Agent weiterhin das alte Modell.
Losungen:
# 1. Bestatigen, dass die Einstellung geschrieben wurde
openclaw config get agents.defaults.model
# 2. Gateway neu starten, um die Einstellung zu aktivieren
openclaw gateway restart
# 3. Falls immer noch nicht wirksam, prufen, ob ein Agent Profile den Standardwert uberschreibt
openclaw config get agents.profiles
15.4 Ollama-Verbindungsfehler
Symptom: Error: Cannot connect to Ollama at 127.0.0.1:11434
Losungen:
# 1. Sicherstellen, dass der Ollama-Dienst lauft
ollama serve
# 2. Bestatigen, dass das Modell heruntergeladen wurde
ollama list
# 3. Bei Verwendung eines benutzerdefinierten Ports die Ollama-Verbindungsadresse in OpenClaw konfigurieren
openclaw config set providers.ollama.baseUrl "http://127.0.0.1:11434"
15.5 Fallback wird nicht automatisch ausgelost
Symptom: Nach dem Fehlschlagen des Primary-Modells meldet der Agent direkt einen Fehler, anstatt zum Fallback zu wechseln.
Losungen:
- Bestatigen Sie, dass die Authentifizierung fur die Fallback-Modelle abgeschlossen ist:
openclaw models status - Stellen Sie sicher, dass die Modellnamen korrekt geschrieben sind. Verwenden Sie
openclaw models list, um alle verfugbaren Modelle anzuzeigen[9] - Uberprufen Sie, ob die Fallback-Liste ein gultiges JSON-Array-Format hat
15.6 Ungewohnlich hohe Kosten
Symptom: Die API-Rechnung ist deutlich hoher als erwartet.
Losungen:
- Tagliches Token-Limit festlegen:
openclaw config set agents.defaults.maxTokensPerDay 100000 - Uberprufen, ob Schleifenaufgaben grosse Mengen an Token verbrauchen
- Rechnungswarnungen im Provider-Backend einrichten (Anthropic, OpenAI, Google unterstutzen dies)
- Fur nicht-kritische Aufgaben den Wechsel zu einem gunstigeren Modell in Betracht ziehen
XVI. Fazit: Empfehlungsmatrix fur die Modellauswahl
Es gibt keine „einzig richtige Antwort" bei der Modellauswahl -- die optimale Konfiguration hangt von Ihrem Budget, Ihren Einsatzszenarien und Ihren Zuverlassigkeitsanforderungen ab. Nachfolgend finden Sie unsere Empfehlungsmatrix nach verschiedenen Benutzertypen:
| Benutzertyp | Primary-Modell | Fallback-Modell | Geschatzte monatliche Kosten | Kernuberlegung |
|---|---|---|---|---|
| Einsteiger / Erkundungsphase | Gemini 2.5 Flash | Ollama Qwen 2.5 | $0 ~ $5 | Kostenloser Einstieg |
| Einzelentwickler | Claude Sonnet 4.6 | GPT-4o, Gemini Flash | $15 ~ $40 | Codequalitat hat Prioritat |
| Datenanalyst | Gemini 2.5 Pro | Claude Sonnet, DeepSeek | $10 ~ $30 | Verarbeitung langer Kontexte |
| Startup-Team | DeepSeek V4 | Claude Sonnet, Gemini Flash | $20 ~ $50 | Kostensensitiv |
| Enterprise-IT-Abteilung | Claude Sonnet 4.6 | GPT-4o, Gemini Pro, DeepSeek, Ollama | $100 ~ $500 | Hochverfugbarkeit, Sicherheits-Compliance |
| Hohe Sicherheitsanforderungen | Ollama Llama 3.3 70B | Ollama Qwen 2.5 32B | Hardwarekosten | Vollstandig Offline, Daten verlassen nicht das Unternehmen |
Abschliessende Empfehlung
Wenn Sie zum ersten Mal die Modelle fur OpenClaw konfigurieren, lautet unsere Empfehlung ganz einfach:
- Richten Sie zunachst uber OAuth Anthropic Claude Sonnet 4.6 als Primary ein -- dies ist derzeit die beste Gesamtleistungswahl[3]
- Richten Sie dann uber OAuth Google Gemini 2.5 Flash als Fallback ein -- eine kostenlose oder ausserst gunstige Backup-Losung[5]
- Nach einigen Tagen Nutzung entscheiden Sie basierend auf Ihrem tatsachlichen Verbrauch, ob Anpassungen erforderlich sind -- Wechsel zum API Key, Hinzufugen weiterer Fallbacks oder Konfiguration dedizierter Modelle fur verschiedene Agenten
Das Modellverwaltungssystem von OpenClaw ist flexibel genug, um Strategieanpassungen jederzeit ohne Neubereitstellung des gesamten Agent-Systems zu ermoglichen.[12] Nutzen Sie den Primary + Fallback-Mechanismus effektiv, verteilen Sie die Modelle sinnvoll auf verschiedene Agenten und kombinieren Sie dies mit Token-Budget-Kontrolle -- wenn Sie diese drei Aspekte beherrschen, finden Sie die optimale Balance zwischen Qualitat, Kosten und Zuverlassigkeit.
Wenn Sie detailliertere OpenClaw-Konfigurationsanleitungen benotigen, empfehlen wir die Lekture unserer Artikelserie: Der vollstandige OpenClaw-Konfigurationsleitfaden behandelt die gesamte Struktur von openclaw.json, wahrend OpenClaw Architekturanalyse und Praxis-Bereitstellungsleitfaden Sie Schritt fur Schritt durch den gesamten Installations- und Bereitstellungsprozess fuhrt.



