OpenClaw noch nicht installiert? Hier klicken für den Ein-Klick-Installationsbefehl
curl -fsSL https://openclaw.ai/install.sh | bash
iwr -useb https://openclaw.ai/install.ps1 | iex
curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
Bedenken bezüglich Ihres Computers? ClawTank läuft in der Cloud ohne Installation und ohne Risiko versehentlicher Löschungen
Key Findings
  • Multi-Agenten-Systeme können im Vergleich zu Einzelagenten Aufgaben mit 3- bis 5-fach höherer Komplexität bewältigen und gleichzeitig die Gesamtlatenz durch Parallelisierung um 40–60 % senken
  • OpenClaw Tutorial Agent Teams unterstützen drei Kollaborationsmodi: Orchestrator-Muster, Peer-to-Peer-Muster und Hierarchisches Muster, die je nach Aufgabencharakter flexibel kombiniert werden können
  • Subagenten kommunizieren über drei Mechanismen: strukturierte Nachrichtenübermittlung, gemeinsamer Speicher und Ereigniswarteschlangen – jeder Mechanismus hat spezifische Einsatzszenarien und Kostencharakteristika
  • Eine korrekte Rollenverteilung und Modellauswahl (leichtgewichtige Modelle für Routing, hochwertige Modelle für Reasoning) kann die gesamten Token-Kosten um bis zu 35 % senken
  • Im Vergleich zu AutoGen, CrewAI und LangGraph liegt der Hauptvorteil von OpenClaw Agent Teams in der deklarativen YAML-Konfiguration mit der niedrigsten Einstiegshürde, wobei die Flexibilität bei dynamischen Workflows noch Verbesserungspotenzial aufweist

Im Februar 2026 wuchs OpenClaw innerhalb von sechzig Tagen von 9.000 auf 157.000 GitHub-Sterne und wurde zu einem der beachtetsten Projekte im Bereich der Open-Source-KI-Agenten.[10] Hinter diesem Wachstum steht nicht nur der Durchbruch bei den Fähigkeiten einzelner Agenten, sondern vielmehr die Reife der Multi-Agenten-Kollaborationsarchitektur (Multi-Agent Architecture) – die es Entwicklern ermöglicht, KI-Agenten-„Teams" zusammenzustellen, um gemeinsam komplexe Aufgaben zu bewältigen, die ein einzelner Agent kaum meistern könnte.[2]

Dieser Artikel ist der vierte Teil der OpenClaw-Serie und konzentriert sich auf die vollständige technische Architektur von Agent Teams. Wir gehen von den grundlegenden Einschränkungen einzelner Agenten aus und analysieren schrittweise die Designlogik, Kommunikationsprotokolle und Aufgabendelegierungsmuster des OpenClaw Multi-Agenten-Systems. Zudem stellen wir zwei sofort einsetzbare Praxisbeispiele vor: ein Multi-Agenten-Kollaborationssystem für Forschungsteams sowie ein Code-Review-Agenten-Team in einer Entwicklungs-Pipeline. Abschließend vergleichen wir die wichtigsten Multi-Agenten-Frameworks auf dem Markt, um den Lesern bei einer fundierten Technologieauswahl zu helfen.

1. Warum Multi-Agenten-Systeme benötigt werden

Bevor wir in die technischen Details von OpenClaw eintauchen, ist es wichtig zu klären: Welche Aufgaben erfordern wirklich ein Multi-Agenten-System? Nicht jedes Problem rechtfertigt die zusätzliche Komplexität eines Multi-Agenten-Ansatzes.

1.1 Der wesentliche Unterschied in der Aufgabenkomplexität

Menschen bilden Teams, weil bestimmte Probleme von Natur aus mehrdimensional sind – sie erfordern das gleichzeitige Zusammenwirken von juristischer, finanzieller und technischer Expertise, nicht eine sequenzielle Abarbeitung. KI-Agenten stehen vor derselben Herausforderung. Wenn eine Aufgabe vom Agenten gleichzeitig Web-Scraping, Datenanalyse, natürliche Sprachgenerierung und Codeausführung verlangt, stößt ein einzelner Agent – egal wie groß das Context Window oder wie leistungsfähig das Modell – an die Grenzen der kognitiven Überlastung.

Der Gartner-Bericht 2025 weist darauf hin, dass KI-Agenten-Ökosysteme (Agent Ecosystems) einer der wichtigsten strategischen Technologietrends 2026 sein werden. Die treibende Kraft dahinter ist die Multi-Agenten-Kollaborationsarchitektur, die Organisationen die Fähigkeit zur Automatisierung von Unternehmensprozessen verleiht.[7]

1.2 Parallelisierbare Arbeit als Schlüsselindikator

Die einfachste Frage, um zu beurteilen, ob ein Multi-Agenten-System benötigt wird, lautet: „Welche Teilaufgaben können gleichzeitig ausgeführt werden?"

Beispiel: Die Erstellung eines Wettbewerbsanalyseberichts erfordert: (A) Scraping der Websites und Nachrichten der Wettbewerber; (B) Analyse der Finanzdaten; (C) Zusammenstellung eines Produktfunktionsvergleichs; (D) Zusammenfassung von Nutzerbewertungen. Diese vier Aufgaben sind logisch unabhängig voneinander und können vollständig parallel ausgeführt werden. Wenn ein einzelner Agent sie sequenziell bearbeitet und jede Aufgabe 5 Minuten dauert, beträgt die Gesamtzeit 20 Minuten. Werden vier Subagenten parallel eingesetzt, dauert es theoretisch nur 5 Minuten plus Koordinationsaufwand, also etwa 6–7 Minuten – eine Effizienzsteigerung um mehr als das Dreifache.

1.3 Spezialisierte Arbeitsteilung steigert die Ausgabequalität

Wissenschaftliche Forschung zeigt, dass die Definition klarer Rollen (Role Specification) für jeden Agenten in einem Multi-Agenten-System die Qualität der Aufgabenerfüllung signifikant verbessert. Die MetaGPT-Forschung hat ergeben, dass die Zuweisung klar definierter Rollen wie „Produktmanager", „Ingenieur" und „Tester" an Agenten, die nach entsprechenden SOPs arbeiten, die Qualität von Codegenerierungsaufgaben auf das Niveau menschlicher Ingenieurteams heben kann.[4]

OpenClaw Agent Teams setzen diese Erkenntnis auf Architekturebene um: Jeder Subagent verfügt nicht nur über einen eigenen System-Prompt, sondern kann auch mit spezifischen Skills-Sets und Modellauswahl verknüpft werden, wodurch „Spezialisierung" zu konfigurierbaren technischen Parametern wird.[1]

2. Engpässe einzelner Agenten und Skalierungsbedarf

Um den Wert von Multi-Agenten-Systemen zu verstehen, müssen wir zunächst ehrlich die Grenzen einzelner Agenten betrachten.

2.1 Physische Grenzen des Context Windows

Selbst High-End-Modelle wie Claude 3.5 Sonnet oder GPT-4o haben ein begrenztes Context Window (typischerweise 128K bis 200K Tokens). Bei Aufgaben, die gleichzeitig große Kontextmengen erfordern – etwa die Analyse einer Codebasis mit 100.000 Zeilen oder die Integration von 300 Forschungsarbeiten – kann ein einzelner Agent physisch nicht alle Informationen in einen einzigen Inferenzschritt einbeziehen.

Die Lösung von Multi-Agenten-Systemen ist verteilter Speicher: Jeder Subagent muss nur den Kontext innerhalb seines Verantwortungsbereichs pflegen, während der Koordinationsagent (Orchestrator) für die wissensübergreifende Integration zuständig ist. So kann das System auch dann effektiv arbeiten, wenn der Gesamtkontext der Aufgabe die Grenzen jedes einzelnen Modells weit übersteigt.

2.2 Grenzen bei der Aufgabenkomplexität

Einzelne Agenten zeigen bei der Bearbeitung hochkomplexer Aufgaben häufig folgende Fehlermuster:

Die Multi-Agenten-Architektur mildert diese Probleme durch „Separation of Concerns": Jeder Agent muss nur innerhalb eines begrenzten Aufgabenbereichs hochwertige Ausgaben liefern, und die Auswirkungen von Fehlern werden auf die Teilaufgabenebene beschränkt, ohne sich auf den gesamten Workflow auszubreiten.

2.3 Asymmetrie von Latenz und Kosten

Die Ausführungslatenz eines einzelnen Agenten ist die Summe aller Teilaufgaben; in einem Multi-Agenten-System können parallelisierbare Teilaufgaben gleichzeitig ausgeführt werden, wodurch die Latenz auf die Dauer der längsten Teilaufgabe plus Koordinationsaufwand komprimiert wird.

Die Kostenlogik ist noch raffinierter: Nicht alle Teilaufgaben erfordern das teuerste Modell. Wenn GPT-4o-mini für einfache Routing-Entscheidungen und Claude Opus für komplexes analytisches Reasoning verwendet wird, können die Gesamtkosten um 35–50 % gesenkt werden, während die Ausgabequalität bei kritischen Aufgaben beibehalten wird.[5]

2.4 Wartbarkeit und Skalierbarkeit

Aus Engineeringperspektive tendiert der System-Prompt eines einzelnen Agenten dazu, mit zunehmender Aufgabenkomplexität anzuwachsen und sich letztlich zu schwer wartbarem „Prompt Spaghetti" zu entwickeln. Die Multi-Agenten-Architektur zwingt Entwickler zur Modularisierung der Fähigkeiten. Der System-Prompt jedes Agenten bleibt schlank und fokussiert, und die Lesbarkeit, Testbarkeit und Wartbarkeit des Gesamtsystems verbessern sich erheblich.

3. Architekturdesign von OpenClaw Agent Teams

Das Multi-Agenten-System von OpenClaw basiert auf der Gateway-Architektur mit deklarativer YAML-Konfiguration als Kernprinzip und unterstützt drei grundlegende Agenten-Kollaborationsmuster.[9]

3.1 Architekturübersicht

Ein OpenClaw Agent Team besteht aus folgenden Kernkomponenten:

Im Folgenden sehen Sie eine grundlegende Agent-Team-Konfigurationsstruktur:

# openclaw-team.yaml
name: research-team
version: "1.0"

agents:
  coordinator:
    model: claude-3-5-sonnet
    system: |
      Sie sind der Forschungskoordinationsagent, verantwortlich für die Aufgabenzerlegung und Delegierung an spezialisierte Subagenten.
      Nach Erhalt einer Forschungsanfrage analysieren Sie die erforderlichen Teilaufgaben und delegieren diese parallel.
      Nach Erhalt aller Subagenten-Antworten integrieren Sie die Ergebnisse zu einem kohärenten Bericht.
    skills:
      - task-delegation
      - report-synthesis
    subagents:
      - web-scraper
      - data-analyst
      - report-writer

  web-scraper:
    model: gpt-4o-mini
    system: |
      Sie sind der Web-Informationssammlungsagent, spezialisiert auf die Extraktion strukturierter Informationen aus Webseiten.
      Nach Erhalt eines Suchauftrags geben Sie formatierte Rohdaten zurück, ohne Analysen durchzuführen.
    skills:
      - web-search
      - html-parser
    timeout: 30s

  data-analyst:
    model: claude-3-5-sonnet
    system: |
      Sie sind der Datenanalyseagent, verantwortlich für die Gewinnung von Erkenntnissen aus Rohdaten.
      Sie führen ausschließlich Analysen durch, keine Datensammlung oder Berichterstellung.
    skills:
      - data-analysis
      - chart-generation

  report-writer:
    model: claude-3-opus
    system: |
      Sie sind der professionelle Berichtserstellungsagent, verantwortlich für die Umwandlung von Analyseergebnissen in klare schriftliche Berichte.
      Halten Sie einen objektiven, neutralen Ton ein; jede Aussage muss durch Daten gestützt sein.
    skills:
      - markdown-formatter
      - citation-manager

team:
  coordination_mode: orchestrator
  max_parallel_agents: 3
  timeout: 300s
  shared_memory: true

3.2 Orchestrator-Muster (Orchestrator Pattern)

Das Orchestrator-Muster ist die häufigste Multi-Agenten-Architektur und eignet sich für Szenarien mit relativ festem Aufgabenablauf und Bedarf an zentraler Steuerung.

In diesem Muster übernimmt der Koordinationsagent (Orchestrator Agent) die Rolle des „Projektmanagers":

  1. Empfang der übergeordneten Aufgabenbeschreibung des Benutzers
  2. Zerlegung der Aufgabe in delegierbare Teilaufgaben
  3. Auswahl geeigneter Subagenten je nach Art der Teilaufgabe
  4. Überwachung des Fortschritts jedes Subagenten
  5. Integration der Ausgaben aller Subagenten
  6. Rückgabe des Endergebnisses an den Benutzer

Der Vorteil des Orchestrator-Musters liegt in der klaren Logik und einfachen Fehlersuche. Bei Aufgabenfehlern kann schnell identifiziert werden, welcher Subagent das Problem verursacht hat. Der Nachteil ist, dass der Koordinationsagent zum Single Point of Failure wird: Wenn das Reasoning des Koordinationsagenten fehlerhaft ist, wird die Ausgabe des gesamten Systems beeinträchtigt.

3.3 Peer-to-Peer-Muster (Peer-to-Peer Pattern)

Im Peer-to-Peer-Muster sind alle Agenten gleichgestellt und können direkt miteinander kommunizieren, ohne einen zentralen Koordinationsagenten. Dieses Muster eignet sich für Szenarien, in denen mehrere Parteien verhandeln und einen Konsens erzielen müssen, z. B. wenn mehrere Reviewagenten einen Vorschlag unabhängig bewerten und dann per Abstimmung entscheiden.

# peer-to-peer Konfigurationsbeispiel
team:
  coordination_mode: peer-to-peer
  communication:
    broadcast: true      # Nachrichten eines Agenten werden an alle Agenten gesendet
    consensus_required: true
    consensus_threshold: 0.67  # 2/3 der Agenten müssen zustimmen

Die Herausforderung des Peer-to-Peer-Musters liegt im möglichen Auftreten eines Message Storm – bei steigender Agentenzahl wächst die Anzahl der Broadcast-Nachrichten exponentiell. Daher empfiehlt OpenClaw, im Peer-to-Peer-Muster nicht mehr als fünf Agenten einzusetzen.

3.4 Hierarchisches Muster (Hierarchical Pattern)

Das hierarchische Muster kombiniert die Vorteile des Orchestrator- und des Peer-to-Peer-Musters und eignet sich für umfangreiche, komplexe Aufgaben. Die Architektur bildet eine Baumstruktur: Ein Root-Orchestrator verwaltet mehrere Suborchestrater auf mittlerer Ebene, die wiederum jeweils eigene Worker Agents verwalten.

# Hierarchisches Konfigurationsbeispiel
team:
  coordination_mode: hierarchical
  hierarchy:
    root: project-manager
    level_1:
      - research-lead    # verwaltet web-scraper, arxiv-searcher
      - dev-lead         # verwaltet coder, tester, reviewer
      - content-lead     # verwaltet writer, editor, translator

Dieses Muster eignet sich für Workflows auf Unternehmensebene, hat jedoch die höchste Konfigurationskomplexität und den größten Debugging-Aufwand. Es wird empfohlen, dieses Muster nur dann einzusetzen, wenn bestätigt ist, dass das einstufige Orchestrator-Muster die Anforderungen nicht erfüllen kann.

4. Subagent-Kommunikationsprotokolle

Die Leistung und Stabilität eines Multi-Agenten-Systems hängen maßgeblich vom Design der Kommunikationsmechanismen zwischen den Agenten ab. OpenClaw bietet drei Kommunikationsprotokolle, jeweils mit spezifischen Einsatzszenarien.[1]

4.1 Strukturierte Nachrichtenübermittlung (Structured Message Passing)

Die grundlegendste Kommunikationsmethode: Agent A schließt eine Aufgabe ab und verpackt das Ergebnis in ein standardisiertes Nachrichtenobjekt, das an Agent B gesendet wird. Das Nachrichtenformat von OpenClaw folgt dieser Struktur:

{
  "message_id": "msg_abc123",
  "sender": "web-scraper",
  "receiver": "data-analyst",
  "task_id": "research_task_001",
  "message_type": "task_result",
  "payload": {
    "status": "success",
    "data": { ... },
    "metadata": {
      "tokens_used": 1240,
      "execution_time_ms": 3200,
      "sources": ["https://example.com/article"]
    }
  },
  "timestamp": "2026-02-22T10:30:00Z"
}

Der Vorteil der strukturierten Nachrichtenübermittlung liegt in der starken Nachverfolgbarkeit – jede Nachricht hat eine eindeutige ID, was die nachträgliche Überprüfung und Fehlersuche erleichtert. Der Nachteil ist, dass bei Szenarien mit häufigem Austausch kleiner Datenmengen der Overhead der Nachrichtenverpackung einen erheblichen Anteil ausmachen kann.

4.2 Gemeinsamer Speicher (Shared Memory)

Gemeinsamer Speicher ermöglicht es mehreren Agenten, denselben Speicher-Namespace zu lesen und zu beschreiben. Dies eignet sich für Szenarien, in denen häufig Zwischenstände geteilt werden müssen. OpenClaw implementiert diesen Mechanismus über den Memory Store des Gateways:

# Gemeinsamen Speicher in der Agentenkonfiguration aktivieren
agents:
  coordinator:
    memory:
      shared_namespace: "research_project_001"
      read_access: ["web-scraper", "data-analyst", "report-writer"]
      write_access: ["coordinator", "data-analyst"]

  data-analyst:
    memory:
      shared_namespace: "research_project_001"
      # Liest Scraping-Daten aus dem gemeinsamen Speicher, schreibt Analyseergebnisse

Bei der Verwendung von gemeinsamem Speicher sind folgende Aspekte zu beachten:

4.3 Ereigniswarteschlange (Event Queue)

Die Ereigniswarteschlange ist der am besten geeignete Kommunikationsmechanismus für asynchrone Workflows. Agenten veröffentlichen Ereignisse (Publish), andere Agenten abonnieren (Subscribe) Ereignistypen, die sie interessieren, und werden bei Auslösung automatisch gestartet.

# Ereigniswarteschlangen-Konfiguration
team:
  event_bus:
    enabled: true
    events:
      - name: "scraping_completed"
        publisher: "web-scraper"
        subscribers: ["data-analyst"]
        trigger: "on_task_success"

      - name: "analysis_completed"
        publisher: "data-analyst"
        subscribers: ["report-writer", "coordinator"]
        trigger: "on_task_success"

      - name: "task_failed"
        publisher: "*"  # Jeder Agent kann Fehlerereignisse veröffentlichen
        subscribers: ["coordinator"]
        trigger: "on_error"

Die Ereigniswarteschlange ist tief in das Hooks-System von OpenClaw integriert: Hooks, die nach Abschluss einer Agentenaufgabe ausgelöst werden, können automatisch Ereignisse in die Warteschlange veröffentlichen und nachgelagerte Agenten starten. Dies ermöglicht eine vollständige Entkopplung der Zusammenarbeit zwischen Agenten – jeder Agent muss sich nur darum kümmern, „wann bin ich fertig", und nicht darum, „wer wartet auf mein Ergebnis".

4.4 Leitfaden zur Protokollauswahl

Szenariomerkmal Empfohlenes Protokoll Begründung
Lineare Pipeline, klare Schritte Strukturierte Nachrichtenübermittlung Hohe Nachverfolgbarkeit, einfaches Debugging
Häufiger Statusaustausch zwischen Agenten Gemeinsamer Speicher Reduzierter Serialisierungs-Overhead
Ereignisgesteuert, vielfältige Auslösebedingungen Ereigniswarteschlange Entkopplung der Agenten, Unterstützung dynamischer Workflows
Komplexe Mischszenarien Hybride Nutzung Auswahl des optimalen Protokolls je nach Teilaufgabe

5. Aufgabendelegierung und Rollenverteilungs-Designmuster

Die Leistung eines Multi-Agenten-Systems hängt maßgeblich davon ab, ob Aufgaben dem „richtigen Agenten" zugewiesen werden. OpenClaw bietet verschiedene Strategien zur Aufgabendelegierung.

5.1 Die drei Elemente der Rollendefinition

Eine gut gestaltete Subagent-Rolle sollte drei Kernelemente umfassen:

  1. Fähigkeitsgrenzen (Capability Boundary): Klare Definition dessen, was der Agent „tun kann" und „nicht tut". Agenten mit unklaren Grenzen neigen dazu, bei Aufgaben außerhalb ihres Zuständigkeitsbereichs zu halluzinieren oder unnötig über Grenzen hinauszugehen.
  2. Ein-/Ausgabevertrag (I/O Contract): Standardisierung des Eingabeformats und der Ausgabestruktur des Agenten. Strikte I/O-Verträge ermöglichen es, Agenten wie APIs von anderen Agenten aufzurufen und verbessern die Kompositionsfähigkeit des Systems.
  3. Fehlerverhalten (Failure Behavior): Definition, wie der Agent reagieren soll, wenn er eine Aufgabe nicht abschließen kann – stilles Scheitern, Fehlercode zurückgeben oder menschliche Intervention anfordern?
# Rollendefinitionsbeispiel: mit allen drei Elementen
agents:
  data-analyst:
    system: |
      【Fähigkeitsgrenzen】
      Sie sind spezialisiert auf Datenanalyse und statistische Erkenntnisgewinnung.
      Sie sammeln keine Daten, verfassen keine Berichte und führen keinen Code aus.

      【Eingabeformat】
      Sie empfangen JSON-formatierte strukturierte Daten mit den Feldern "raw_data" und "analysis_goal".

      【Ausgabeformat】
      Sie geben JSON mit folgenden Feldern zurück:
      - "key_findings": String-Array, jeder Eintrag maximal 50 Wörter
      - "statistics": Wichtige statistische Kennzahlen
      - "confidence": Konfidenzgrad der Analyseergebnisse (high/medium/low)

      【Fehlerverhalten】
      Bei unzureichender Datenqualität: {"status": "insufficient_data", "reason": "..."}

5.2 Skill-basiertes Routing (Skill-Based Routing)

Das Skills-System von OpenClaw ist tief in die Multi-Agenten-Architektur integriert: Der Koordinationsagent kann Aufgaben basierend auf den für eine Teilaufgabe erforderlichen Skills automatisch an den Subagenten mit den entsprechenden Fähigkeiten weiterleiten.

# Skill-Routing-Konfiguration
agents:
  coordinator:
    routing_strategy: skill-based
    routing_rules:
      - skill: "web-search"
        route_to: "web-scraper"
      - skill: "data-analysis"
        route_to: "data-analyst"
      - skill: "code-execution"
        route_to: "code-runner"
      - skill: "*"  # Standard-Routing
        route_to: "general-assistant"

5.3 Lastverteilung (Load Balancing)

Wenn mehrere Subagenten über dieselben Fähigkeiten verfügen (z. B. drei „Web-Scraping-Agenten"), unterstützt OpenClaw folgende Lastverteilungsstrategien:

team:
  load_balancing:
    strategy: shortest-queue
    agent_pool:
      - web-scraper-1
      - web-scraper-2
      - web-scraper-3
    health_check:
      enabled: true
      interval: 30s
      failure_threshold: 3  # Nach 3 aufeinanderfolgenden Fehlern aus dem Pool entfernen

5.4 Fallback-Strategie (Fallback Strategy)

In Produktionsumgebungen können Subagenten aus verschiedenen Gründen ausfallen – API-Ratenlimits, Nichtverfügbarkeit des Modelldienstes, Aufgaben-Timeouts. Eine durchdachte Fallback-Strategie ist der Schlüssel zum stabilen Betrieb eines Multi-Agenten-Systems:

agents:
  primary-analyst:
    model: claude-3-5-sonnet
    fallback:
      on_timeout:
        action: retry
        max_retries: 2
        backoff: exponential
      on_api_error:
        action: delegate
        fallback_agent: backup-analyst
      on_capability_mismatch:
        action: escalate
        escalate_to: coordinator

6. Praxisbeispiel 1: Multi-Agenten-Kollaboration im Forschungsteam

Dieses Beispiel zeigt, wie mit OpenClaw Agent Teams ein Multi-Agenten-System aufgebaut wird, das automatisch akademische Wettbewerbsintelligenz-Recherchen durchführt.

6.1 Systemanforderungen und Rollendesign

Ziel: Bei einem gegebenen Forschungsthema (z. B. „Medizinische Anwendungen multimodaler Large Language Models") innerhalb von 15 Minuten einen Bericht erstellen, der aktuelle Paper-Zusammenfassungen, Wettbewerbslandschaftsanalyse und Technologietrendprognosen enthält.

Rollendesign:

6.2 Vollständige Konfigurationsdatei

# research-team.yaml
name: research-intelligence-team
version: "1.0"

agents:
  research-coordinator:
    model: claude-3-5-sonnet
    system: |
      Sie sind der Forschungskoordinationsagent. Nach Erhalt eines Forschungsthemas führen Sie sofort folgende Schritte aus:
      1. Gleichzeitige Delegierung von Suchaufgaben an paper-searcher und web-scraper
      2. Nach Erhalt beider Ergebnisse: Delegierung der Analyseaufgabe an data-analyst
      3. Nach Erhalt der Analyseergebnisse: Delegierung der Berichterstellung an report-writer
      4. Rückgabe des Abschlussberichts an den Benutzer

      Verwenden Sie bei der Aufgabendelegierung folgendes Format:
      {"delegate_to": "agent_name", "task": "...", "deadline": "Xs"}
    skills:
      - task-delegation
      - progress-monitoring
    subagents:
      - paper-searcher
      - web-scraper
      - data-analyst
      - report-writer

  paper-searcher:
    model: gpt-4o-mini
    system: |
      Sie sind der akademische Papiersuchagent.
      Verwenden Sie den web-search Skill zur Suche auf arXiv und Google Scholar.
      Rückgabeformat: {"papers": [{"title": "", "authors": [], "year": 0, "citations": 0, "abstract": ""}]}
      Maximal 10 der relevantesten Papers pro Anfrage.
    skills:
      - web-search
      - arxiv-api
    timeout: 60s
    max_retries: 2

  web-scraper:
    model: gpt-4o-mini
    system: |
      Sie sind der Web-Informationssammlungsagent.
      Suchen und extrahieren Sie Nachrichtenberichte, Technik-Blogbeiträge und Branchenanalysen.
      Rückgabeformat: {"sources": [{"url": "", "title": "", "date": "", "summary": "", "key_points": []}]}
      Nur Inhalte der letzten 6 Monate, maximal 8 Quellen pro Anfrage.
    skills:
      - web-search
      - content-extractor
    timeout: 60s

  data-analyst:
    model: claude-3-5-sonnet
    system: |
      Sie sind der Datenanalyseagent.
      Nach Erhalt der Papierliste und Webdaten analysieren Sie:
      1. Veröffentlichungstrends (nach Jahr, Institutionsverteilung)
      2. Kerntechnologische Richtungen und Keyword-Clustering
      3. Wichtigste Forschungseinrichtungen und Wettbewerbslandschaft
      4. Technologie-Reifegrad-Bewertung (TRL 1-9)
      Rückgabe als strukturiertes Analyse-JSON.
    skills:
      - data-analysis
      - trend-detection
    timeout: 90s

  report-writer:
    model: claude-3-opus
    system: |
      Sie sind der professionelle Berichtserstellungsagent.
      Wandeln Sie die Analysedaten in einen Markdown-Bericht mit folgender Struktur um:
      ## Executive Summary (maximal 200 Wörter)
      ## Aktueller Forschungsstand (mit statistischen Daten)
      ## Analyse der Technologietrends
      ## Wettbewerbslandschaft
      ## Fazit und Empfehlungen
      ## Referenzen
      Objektiver Ton, jede Aussage muss durch Daten gestützt sein.
    skills:
      - markdown-writer
      - citation-formatter
    timeout: 120s

team:
  coordination_mode: orchestrator
  orchestrator: research-coordinator
  max_parallel_agents: 3
  global_timeout: 900s  # 15 Minuten
  shared_memory:
    enabled: true
    namespace: "research_session"
  event_bus:
    enabled: true
  logging:
    level: info
    include_agent_messages: true

6.3 Analyse des Ausführungsablaufs

Nach Eingabe des Forschungsthemas durch den Benutzer arbeitet das System in folgendem Ablauf:

  1. T+0s: Der Forschungskoordinationsagent empfängt das Thema und analysiert die Aufgabenstruktur
  2. T+2s: Gleichzeitige Delegierung von Suchaufgaben an paper-searcher und web-scraper (parallele Ausführung)
  3. T+60s: Beide Suchagenten schließen ab und benachrichtigen den Koordinationsagenten über die Ereigniswarteschlange
  4. T+62s: Der Koordinationsagent schreibt die Suchergebnisse in den gemeinsamen Speicher und startet den data-analyst
  5. T+130s: Datenanalyse abgeschlossen, report-writer wird gestartet
  6. T+250s: Bericht fertiggestellt, der Koordinationsagent integriert und gibt das Ergebnis an den Benutzer zurück

Der gesamte Ablauf dauert etwa 4 Minuten, während ein einzelner Agent für dieselbe Aufgabe bei sequenzieller Bearbeitung voraussichtlich 12–15 Minuten benötigen würde.

6.4 Performance- und Kostenanalyse

Beispiel einer typischen Forschungsaufgabe (Thema: Medizinische Anwendungen multimodaler LLMs):

Agent Modell Token-Verbrauch Ausführungszeit Geschätzte Kosten
Forschungskoordinationsagent Claude 3.5 Sonnet 3.200 8s $0,005
Papiersuchagent GPT-4o-mini 8.500 52s $0,004
Web-Scraping-Agent GPT-4o-mini 6.200 48s $0,003
Datenanalyseagent Claude 3.5 Sonnet 12.000 68s $0,018
Berichtserstellungsagent Claude Opus 9.800 115s $0,147
Gesamt 39.700 ~250s $0,177

Würden alle Aufgaben mit Claude Opus ausgeführt, lägen die geschätzten Kosten bei demselben Token-Verbrauch bei etwa $0,596. Die Multi-Agenten-Strategie mit gemischten Modellen spart somit rund 70 % der Kosten.

7. Praxisbeispiel 2: Code-Review-Pipeline im Entwicklungsteam

Dieses Beispiel zeigt, wie ein Multi-Agenten-Code-Review-System in einer CI/CD-Pipeline aufgebaut wird, das nach der Einreichung eines Pull Requests automatisch eine mehrdimensionale Überprüfung durchführt.

7.1 Systemanforderungen und Rollendesign

Ziel: Innerhalb von 5 Minuten nach PR-Einreichung eine Sicherheitslücken-Analyse, Code-Qualitätsprüfung, Testabdeckungsanalyse und Dokumentationsvollständigkeitsprüfung abschließen und einen Review-Kommentar generieren, der direkt auf GitHub gepostet werden kann.

Rollendesign:

7.2 Vollständige Konfigurationsdatei

# code-review-team.yaml
name: code-review-pipeline
version: "1.0"

agents:
  review-coordinator:
    model: claude-3-5-sonnet
    system: |
      Sie sind der Code-Review-Koordinationsagent.
      Nach Empfang des PR-Diffs delegieren Sie gleichzeitig folgende vier Review-Aufgaben:
      - Sicherheits-Review → security-reviewer
      - Code-Qualität → code-quality-agent
      - Testanalyse → test-agent
      - Dokumentationsprüfung → doc-agent

      Nach Erhalt aller Review-Ergebnisse generieren Sie einen GitHub-PR-Kommentar im folgenden Format:
      ### 🔍 Automatisierter Code-Review-Bericht
      **Gesamtbewertung**: X/10
      #### Sicherheit | Code-Qualität | Testabdeckung | Dokumentationsvollständigkeit
      Für jede Kategorie werden konkrete Probleme und Verbesserungsvorschläge aufgelistet.
    skills:
      - file-reader
      - git-diff-parser
    subagents:
      - security-reviewer
      - code-quality-agent
      - test-agent
      - doc-agent

  security-reviewer:
    model: claude-3-5-sonnet
    system: |
      Sie sind der Sicherheits-Review-Agent, spezialisiert auf die Erkennung von Code-Sicherheitslücken.
      Prüfungsumfang: OWASP Top 10, hartcodierte Schlüssel und Anmeldeinformationen, SQL-/Command-Injection,
      XSS-Schwachstellen, unsichere Abhängigkeitsversionen.

      Für jedes Problem geben Sie zurück:
      {"severity": "critical|high|medium|low", "location": "file:line", "description": "", "recommendation": ""}

      Bei severity critical muss ein Korrektur-Codebeispiel enthalten sein.
    skills:
      - code-analyzer
      - vulnerability-scanner
    timeout: 60s

  code-quality-agent:
    model: gpt-4o
    system: |
      Sie sind der Code-Qualitäts-Review-Agent.
      Bewertungsdimensionen:
      1. Namenskonventionen (Variablen-, Funktions-, Klassennamen – klar und verständlich?)
      2. Funktionskomplexität (McCabe-Komplexität über 10?)
      3. Duplizierter Code (Verstöße gegen das DRY-Prinzip)
      4. Einhaltung der SOLID-Prinzipien
      5. Vollständigkeit der Fehlerbehandlung

      Geben Sie für jede Dimension eine Bewertung (1-10) und eine konkrete Problemliste zurück.
    skills:
      - code-analyzer
      - complexity-calculator
    timeout: 60s

  test-agent:
    model: gpt-4o-mini
    system: |
      Sie sind der Testanalyseagent.
      Analysieren Sie die Codeänderungen und:
      1. Identifizieren Sie neu hinzugefügte Codepfade, die von bestehenden Tests nicht abgedeckt werden
      2. Schlagen Sie erforderliche Unit-Tests und Integrationstests vor
      3. Bewerten Sie die Vollständigkeit der Tests für Randbedingungen und Fehlerpfade

      Geben Sie eine geschätzte Testabdeckung und eine Liste vorgeschlagener Testfälle zurück.
    skills:
      - code-analyzer
      - test-pattern-detector
    timeout: 45s

  doc-agent:
    model: gpt-4o-mini
    system: |
      Sie sind der Dokumentationsagent.
      Prüfen Sie:
      1. Haben neue/geänderte öffentliche Funktionen vollständige JSDoc/Docstrings?
      2. Muss die README aktualisiert werden (neue APIs, Umgebungsvariablen, Abhängigkeiten)?
      3. Wurde die CHANGELOG für diese Änderung aktualisiert?
      4. Haben komplexe Logikabschnitte Inline-Kommentare?

      Geben Sie eine Liste fehlender Dokumentation und eine Prioritätsbewertung zurück.
    skills:
      - file-reader
      - doc-parser
    timeout: 30s

team:
  coordination_mode: orchestrator
  orchestrator: review-coordinator
  max_parallel_agents: 4  # Alle vier Review-Agenten laufen parallel
  global_timeout: 300s
  hooks:
    on_complete:
      - action: post-github-comment
        target: "{{pr.url}}/reviews"
    on_critical_security:
      - action: slack-alert
        channel: "#security-alerts"
        message: "Critical security issue found in PR {{pr.number}}"

7.3 Integration mit dem CI/CD-System

Am Beispiel von GitHub Actions wird das Code-Review-Agenten-Team in den PR-Workflow integriert:

# .github/workflows/ai-code-review.yml
name: AI Code Review

on:
  pull_request:
    types: [opened, synchronize]

jobs:
  ai-review:
    runs-on: ubuntu-latest
    steps:
      - name: Checkout
        uses: actions/checkout@v4
        with:
          fetch-depth: 0

      - name: Generate PR Diff
        run: |
          git diff origin/${{ github.base_ref }}...HEAD > pr.diff

      - name: Run OpenClaw Review Team
        env:
          OPENCLAW_API_KEY: ${{ secrets.OPENCLAW_API_KEY }}
          GITHUB_TOKEN: ${{ secrets.GITHUB_TOKEN }}
        run: |
          openclaw agent \
            --message "Review this PR diff and provide feedback" \
            --context "pr_number=${{ github.event.pull_request.number }}" \
            --context "pr_url=${{ github.event.pull_request.html_url }}"

7.4 Bewertung der Review-Qualität

Im praktischen Einsatz zeigt das Multi-Agenten-Code-Review-System folgende Ergebnisse:

8. Performance- und Kostenoptimierung

Multi-Agenten-Systeme verursachen zusätzlichen Koordinationsaufwand, der – wenn nicht optimiert – die Vorteile der Parallelisierung zunichtemachen kann. Im Folgenden werden die wichtigsten Optimierungsstrategien vorgestellt.

8.1 Token-Verbrauchsoptimierung

System-Prompt-Komprimierung: Bei jedem Agentenstart werden die Tokens des System-Prompts verbraucht. Bei häufig gestarteten Agenten sollte der System-Prompt unter 500 Tokens gehalten werden, indem redundante Beschreibungen entfernt werden.

Kürzung von Zwischenergebnissen: Wenn die Ausgabe eines Subagenten direkt an den nächsten Agenten weitergegeben wird, kann es zu einer Token-Aufblähung kommen. Der Koordinationsagent sollte vor der Weitergabe eine zusammenfassende Komprimierung durchführen:

agents:
  coordinator:
    inter_agent_compression:
      enabled: true
      strategy: extractive-summary
      max_tokens_per_result: 2000  # Maximal 2000 Tokens pro Subagent-Ergebnis

8.2 Entscheidungsrahmen: Parallele vs. Sequenzielle Ausführung

Nicht alle Teilaufgaben eignen sich für die parallele Ausführung. Falsche Parallelisierung erhöht die Koordinationskomplexität und kann die Gesamtleistung sogar verschlechtern.

Kriterien zur Beurteilung der Parallelisierbarkeit:

team:
  execution_plan:
    # Erste Charge: vollständig parallelisierbar
    parallel_batch_1:
      - paper-searcher
      - web-scraper
    # Zweite Charge: abhängig von Ergebnissen der ersten Charge
    parallel_batch_2:
      - data-analyst   # benötigt alle Ergebnisse der ersten Charge
    # Dritte Charge: abhängig von der zweiten Charge
    sequential:
      - report-writer  # benötigt die vollständige Ausgabe des data-analyst

8.3 Caching-Strategie (Caching)

In Szenarien mit mehreren Dialogrunden oder wiederkehrenden Aufgaben können Zwischenergebnisse von Subagenten gecacht werden, um die wiederholte Ausführung derselben kostspieligen Operationen zu vermeiden:

agents:
  paper-searcher:
    cache:
      enabled: true
      ttl: 3600s   # Suchergebnisse 1 Stunde cachen
      key_template: "search_{query_hash}"
      stoRAG Retrieval-Augmented Generatione: redis  # Unterstützt memory, redis, disk

Die Cache-Trefferquote hat erhebliche Auswirkungen auf die Kosten: Bei Forschungsaufgaben kann die Cache-Trefferquote für gleiche oder ähnliche Themen 40–60 % erreichen und so die Kosten für wiederholte API-Aufrufe effektiv senken.

8.4 Modellauswahlstrategie (Model Selection)

Die Auswahl des am besten geeigneten Modells für jeden Agenten ist das effektivste Mittel zur Kostensenkung. Empfohlene Grundsätze:

Agententyp Aufgabencharakteristik Empfohlenes Modell Begründung
Koordinationsagent Logisches Reasoning, Aufgabenzerlegung Claude 3.5 Sonnet Starke Reasoning-Fähigkeit, moderate Kosten
Datensammlungsagent Informationsextraktion, Formatkonvertierung GPT-4o-mini Schnell, kostengünstig, ausreichend leistungsfähig
Analyseagent Komplexe Analyse, Mustererkennung Claude 3.5 Sonnet Starke Analysefähigkeit, gutes Preis-Leistungs-Verhältnis
Kreativausgabe-Agent Hochwertige Textgenerierung Claude Opus Höchste Ausgabequalität, für die finale Lieferung
Routing-/Klassifizierungsagent Einfache Klassifizierung, Keyword-Extraktion DeepSeek-V3 / Ollama Extrem niedrige Kosten, minimale Latenz

9. Vergleich mit anderen Multi-Agenten-Frameworks

Vor der Entscheidung für OpenClaw Agent Teams ist ein objektiver Vergleich mit den wichtigsten Wettbewerbsprodukten auf dem Markt erforderlich.[3][8]

9.1 Vergleich der vier großen Frameworks

Dimension OpenClaw Agent Teams AutoGen CrewAI LangGraph
Konfigurationsart Deklaratives YAML Python-Code Python-Code Python-Code
Einstiegsschwierigkeit Niedrig Mittel Mittel Hoch
Workflow-Flexibilität Mittel Hoch Mittel Höchste
Integrierte GUI Ja (OpenClaw UI) Ja (AutoGen Studio) Nein Ja (LangSmith)
Multi-LLM-Unterstützung Claude/GPT/DeepSeek/Ollama Umfangreich Umfangreich Umfangreich
Monitoring und Observability Grundlegend Mittel Grundlegend Vollständig (LangSmith)
Community-Aktivität Schnell wachsend Ausgereift Ausgereift Ausgereift
Geeignete Szenarien Schnelle Prototypen, Standardprozesse Forschungsexperimente Rollenbasierte Kollaboration Komplexe dynamische Workflows

9.2 Kernvorteile von OpenClaw Agent Teams

YAML-First-Konfigurationsphilosophie: Für Nicht-Python-Entwickler (z. B. Backend-Ingenieure oder Produktmanager) ist die Einstiegshürde bei YAML-Konfiguration weitaus niedriger als bei AutoGen oder CrewAI, wo Python-Klassendefinitionen geschrieben werden müssen. Dies ermöglicht es auch nicht-technischem Fachpersonal, am Designprozess von Agentensystemen teilzunehmen.

Tiefe Integration in das OpenClaw-Ökosystem: Wenn ein Team bereits die Einzelagenten-Funktionen von OpenClaw nutzt, ist die Migration zu Agent Teams nahezu ohne Lernaufwand. Das Skills-System, das Hooks-System und die Gateway-Architektur erstrecken sich nahtlos auf Multi-Agenten-Szenarien.[6]

9.3 Aktuelle Einschränkungen von OpenClaw Agent Teams

Objektiv betrachtet hinkt OpenClaw Agent Teams in folgenden Bereichen hinter ausgereiften Frameworks her:

Empfehlung: Wenn der Aufgabenablauf relativ fest ist (wie bei den Beispielen in diesem Artikel – Forschungsberichterstellung und Code-Review), wählen Sie OpenClaw Agent Teams. Für komplexe bedingte Verzweigungen und dynamisches Routing empfiehlt sich LangGraph. Für primär forschungsorientierte Teams bietet AutoGen die nötige Flexibilität für experimentelle Szenarien.

10. Häufige Fragen und Best Practices

10.1 Debugging von Multi-Agenten-Systemen

Das Debugging von Multi-Agenten-Systemen ist deutlich schwieriger als bei Einzelagenten, da Probleme verschiedene Ursachen haben können: fehlerhafte Agentenkonfiguration, inkonsistente Nachrichtenformate, Timing-Probleme (Race Conditions) oder Fehlerweitergabe zwischen Agenten.

Empfohlener Debugging-Workflow:

  1. Isoliertes Testen: Testen Sie zunächst jeden Subagenten einzeln, um sicherzustellen, dass er bei Standardeingaben korrekte Ergebnisse liefert
  2. Detailliertes Logging aktivieren: Setzen Sie in der Entwicklungsumgebung logging.level: debug, um alle Nachrichten zwischen Agenten zu protokollieren
  3. Feste Zufalls-Seeds: Fixieren Sie in Tests den Zufalls-Seed des Modells, um reproduzierbare Ergebnisse zu gewährleisten
  4. Mit einfachen Szenarien beginnen: Validieren Sie zunächst den Gesamtablauf mit den einfachsten Eingaben, bevor Sie Randbedingungen testen
# Debug-Modus-Konfiguration
team:
  debug:
    enabled: true
    save_agent_messages: true
    save_intermediate_results: true
    output_dir: "./debug-logs"
    replay_mode: false  # Auf true setzen, um fehlgeschlagene Nachrichtensequenzen erneut abzuspielen

10.2 Monitoring und Observability

In Produktionsumgebungen erfordern Multi-Agenten-Systeme eine kontinuierliche Überwachung, um einen stabilen Betrieb sicherzustellen:

team:
  monitoring:
    metrics:
      - agent_execution_time
      - token_usage_per_agent
      - task_success_rate
      - inter_agent_message_count
    alerts:
      - condition: "task_success_rate < 0.95"
        action: slack-notify
        channel: "#ops-alerts"
      - condition: "agent_execution_time > timeout * 0.8"
        action: log-warning

10.3 Best Practices für die Fehlerbehandlung

In Multi-Agenten-Systemen sollte der Ausfall eines einzelnen Agenten nicht zum Zusammenbruch des gesamten Workflows führen. Hier ist eine dreistufige Fehlerbehandlungsstrategie:

10.4 Sicherheitsüberlegungen

Multi-Agenten-Systeme führen neue Angriffsflächen ein, insbesondere Prompt-Injection-Angriffe: Böswillige Eingaben können sich über die Ausgabe eines Subagenten auf andere Agenten ausbreiten und so das Verhalten des gesamten Systems beeinflussen.

Schutzmaßnahmen:

10.5 Löschen und Verwalten von Subagenten

In der Agent-Teams-Konfiguration von OpenClaw erfordert das Löschen eines Subagenten die gleichzeitige Berücksichtigung folgender Aspekte, um Fehler durch verwaiste Nachrichtenrouten zu vermeiden:

# Schritte zum sicheren Löschen eines Subagenten

# Schritt 1: Zielagenten aus der subagents-Liste entfernen
agents:
  coordinator:
    subagents:
      # - web-scraper  <-- Diese Zeile entfernen
      - data-analyst
      - report-writer

# Schritt 2: Zugehörige Routing-Regeln entfernen
    routing_rules:
      # - skill: "web-search"
      #   route_to: "web-scraper"  <-- Diesen Block entfernen

# Schritt 3: Ereignisabonnements entfernen
team:
  event_bus:
    events:
      # - name: "scraping_completed"  <-- Gesamte Ereignisdefinition entfernen
      #   publisher: "web-scraper"
      #   subscribers: ["data-analyst"]

# Schritt 4: Die Agentendefinition selbst entfernen
# Den vollständigen Block agents.web-scraper löschen

Es wird empfohlen, den Agenten vor dem Löschen zunächst auf disabled: true zu setzen und das Systemverhalten eine Weile zu beobachten, um sicherzustellen, dass kein anderer Agent von seiner Ausgabe abhängt, bevor die vollständige Löschung durchgeführt wird.

10.6 Agenten-übergreifendes Skill-Management

Wenn mehrere Agenten denselben Skill verwenden, muss die Skill-Version zentral verwaltet werden, um zu vermeiden, dass verschiedene Agenten inkompatible Skill-Versionen verwenden:

# Globale Skill-Versionssperre
team:
  skill_registry:
    web-search: "2.1.0"    # Alle Agenten mit web-search verwenden zwingend diese Version
    code-analyzer: "1.5.2"
    file-reader: "3.0.0"

Fazit

Die Multi-Agenten-Systemarchitektur stellt einen bedeutenden Meilenstein in der Entwicklung von KI-Agenten dar – die Evolution von „einem KI-Assistenten" zu „einem KI-Team". OpenClaw Agent Teams senken durch deklarative YAML-Konfiguration die Einstiegshürde für Multi-Agenten-Systeme und ermöglichen es mehr Entwicklern und Fachpersonal, komplexe Automatisierungsworkflows zu entwerfen und bereitzustellen.[9]

Die beiden in diesem Artikel vorgestellten Praxisbeispiele – das Forschungsintelligenz-System und die Code-Review-Pipeline – haben die Performance-Vorteile und Kosteneffizienz der Multi-Agenten-Architektur in realen Umgebungen bestätigt. Mit dem kontinuierlichen Wachstum der OpenClaw-Community erwarten wir, dass die Funktionalität von Agent Teams weiter ausgebaut wird, insbesondere in den Bereichen dynamische Workflow-Unterstützung und Monitoring-Tools.[10]

Für Teams, die Multi-Agenten-Systeme evaluieren, empfehlen wir, mit einem Minimum Viable Case (MVP) zu beginnen: Wählen Sie die zeitaufwändigste und am stärksten parallelisierbare Aufgabe in einem bestehenden Workflow, bauen Sie ein kleines Team mit 2–3 Agenten auf und erweitern Sie nach Validierung der Ergebnisse schrittweise. Die Komplexität eines Multi-Agenten-Systems sollte mit der Bestätigung der Anforderungen wachsen, anstatt von Anfang an ein vollständiges Architekturdesign anzustreben.