- Composite AI ist eine von Gartner als Top-10-Strategietechnologietrend fuer 2026 gelistete Architekturmethodik. Ihr Kern besteht darin, mehrere AI-Technologien — LLM, Wissensgraphen, Regelwerke, Computer Vision, Optimierungsalgorithmen — modular zu kombinieren, um komplexe Unternehmensprobleme zu loesen, die ein einzelnes Modell nicht bewaeltigen kann[1]
- Die globale AI-Umfrage von McKinsey 2025 zeigt, dass Unternehmen mit Composite AI-Architektur eine 2,4-fach hoehere Produktionsrate ihrer AI-Projekte erzielen als Unternehmen, die ausschliesslich auf ein einzelnes LLM setzen. Zudem erreicht die durchschnittliche AI-ROI-Bewertung innerhalb von 18 Monaten nach der Einfuehrung eine positive Rendite[8]
- Multi-Agent-Systeme sind die repraesentativste Umsetzung von Composite AI — mehrere spezialisierte Agenten arbeiten zusammen, wobei jeder fuer Aufgaben wie Reasoning, Retrieval, Validierung und Ausfuehrung zustaendig ist und ueber strukturierte Kommunikationsprotokolle End-to-End-Geschaeftsprozesse abwickelt[2][3]
- Neuro-symbolic AI verbindet die Lernfaehigkeit neuronaler Netze mit der Erklaerbarkeit symbolischer Schlussfolgerung und ist ein zentrales Architekturmuster fuer Composite AI in Hochrisikoszenarien wie Finanzrisikomanagement, medizinische Diagnostik und Compliance[5]; in Taiwan gibt es bereits erfolgreiche Einfuehrungen in der Fertigungs-, Finanz- und Gesundheitsbranche[9][10]
I. Was ist Composite AI? Der Paradigmenwechsel vom Einzelmodell zur Systemarchitektur
In den letzten drei Jahren drehte sich die vorherrschende Erzaehlung rund um die AI-Einfuehrung in Unternehmen um eine einfache Logik: ein „staerkstes" Large Language Model (LLM) auswaehlen, es in Geschaeftsszenarien einsetzen und erwarten, dass es alle Probleme loest. Dieses „Single-model-fits-all"-Denken funktioniert in der Konzeptvalidierung (PoC) oft recht gut — GPT-4 oder Claude zeigen tatsaechlich beeindruckende Faehigkeiten bei universellen Aufgaben wie Chatbots, Dokumentenzusammenfassungen und Uebersetzungen. Wenn Unternehmen jedoch versuchen, diese Einzelmodelle in echte Produktionsumgebungen zu bringen, treten eine Reihe struktureller Probleme zutage: unzureichende Genauigkeit in bestimmten Fachgebieten, fehlende erklaerbare Reasoning-Prozesse, mangelnde Integration mit bestehenden Regelsystemen und „Orientierungsverlust" bei komplexen, mehrstufigen Koordinationsprozessen.
Gartner definiert in seinem Bericht ueber die zehn wichtigsten Strategietechnologietrends 2026[1] Composite AI als: „Eine Architekturmethodik, die mehrere AI-Technologien und Nicht-AI-Technologien modular kombiniert, um komplexe Geschaeftsprobleme zu loesen, die eine einzelne Technologie nicht effektiv bewaeltigen kann." Der Schluessel dieser Definition liegt nicht im Durchbruch einer einzelnen Technologie, sondern in einem architektonischen Denkwandel — von „das staerkste Modell finden" zu „das am besten geeignete System entwerfen".
Die Kerntechnologiekomponenten von Composite AI umfassen unter anderem:
- Large Language Models (LLM): Bieten natuerliches Sprachverstaendnis, Textgenerierung und allgemeine Reasoning-Faehigkeiten
- Wissensgraphen (Knowledge Graph): Stellen Domaenenwissen, Entitaetsbeziehungen und Geschaeftsregeln als strukturierte Graphen dar[4]
- Regelwerke (Rule Engine): Kodieren deterministische Geschaeftslogik, regulatorische Beschraenkungen und Prozessvorschriften
- Computer Vision: Verarbeitet visuelle Informationen aus Bildern und Videos
- Optimierungsalgorithmen (Optimization): Loesen mathematische Optimierungsprobleme wie Scheduling, Routenplanung und Ressourcenallokation
- Klassisches Machine Learning (Classical ML): Bewaeltigt Klassifikation, Regression und Anomalieerkennung bei strukturierten Daten
Jede dieser Technologien hat ihre unersetzlichen Staerken und inhaerenten Grenzen. LLMs sind gut im Verstehen von Semantik, neigen aber zu Halluzinationen; Wissensgraphen sind praezise, erfordern aber manuelle Pflege; Regelwerke bieten hohe Determinismus, sind aber wenig flexibel. Die Essenz von Composite AI liegt darin: Jede Technologie in ihrer staerksten Disziplin einzusetzen, waehrend andere Technologien deren Schwaechen kompensieren. Das ist kein Kompromiss, sondern die Weisheit des Systems Engineering.
Grundlegende Unterschiede zum Einzelmodell-Ansatz
Um die Wertpositionierung von Composite AI klarer zu verstehen, vergleichen wir im Folgenden anhand von sechs Dimensionen die Unterschiede zwischen Composite AI und dem Einzelmodell-LLM-Ansatz.
| Vergleichsdimension | Einzelmodell-LLM-Ansatz | Composite AI-Architektur |
|---|---|---|
| Problemanpassungsfaehigkeit | Abhaengig von einem generischen Modell fuer alle Aufgaben, unzureichende Tiefe in spezifischen Domaenen | Fuer jedes Teilproblem wird die am besten geeignete Technologiekomponente konfiguriert — das Ganze ist mehr als die Summe seiner Teile |
| Erklaerbarkeit | Black-Box-Reasoning, schwer nachvollziehbare Entscheidungsgrundlagen | Strukturierte Reasoning-Pfade durch Wissensgraphen und Regelwerke moeglich |
| Determinismus | Gleiche Eingaben koennen unterschiedliche Ausgaben erzeugen, Ergebnisse sind unvorhersehbar | Kritische Pfade werden durch Regelwerke deterministisch abgesichert; LLMs verarbeiten nur die flexiblen Anteile |
| Kostenstruktur | Alle Aufgaben verbrauchen einheitlich hochpreisige LLM-Inferenzressourcen | Einfache Aufgaben werden von leichtgewichtigen Komponenten bearbeitet; nur komplexe Aufgaben nutzen LLMs — Gesamtkosten sinken um 40–70 % |
| Wartung und Evolution | Modell-Upgrades betreffen das gesamte System, Risiko ist konzentriert | Modulares Design erlaubt schrittweises Ersetzen oder Upgraden einzelner Komponenten, Risiko ist verteilt |
| Compliance und Governance | Schwer sicherzustellen, dass LLM-Ausgaben bestimmte regulatorische Anforderungen erfuellen | Regelwerke fungieren als „Leitplanken" zur Durchsetzung regulatorischer Vorgaben; LLM-Ausgaben werden durch eine Validierungsschicht gefiltert |
Die globale AI-Umfrage von McKinsey 2025[8] offenbart eine alarmierendes Ergebnis: Die Produktionsrate von AI-PoCs weltweit betraegt nur etwa 22 %. Die haeufigste Ursache fuer das Scheitern ist nicht mangelnde technologische Ausgereiftheit, sondern die Tatsache, dass „ein einzelnes Modell die Komplexitaet der Produktionsumgebung nicht bewaeltigen kann". Composite AI wurde genau entwickelt, um diese Kluft zwischen „PoC und Produktion" zu ueberbruecken.
II. Multi-Agent-Systeme: Die Flaggschiff-Implementierung von Composite AI
Wenn Composite AI eine Architekturphilosophie ist, dann sind Multi-Agent-Systeme deren konkreteste und aktivste technische Umsetzung. Das Kernkonzept von Multi-Agent-Systemen lautet: Eine komplexe Aufgabe in mehrere Teilaufgaben zerlegen, die von jeweils spezialisierten AI-Agenten gemeinsam erledigt werden — wobei jeder Agent unterschiedliche Modelle, Tools und Wissensbasen nutzen kann.
Definition und Architektur von Agents
Anthropic definiert in seinen technischen Dokumenten von 2025[3] einen Agent als ein „AI-System, das autonom planen, Werkzeuge nutzen und sein Handeln auf Basis von Umgebungs-Feedback anpassen kann". Im Unterschied zu einfachen LLM-Dialogen verfuegt ein Agent ueber drei Schluesselfaehigkeiten: Umgebungswahrnehmung (Lesen externer Informationen ueber Tools), Handlungsplanung (Zerlegung von Zielen in ausfuehrbare Schrittfolgen) und autonome Iteration (Beurteilung, ob der Plan aufgrund der Ausfuehrungsergebnisse angepasst werden muss).
Wenn mehrere solcher Agents zu einem kooperativen System organisiert werden, entsteht eine Multi-Agent-Architektur. Wu et al. zeigen in ihrem AutoGen-Paper[2] ein Framework basierend auf Multi-Agenten-Konversation, bei dem mehrere Agents ueber strukturierte Dialogprotokolle zusammen komplexe Aufgaben erledigen — beispielsweise schreibt ein Agent Code, ein anderer fuehrt das Review durch, ein dritter fuehrt Tests aus, und so entsteht ein automatisiertes Softwareentwicklungsteam.
Gaengige Architekturmuster fuer Multi-Agent-Systeme
Basierend auf den Organisationsbeziehungen zwischen Agenten lassen sich Multi-Agent-Systeme in drei gaengige Architekturmuster unterteilen:
Muster 1: Hierarchisch (Hierarchical). Ein „Orchestrator Agent" fungiert als zentrale Steuerinstanz, empfaengt Benutzeraufgaben, zerlegt sie in Teilaufgaben, weist sie spezialisierten Worker Agents zu und aggregiert die Ergebnisse. Dies ist die haeufigste Unternehmensarchitektur, da der Kontrollfluss klar, leicht ueberwachbar und gut debuggbar ist. Das CrewAI[6]-Framework basiert auf diesem Muster und ermoeglicht Entwicklern, Rollen (Role), Ziele (Goal) und Tools zu definieren, wobei das Framework automatisch den Kollaborationsprozess der Agenten orchestriert.
Muster 2: Peer-to-Peer. Alle Agents sind gleichberechtigt und kommunizieren ueber einen gemeinsamen Nachrichtenbus (Message Bus). Jeder Agent ueberwacht bestimmte Eventtypen und entscheidet eigenstaendig, ob er darauf reagiert. Dieses Muster bietet die hoechste Flexibilitaet und eignet sich fuer Szenarien mit dynamischer Skalierung, allerdings ist der Kontrollfluss schwieriger nachzuvollziehen. Der „Group Chat"-Modus von AutoGen[2] gehoert zu dieser Kategorie.
Muster 3: Pipeline. Agents sind in einer festen Reihenfolge hintereinander geschaltet — die Ausgabe des vorherigen Agent dient als Eingabe des naechsten und bildet eine Verarbeitungspipeline. Dieses Muster eignet sich am besten fuer Workflows mit festen und klar definierten Schritten — beispielsweise eine Dokumentenverarbeitungspipeline: OCR Agent → Klassifizierungs-Agent → Zusammenfassungs-Agent → Qualitaetspruefungs-Agent → Archivierungs-Agent.
| Architekturmuster | Kontrollfluss | Flexibilitaet | Nachverfolgbarkeit | Geeignete Szenarien | Repraesentative Frameworks |
|---|---|---|---|---|---|
| Hierarchisch | Zentrale Zuweisung durch Orchestrator | Mittel | Hoch | Unternehmensprozessautomatisierung, Kundenservice | CrewAI, LangGraph |
| Peer-to-Peer | Agenten kommunizieren und verhandeln autonom | Hoch | Niedrig | F&E-Zusammenarbeit, kreative Generierung | AutoGen, ChatDev |
| Pipeline | Feste sequenzielle Ausfuehrung | Niedrig | Sehr hoch | Dokumentenverarbeitung, Datenpipelines, Qualitaetspruefung | Haystack, Prefect + LLM |
Die Rolle von Multi-Agent-Systemen in Composite AI
Multi-Agent-Systeme sind deshalb die Flaggschiff-Implementierung von Composite AI, weil sie von Natur aus die Integration heterogener Technologien unterstuetzen. In einem Multi-Agent-System koennen verschiedene Agents voellig unterschiedliche zugrunde liegende Technologien verwenden: Der Reasoning Agent nutzt OpenAI o3 fuer tiefgreifendes Reasoning, der Retrieval Agent verwendet Wissensgraph + Vektordatenbank fuer hybride Suche, der Validation Agent nutzt ein Regelwerk fuer Compliance-Pruefungen, und der Vision Agent setzt Computer-Vision-Modelle fuer die Bildverarbeitung ein. Jeder Agent ist eine eigenstaendige technologische Kapselungseinheit, und die Agents tauschen ueber einheitliche Kommunikationsprotokolle strukturierte Informationen aus — genau das ist die beste Verwirklichung der Composite AI-Idee „modulare Kombination mehrerer Technologien".
Anthropics technischer Leitfaden[3] betont ein praxisnahes Prinzip: Setzen Sie Multi-Agent nicht um des Multi-Agent willen ein. Wenn eine einfache LLM-Chain mit einigen Tool Calls das Problem loesen kann, ist die zusaetzliche Komplexitaet mehrerer Agenten nicht erforderlich. Der Wert von Multi-Agent liegt in der Bearbeitung von Szenarien, die mehrere Fachkompetenzen erfordern und nicht-triviale Koordinationslogik beinhalten.
III. Wissensgraph + LLM: Die Fusion von strukturiertem Wissen und semantischem Verstaendnis
Das zweite zentrale Architekturmuster von Composite AI ist die Integration von Wissensgraphen mit Large Language Models. Pan et al. haben in ihrem wegweisenden Roadmap-Paper in IEEE TKDE[4] systematisch drei Integrationsweisen zwischen LLM und Knowledge Graph (KG) zusammengefasst — diese drei Weisen entsprechen unterschiedlichen Designansaetzen von Composite AI.
Drei Integrationsmuster
Muster 1: KG-verstaerktes LLM (KG-enhanced LLM). Der Wissensgraph dient als externe Wissensquelle fuer das LLM und injiziert waehrend der Inferenz strukturiertes Faktenwissen. GraphRAG[7] ist ein typischer Vertreter dieses Musters — es konstruiert automatisch Wissensgraphen und kombiniert Community-Zusammenfassungen, damit das LLM bei der Antwortgenerierung auf globales, strukturiertes Wissen zugreifen kann, anstatt sich ausschliesslich auf vektorbasierte semantische Aehnlichkeit zu stuetzen. Der groesste Vorteil dieses Musters liegt in der deutlichen Reduktion von LLM-Halluzinationen: Wenn die Antworten des Modells auf konkreten Wissensgraph-Fakten verankert werden koennen, wird der Spielraum fuer Erfindungen stark eingeschraenkt.
Muster 2: LLM-verstaerkter KG (LLM-enhanced KG). Hierbei wird die Sprachverstaendnisfaehigkeit des LLM genutzt, um den Aufbau und die Pflege von Wissensgraphen zu automatisieren. Traditionell war die Konstruktion von Wissensgraphen stark von der manuellen Annotation durch Domaenenexperten abhaengig — kostenintensiv und schwer skalierbar. LLMs veraendern diese Situation: Sie koennen automatisch Entitaeten und Beziehungen aus unstrukturiertem Text extrahieren, Synonyme aufloesen und implizite semantische Verbindungen ableiten, wodurch die Kosten fuer den Aufbau von Wissensgraphen um ein bis zwei Groessenordnungen sinken.
Muster 3: LLM-KG-synergistisches Reasoning (Synergized LLM + KG). LLM und Wissensgraph arbeiten im Reasoning-Prozess abwechselnd — das LLM fuehrt basierend auf der Benutzerfrage „Graph Reasoning" auf dem Wissensgraphen durch, erkundet schrittweise Antworten entlang von Entitaetsbeziehungsketten, und wenn die Graph-Informationen nicht ausreichen, nutzt es die generativen Faehigkeiten des LLM zur Schlussfolgerung. Dieses Muster kommt dem Reasoning menschlicher Experten am naechsten: logische Ableitung auf Basis bekannter Fakten, statt Generierung aus dem Nichts.
Enterprise-KG + LLM-Architekturdesign
In der Composite AI-Architektur auf Unternehmensebene folgt die Integration von Wissensgraph + LLM typischerweise der folgenden Schichtenarchitektur:
Datenschicht: Interne strukturierte Daten des Unternehmens (ERP, CRM, MES) und unstrukturierte Dokumente (Vertraege, Vorschriften, Berichte) dienen als Wissensquellen.
Graphkonstruktionsschicht: Eine LLM-gesteuerte automatisierte Pipeline extrahiert Entitaeten, Beziehungen und Attribute aus der Datenschicht und aktualisiert kontinuierlich den Wissensgraphen in der Graphdatenbank (z. B. Neo4j oder Amazon Neptune).
Retrieval-Fusionsschicht: Kombiniert strukturierte Abfragen des Wissensgraphen (Cypher / SPARQL) mit der semantischen Suche der Vektordatenbank zu einer hybriden Retrievalstrategie. GraphRAGs[7] dualer Mechanismus aus Local Query und Global Query arbeitet auf dieser Schicht.
Reasoning-Schicht: Das LLM fuehrt Reasoning und Antwortgenerierung basierend auf dem strukturierten Wissen und dem Rohtext-Kontext der Retrieval-Fusionsschicht durch. Die Fakten im Wissensgraphen fungieren als „harte Einschraenkungen", die den Ausgaberaum des LLM begrenzen, waehrend das Regelwerk eine abschliessende Compliance-Validierung der Ausgaben durchfuehrt.
Bei der Wahl des KG + LLM-Integrationsmusters sollten Unternehmen die Datencharakteristik beruecksichtigen: Verfuegt das Unternehmen bereits ueber eine strukturierte Domaenenontologie, sollte das Muster „KG-verstaerktes LLM" bevorzugt werden, um bestehende Wissenswerte direkt zu nutzen. Liegt das Wissen hauptsaechlich in unstrukturierten Dokumenten vor, sollte mit „LLM-verstaerkter KG" begonnen werden — zuerst mit dem LLM automatisch einen Graphen aufbauen und diesen dann wiederum zur Verbesserung der LLM-Antwortqualitaet nutzen. Beide Ansaetze koennen einen positiven Kreislauf bilden.
IV. Neuro-symbolic AI: Die dritte Welle neuronaler Netze und symbolischen Reasonings
Wenn Multi-Agent die Implementierung von Composite AI auf Systemebene darstellt, dann ist Neuro-symbolic AI die theoretische Kerngrundlage auf Algorithmusebene. Garcez und Lamb unterteilen in ihrem bahnbrechenden Paper[5] die AI-Entwicklung in drei Wellen: Die erste Welle ist die durch Expertensysteme repraesentierte symbolische AI (1950er-1990er), gut im logischen Schliessen und in der Wissensrepraesentation, aber unfaehig, aus Daten zu lernen; die zweite Welle ist die durch Deep Learning repraesentierte konnektionistische AI (2010er-), gut in der Mustererkennung und im Lernen aus Daten, aber ohne erklaerbare logische Schlussfolgerungsfaehigkeit; die dritte Welle ist Neuro-symbolic AI, die die Staerken beider vereint.
Warum benoetigen Unternehmen Neuro-symbolic AI?
Rein neuronale Netzwerkansaetze (einschliesslich der fortschrittlichsten LLMs) stehen vor vier grundlegenden Herausforderungen bei Enterprise-Anwendungen.
Erstens: Unzureichende Erklaerbarkeit. Wenn ein LLM einen Kreditantrag ablehnt, kann es keine regulatorisch konforme Begruendungskette liefern. Finanzaufsichtsbehoerden verlangen strukturierte Reasoning-Pfade wie „Weil das Verschuldungsverhaeltnis des Antragstellers X % uebersteigt und der Kredit-Score unter Y liegt, gemaess Bankgesetz Paragraph Z" — nicht das „basierend auf einer Gesamtbewertung" eines LLM.
Zweitens: Garantierter Determinismus. Bei der Pruefung von Arzneimittelwechselwirkungen, Entscheidungen zur Flugzeugwartung oder Sicherheitsbewertungen von Kernkraftwerken muss das System garantieren, dass unter gleichen Eingabebedingungen stets das gleiche Ergebnis erzeugt wird. Die inhaerent stochastische Natur von LLMs kann diese Anforderung allein nicht erfuellen.
Drittens: Dateneffizienz. Deep-Learning-Modelle benoetigen typischerweise grosse Mengen annotierter Daten, um neues Domaenenwissen zu erlernen. Bei der Diagnose seltener Krankheiten oder der Analyse von Ausfaellen an militaerischer Ausruestung sind historische Faelle jedoch aeusserst rar. Symbolische Systeme koennen aus wenigen Regeln und Wissensstuecken praezise Schlussfolgerungen ziehen, ohne auf riesige Datenmengen angewiesen zu sein.
Viertens: Wissenstransfer. Wenn sich Geschaeftsregeln aendern (z. B. neue Vorschriften in Kraft treten), muessen neuronale Netze neu trainiert oder feinabgestimmt werden, waehrend symbolische Systeme nur eine Aktualisierung der Regelbasis erfordern — die Aenderung tritt sofort in Kraft, ohne Modelltrainingszyklen.
Implementierungsarchitektur von Neuro-symbolic AI
In der Composite AI-Architektur werden fuer die Integration von Neuro-symbolic AI typischerweise folgende Designmuster verwendet:
„Neural Frontend + Symbolic Backend"-Muster. Das Frontend nutzt neuronale Netze (LLM oder Computer-Vision-Modelle) zur Verarbeitung unstrukturierter Eingaben — Verstehen natuerlichsprachlicher Benutzeranfragen, Erkennung von Objekten in Bildern, Konvertierung von Sprache in Text. Das Backend nutzt symbolische Systeme (Wissensgraph + Regelwerk) fuer logisches Reasoning und Entscheidungsfindung. Beide werden ueber eine „Grounding Layer" (Erdungsschicht) verbunden: Die weichen Ausgaben neuronaler Netze (Wahrscheinlichkeiten, semantische Vektoren) werden in harte Eingaben umgewandelt, die das symbolische System verarbeiten kann (strukturierte Entitaeten, logische Propositionen).
„Symbolic Guardrail"-Muster. Das LLM fungiert als primaere Reasoning- und Generierungsmaschine, aber seine Ausgaben muessen vor der Zustellung an den Benutzer eine Validierungsschicht des symbolischen Systems durchlaufen. Die Validierungsschicht prueft, ob die LLM-Ausgabe vordefinierte Geschaeftsregeln, logische Konsistenz und regulatorische Einschraenkungen einhalt. Bei Verstoss gegen eine Regel verweigert das System die Ausgabe und fordert das LLM zur Neugenerierung auf oder ueberschreibt die LLM-Ausgabe direkt mit dem deterministischen Ergebnis des symbolischen Systems.
„Interleaved Reasoning"-Muster. Neuronale Netze und symbolische Systeme arbeiten im Reasoning-Prozess abwechselnd. Beispielsweise in einem medizinischen Diagnoseszenario: Das LLM generiert zunaechst auf Basis der Patientenbeschwerden eine vorlaeuufige Hypothese (neuronales Reasoning) → Der Wissensgraph wird nach verwandten Symptomen und Laborindikatoren abgefragt (symbolische Abfrage) → Das LLM verfeinert die Hypothese auf Basis der Abfrageergebnisse und der Patientenakte (neuronales Reasoning) → Das Regelwerk prueft, ob die endgueltige Diagnose den medizinischen Leitlinien entspricht (symbolische Validierung).
V. Composite AI-Einfuehrung in Unternehmen — Praxisbeispiele aus Taiwan
Der Forschungsbericht 2026 des III MIC[9] stellt fest, dass das Bewusstsein taiwanischer Unternehmen fuer Composite AI rasch von „blossem Verstaendnis" zu „aktiver Einfuehrung" uebergeht. Die Marktprognose von IDC Taiwan[10] schaetzt darueber hinaus, dass die Investitionen taiwanischer Unternehmen in Composite AI-Technologien 2026 um ueber 180 % gegenueber 2025 steigen werden. Im Folgenden repraesentative Einfuehrungsfaelle aus drei Schluesselbranchen.
Fertigungsindustrie: Intelligente Qualitaetspruefung und Scheduling-Optimierung
Die taiwanische Halbleiter- und Elektronikkomponentenfertigung hat als erste Branche das architektonische Denken von Composite AI uebernommen. Ein typisches AI-System fuer die Fertigungsindustrie zur Qualitaetspruefung integriert mehr als drei AI-Technologien: Computer Vision-Modelle erkennen in Echtzeit mikroskopische Defekte auf Wafer-Oberflaechen, klassische ML-Modelle (z. B. XGBoost) prognostizieren Defektwahrscheinlichkeiten basierend auf Prozessparametern, Wissensgraphen speichern die Kausalbeziehungen zwischen Anlagen, Prozessen und Defekten, und Regelwerke entscheiden automatisch anhand von Qualitaetsstandards, ob ein Produktionsstopp zur Wartung erforderlich ist. Diese Technologiekomponenten werden von einem Orchestrator-System einheitlich koordiniert und bilden eine vollstaendige Qualitaetsmanagement-Pipeline.
Im Bereich der Scheduling-Optimierung zeigt sich der Wert von Composite AI noch deutlicher. Herkoemmliche LLMs koennen keine grossen mathematischen Planungsprobleme loesen (z. B. Scheduling-Optimierung fuer Hunderte von Maschinen und Tausende von Auftraegen), waehrend reine Optimierungsalgorithmen unstrukturierte Scheduling-Einschraenkungen nicht verstehen koennen (wie „Eilauftrag von Kunde A muss bis Mittwoch ausgeliefert werden, aber die Wartung von Anlage B ist fuer Dienstag geplant"). Der Composite AI-Ansatz: Das LLM analysiert natuerlichsprachliche Scheduling-Anforderungen und wandelt sie in strukturierte Einschraenkungen um → Der Wissensgraph liefert Anlagenkapazitaeten und Materialabhaengigkeiten → Die Optimierungsmaschine (z. B. OR-Tools oder Gurobi) berechnet den optimalen Scheduling-Plan → Das LLM uebersetzt den Plan in einen fuer Menschen lesbaren Scheduling-Bericht. Dieses Mensch-Maschine-kollaborative Scheduling-System ist 30–50 % effizienter als rein manuelles Scheduling und passt sich besser an kurzfristige Aenderungen an als reine Optimierungsloesungen.
Finanzbranche: Intelligentes Risikomanagement und Compliance
Die taiwanische Finanzbranche gehoert zu den aktivsten Branchen bei der Einfuehrung von Composite AI, hauptsaechlich getrieben von zwei Faktoren: erstens den regulatorischen Anforderungen der Finanzaufsicht an AI-Anwendungen (Erklaerbarkeit, Audit-Trail, Fairness) und zweitens dem Druck der internationalen Anti-Geldwaesche-Compliance (AML).
Das Anti-Geldwaesche-System einer grossen taiwanischen Bank nutzt eine typische Neuro-symbolic AI-Architektur: Klassische ML-Modelle (Random Forest + Graph Neural Network) erkennen anomale Muster und Beziehungsnetzwerke in Transaktionsdaten, der Wissensgraph speichert die Beteiligungsstrukturen wirtschaftlich Berechtigter (UBO) und deren Verbindungen zu Sanktionslisten, das Regelwerk kodiert die Geldwaeschetypologien und Meldeschwellen der Finanzaufsicht, und das LLM verfasst automatisch Verdachtsmeldungen (STR) und erlaeutert Faelle basierend auf natuerlichsprachlichen Anfragen der Ermittler. Dieses System hat die Falsch-positiv-Rate um 45 % gesenkt (da die strukturierten Beziehungen des Wissensgraphen unnoetige Alarme reduzieren) und gleichzeitig die Berichtserstellungszeit von durchschnittlich 90 Minuten auf 15 Minuten verkuerzt.
Im Szenario der Kreditpruefung ermoeglicht Composite AI den Banken, gleichzeitig Effizienz- und Compliance-Anforderungen zu erfuellen: Das LLM analysiert automatisch vom Kreditnehmer eingereichte Jahresabschluesse und Geschaeftsplaene, der Wissensgraph ermittelt Kreuzbeteiligungen und die Historie verbundener Transaktionen des Kreditnehmers und seiner Bezugspersonen, das Kreditscoring-Modell berechnet die Ausfallwahrscheinlichkeit, und das Regelwerk erstellt regulatorisch konforme Pruefungsempfehlungen gemaess Bankgesetz und internen Kreditrichtlinien. Der gesamte Prozess erzeugt einen vollstaendigen Reasoning-Trail, der von der Revision nachverfolgt werden kann.
Gesundheitsbranche: Unterstuetzende Diagnostik und klinische Entscheidungshilfe
Die Gesundheitsbranche ist der Bereich mit dem hoechsten Composite AI-Wertpotenzial, aber auch der hoechsten Eintrittshuerde. Taiwanische Healthcare-AI-Startups und grosse medizinische Zentren erforschen eine „Human-in-the-Loop Composite AI"-Architektur, deren zentrales Designprinzip lautet: AI unterstuetzt, ersetzt aber nicht die klinische Entscheidungsfindung des Arztes.
Ein typisches Clinical Decision Support System (CDSS) integriert folgende Technologiekomponenten: Medizinische Bild-AI (z. B. Modelle zur Knotenerkennung bei Thorax-Roentgenaufnahmen, Zellklassifikationsmodelle fuer Pathologieschnitte) liefert visuelle Diagnoseunterstuetzung, der medizinische Wissensgraph (basierend auf SNOMED CT und ICD-11-Ontologien) stellt strukturierte Verknuepfungen zwischen Krankheiten, Symptomen und Medikamenten bereit, die Arzneimittelinteraktions-Regelmaschine prueft automatisch anhand der Arzneimitteldatenbank die Verschreibungssicherheit, und das LLM generiert auf Basis der Patientenaktenzusammenfassung und der Ausgaben der oben genannten Systeme strukturierte Differenzialdiagnoseberichte und Therapieempfehlungen fuer den Arzt.
Das entscheidende Design dieser Architektur liegt in den klaren Verantwortungsgrenzen jeder Technologiekomponente: Die Bild-AI ist fuer das „Sehen" zustaendig, der Wissensgraph fuer das „Wissen", das Regelwerk fuer die „Absicherung" und das LLM fuer das „Formulieren" — waehrend die endgueltige Diagnoseentscheidung stets beim Arzt verbleibt. Diese Aufgabenteilung entspricht nicht nur den ethischen Anforderungen an medizinische AI, sondern ermoeglicht auch eine praezise Rueckverfolgung, welche Technologiekomponente bei einem Fehler verantwortlich war.
Die Umfrage von IDC Taiwan[10] zeigt, dass die drei groessten Herausforderungen bei der Composite AI-Einfuehrung in taiwanischen Unternehmen folgende sind: Fachkraeftemangel bei der technologieuebergreifenden Integration (67 %), Komplexitaet der Integration mit bestehender IT-Infrastruktur (54 %) und das Fehlen eines klaren ROI-Bewertungsrahmens (48 %). Die gemeinsame Wurzel dieser drei Herausforderungen liegt darin, dass Composite AI nicht nur eine Technologieentscheidung ist, sondern ein Upgrade der organisatorischen Faehigkeiten.
VI. Designprinzipien und Praxisempfehlungen fuer die Composite AI-Architektur
Basierend auf internationalen Best Practices und den Erfahrungen aus der taiwanischen Industrie haben wir sechs Kernprinzipien fuer das Architekturdesign von Composite AI zusammengefasst.
Prinzip 1: Modularitaet und lose Kopplung
Jede AI-Technologiekomponente sollte als unabhaengiger Service (Microservice) konzipiert werden und ueber standardisierte API-Schnittstellen kommunizieren. Das bedeutet: Das LLM kann von GPT-4 auf Claude oder ein privat bereitgestelltes Open-Source-Modell ausgetauscht werden, ohne andere Komponenten zu beeinflussen; der Wissensgraph kann von Neo4j auf Amazon Neptune migriert werden, ohne dass die darueberliegende Anwendung angepasst werden muss; neue Technologiekomponenten (z. B. ein neues Computer-Vision-Modell) koennen jederzeit in die Architektur eingefuegt werden und muessen lediglich die vereinbarte API-Schnittstelle implementieren.
Prinzip 2: Schichtweise Governance und klare Verantwortungsgrenzen
Die Composite AI-Architektur sollte klar drei Governance-Ebenen unterscheiden: Die Wahrnehmungsschicht (Perception) ist fuer das Verstehen von Eingaben zustaendig — NLP, Computer Vision, Spracherkennung; die Kognitionsschicht (Cognition) fuer Reasoning und Entscheidungsfindung — LLM-Reasoning, Wissensgraph-Abfragen, Regelwerk-Bewertung; die Aktionsschicht (Action) fuer die Ausfuehrung von Ausgaben — API-Aufrufe, Datenschreibvorgaenge, Berichterstellung. Jede Schicht hat klar definierte Verantwortungsbereiche und Fehlerbehandlungsmechanismen — bei fehlerhaften Systemergebnissen kann praezise lokalisiert werden, in welcher Schicht und welcher Komponente das Problem liegt.
Prinzip 3: Schrittweise Einfuehrung, beginnend mit einfachen Kombinationen
Versuchen Sie nicht, auf Anhieb ein perfektes Composite AI-System aufzubauen. Der empfohlene Einfuehrungspfad lautet:
Phase 1 — LLM + Regelwerk (1–3 Monate): Ein Regelwerk als Ausgabevalidierungsschicht auf die bestehende LLM-Anwendung aufsetzen. Dies ist die kostenguenstigste Kombination, loest aber sofort Probleme mit LLM-Halluzinationen und Compliance.
Phase 2 — Wissensgraph hinzufuegen (3–6 Monate): Mit dem LLM automatisiert einen Domaenen-Wissensgraphen aufbauen und in die RAG-Architektur integrieren (also GraphRAG). Dieser Schritt verbessert die Wissenstiefe und die dokumentenuebergreifende Reasoning-Faehigkeit des Systems erheblich.
Phase 3 — Multi-Agent-Orchestrierung (6–12 Monate): Die verschiedenen Technologiekomponenten als eigenstaendige Agents kapseln und einen Orchestrator fuer die einheitliche Steuerung einfuehren. Dieser Schritt realisiert die End-to-End-Automatisierung von Geschaeftsprozessen.
Phase 4 — Kontinuierliche Optimierung und Erweiterung (12+ Monate): Basierend auf dem Feedback der Produktionsumgebung die Konfiguration der Komponenten laufend anpassen, neue Technologiekomponenten einfuehren (z. B. Optimierungsengine, Computer-Vision-Modelle) und automatisierte Performance-Ueberwachung sowie A/B-Testmechanismen aufbauen.
Prinzip 4: Einheitliche Observability-Architektur
Die Debugging-Komplexitaet von Composite AI-Systemen ist deutlich hoeher als bei Einzelmodellen. Wenn das System fehlerhafte Ergebnisse liefert, kann das Problem im LLM-Reasoning, der Datenqualitaet des Wissensgraphen, der Logik des Regelwerks, der Kommunikation zwischen Agents oder in einer beliebigen Kombination dieser Bereiche liegen. Daher muss eine einheitliche Observability-Architektur aufgebaut werden — einschliesslich Distributed Tracing (Aufzeichnung von Ein-/Ausgaben und Ausfuehrungszeiten jedes Agents), Metrics Monitoring (Verfolgung von Genauigkeit, Latenz und Kosten jeder Komponente) sowie Log Aggregation (zentralisierte Verwaltung der Ausfuehrungsprotokolle aller Komponenten).
Prinzip 5: Designmuster fuer Mensch-Maschine-Kollaboration
Composite AI soll menschliche Entscheidungstraeger nicht vollstaendig ersetzen, sondern ein kollaboratives Entscheidungsunterstuetzungssystem aufbauen. In der Architekturgestaltung bedeutet dies, an kritischen Entscheidungspunkten „Human-in-the-Loop"-Haltepunkte einzurichten — das System pausiert bei Hochrisiko- oder Niedrigvertrauensentscheidungen, praesentiert den Reasoning-Prozess und Alternativoptionen und wartet auf die Bestaetigung des menschlichen Pruefenden, bevor es fortfaehrt. Dieses Design ist nicht nur eine ethische Anforderung, sondern auch eine praktische Notwendigkeit: Solange das System noch nicht genuegend Domaenenerfahrung gesammelt hat, bleibt das Urteil menschlicher Experten ein unverzichtbarer Qualitaetsgarant.
Prinzip 6: Data Governance zuerst
Die Komplexitaet der Composite AI-Architektur liegt darin, dass mehrere Technologiekomponenten Daten gemeinsam nutzen und austauschen. Data Governance muss von Beginn des Architekturdesigns an beruecksichtigt werden: klare Datenverantwortlichkeiten definieren (welches Team fuer die Qualitaet welcher Wissensgraphen zustaendig ist), quantitative Datenqualitaetsmetriken etablieren (Graph-Abdeckung, Beziehungsgenauigkeit, Regelwerk-Vollstaendigkeit) und eine gestufte Datenschutzstrategie festlegen (welche Daten an Cloud-LLMs gesendet werden duerfen und welche lokal verarbeitet werden muessen). Die McKinsey-Umfrage[8] ergab, dass die haeufigste Ursache fuer das Scheitern von AI-Projekten nicht algorithmische Probleme sind, sondern Datenprobleme — diese Erkenntnis ist im Kontext von Composite AI noch wichtiger.
VII. Technologische Reife und Zukunftsaussichten von Composite AI
Die Forschungen von III MIC[9] und IDC Taiwan[10] stellen uebereinstimmend fest, dass Composite AI 2026 an einem kritischen Wendepunkt steht — vom Stadium der „fruehen Adoption" zur „Mainstream-Anwendung". Im Folgenden fuenf beachtenswerte Technologietrends.
Trend 1: Standardisierung und Interoperabilitaet von Agent-Frameworks. Derzeit gibt es im Multi-Agent-Oekosystem zahlreiche Frameworks — AutoGen[2], CrewAI[6], LangGraph, Semantic Kernel und weitere — denen jedoch ein einheitliches Kommunikationsprotokoll und ein Agent-Beschreibungsstandard fehlen. Anthropics Model Context Protocol (MCP) und Googles Agent2Agent-Protokoll bewegen sich in Richtung Standardisierung. Fuer die zweite Haelfte 2026 werden ausgereiftere framework-uebergreifende Interoperabilitaetsloesungen erwartet.
Trend 2: Automatisierter Betrieb von Wissensgraphen. Der groesste Schmerzpunkt bei Wissensgraphen ist nicht der initiale Aufbau, sondern die laufende Pflege — Geschaeftswissen aendert sich staendig, und der Graph muss diese Aenderungen synchron widerspiegeln. LLM-gesteuerte automatisierte Graph-Wartungspipelines (Aenderungserkennung → inkrementelle Aktualisierung → Konsistenzpruefung → Versionsverwaltung) werden 2026 schrittweise ausgereift sein und die langfristigen Betriebskosten von Wissensgraphen erheblich senken.
Trend 3: Composite AI am Edge. Mit steigender Rechenleistung von Edge-AI-Chips (wie Apple Neural Engine, Qualcomm Hexagon NPU) koennen Teile der Composite AI-Komponenten auf Edge-Geraeten bereitgestellt werden — beispielsweise Computer-Vision-Modelle + leichtgewichtige Regelwerke in der Fabrik, die nur bei Bedarf fuer tiefgreifendes Reasoning auf das Cloud-LLM zugreifen. Diese hybride Bereitstellungsarchitektur wird Latenz und Netzwerkbandbreiteanforderungen deutlich reduzieren.
Trend 4: Automatische Architektursuche fuer Composite AI. Das aktuelle Architekturdesign von Composite AI haengt stark von der Erfahrung menschlicher Architekten ab. Eine absehbare zukuenftige Richtung: Meta-Agents suchen automatisch die am besten geeignete Kombination von Technologiekomponenten und Verbindungsmustern fuer ein bestimmtes Geschaeftsszenario — aehnlich wie AutoML fuer die automatische Suche von Modell-Hyperparametern, aber auf einer hoeheren Ebene, die architektonische Designentscheidungen umfasst.
Trend 5: Regulatorisch getriebene Nachfrage nach Neuro-symbolic AI. Sowohl der EU AI Act als auch das in Taiwan in Erarbeitung befindliche AI-Grundgesetz verlangen von Hochrisiko-AI-Systemen Erklaerbarkeit und Auditierbarkeit[9]. Dies wird die Nachfrage nach Neuro-symbolic AI direkt steigern — denn rein neuronale Netzwerkansaetze koennen die Erklaerbarkeitsanforderungen im aktuellen regulatorischen Rahmen kaum erfuellen, waehrend die symbolischen Komponenten in Composite AI von Natur aus nachverfolgbare Reasoning-Trails bieten.
VIII. Fazit: Von der Technologiesammlung zum intelligenten System
Composite AI ist keine neue AI-Technologie, sondern eine neue AI-Architekturphilosophie. Sie anerkennt eine von der Industrie lange ignorierte Tatsache: Keine einzelne AI-Technologie kann die komplexen Probleme, mit denen Unternehmen konfrontiert sind, allein loesen. So stark das semantische Verstaendnis eines LLM auch sein mag — es benoetigt immer noch das strukturierte Wissen eines Wissensgraphen zur Verankerung von Fakten; so praezise die Mustererkennung von Deep Learning auch ist — sie benoetigt immer noch die deterministische Logik eines Regelwerks zur Sicherstellung der Compliance; so hervorragend die Reasoning-Faehigkeit eines einzelnen Agents auch ist — sie benoetigt immer noch die Arbeitsteilung mehrerer Agenten fuer die Abwicklung von End-to-End-Geschaeftsprozessen.
Fuer Unternehmen sollte die Einfuehrung von Composite AI nicht als einmalige Technologieinvestition betrachtet werden, sondern als fortlaufender Architektur-Entwicklungsprozess. Gartners[1] Empfehlung lautet: Beim aktuell dringendsten Geschaeftsszenario beginnen, die minimale Kombination von Technologiekomponenten waehlen, um dieses Szenario zu loesen, und nach der ROI-Validierung schrittweise Komponenten und Szenarien erweitern. Diese Strategie der „Minimum Viable Composition" ist weitaus pragmatischer und risikoaermer als der Versuch, auf Anhieb eine umfassende AI-Plattform aufzubauen.
Der AI-Wettbewerb 2026 dreht sich nicht mehr darum, „wer das staerkste Modell hat", sondern darum, „wer am effektivsten mehrere AI-Technologien kombinieren kann, um reale Geschaeftsprobleme zu loesen". Composite AI ist genau die Architekturmethodik, die zu diesem Ziel fuehrt. Unternehmen, die fruehzeitig die Designkompetenz fuer Composite AI beherrschen, werden im bevorstehenden AI-Implementierungswettbewerb einen strukturellen Vorteil erlangen.
Gestalten Sie Ihre Composite AI-Architektur
Das AI-Architekturteam von Meta Intelligence verfuegt ueber umfassende Praxiserfahrung in der Gestaltung von Multi-Agent-Systemen, dem Aufbau von Wissensgraphen und der Integration von Neuro-symbolic AI. Wir haben bereits zahlreiche Unternehmen aus der Fertigungs-, Finanz- und Gesundheitsbranche bei der Architekturplanung und produktiven Bereitstellung von Composite AI unterstuetzt. Von der Technologieauswahl ueber das Architekturdesign bis zum Go-Live in der Produktionsumgebung bieten wir End-to-End-Beratungsleistungen.
Kontaktieren Sie uns



