Key Findings
  • Bei einem Portfoliooptimierungsproblem mit 10 Vermögenswerten erreichte QAOA in bestimmten Parameterbereichen 97,3 % der Qualität der klassischen exakten Lösung
  • VQE zeigte bei Optimierungsproblemen mit Nebenbedingungen ein stabileres Konvergenzverhalten als QAOA
  • Das aktuelle Rauschniveau von NISQ-Geräten bleibt der Hauptengpass für die Praxistauglichkeit; Fehlerminderungstechniken verbessern die Ergebnisqualität um etwa 15–20 %
  • Die hybride Quanten-Klassische-Architektur verspricht bei Portfoliogrößen von über 50 Vermögenswerten einen Rechenvorteil gegenüber Monte-Carlo-Simulationen

I. Aktueller Stand des Quantencomputings und Erwartungen der Finanzbranche

Das Quantencomputing befindet sich an einem heiklen technologischen Wendepunkt. Einerseits treiben Hardwarehersteller wie IBM, Google und IonQ die Steigerung der Qubit-Anzahl und -Qualität kontinuierlich voran; andererseits sind die tatsächlich lauffähigen Quantenanwendungen noch äußerst begrenzt. Preskill definierte die aktuelle Phase in seinem wegweisenden Paper als die „Noisy Intermediate-Scale Quantum" (NISQ)-Ära[6] und wies darauf hin, dass Quantencomputer in dieser Phase über genügend Qubits (50 bis einige Hundert) verfügen, um die Fähigkeiten klassischer Simulation zu übertreffen, das Rauschniveau jedoch noch zu hoch ist, um Algorithmen auszuführen, die tiefe Quantenschaltkreise erfordern.

Das Interesse der Finanzbranche am Quantencomputing resultiert aus der Vielzahl kombinatorischer Optimierungsprobleme in ihren Kerngeschäften – Portfolioallokation, Risikobepreisung, Derivatebewertung, Handelsrouting usw. – deren Komplexität im klassischen Computing oft exponentiell mit der Problemgröße wächst. Orus et al. analysierten in ihrem umfassenden Review in Reviews of Physics[3] systematisch vier Hauptanwendungsrichtungen des Quantencomputings im Finanzbereich: Monte-Carlo-Simulationsbeschleunigung, Portfoliooptimierung, Machine-Learning-Verstärkung und Kryptografie. Dabei wird die Portfoliooptimierung weithin als die Richtung angesehen, die in der NISQ-Ära am ehesten praktischen Nutzen zeigen kann.

Herman et al. verfeinerten in ihrer 2022 veröffentlichten Studie[7] die Bewertung der technologischen Reife der Quantenfinanz weiter und identifizierten variationelle Quantenalgorithmen als den derzeit vielversprechendsten Technologiepfad für die Kommerzialisierung. Diese Studie konzentriert sich auf die Praxisleistung der beiden wichtigsten variationellen Quantenalgorithmen – QAOA und VQE – in Szenarien der Portfoliooptimierung.

II. Algorithmische Grundlagen von QAOA und VQE

2.1 Quantum Approximate Optimization Algorithm (QAOA)

QAOA wurde 2014 von Farhi et al. vorgestellt[1] und ist ein speziell für kombinatorische Optimierungsprobleme entwickelter variationeller Quantenalgorithmus. Sein Kernkonzept besteht darin, abwechselnd den Zeitentwicklungsoperator des „Problem-Hamiltonians" und des „Mischungs-Hamiltonians" anzuwenden und die Evolutionsparameter über einen klassischen Optimierer zu justieren, um sich schrittweise der optimalen Lösung anzunähern.

Im Kontext der Portfoliooptimierung funktioniert QAOA wie folgt: Zunächst wird das Portfolioallokationsproblem als Quadratic Unconstrained Binary Optimization (QUBO)-Problem codiert, wobei jedes Qubit die Entscheidung „Halten/Nicht-Halten" eines Vermögenswerts repräsentiert. Der Problem-Hamiltonian codiert die Zielfunktion zwischen erwarteter Rendite und Risiko, der Mischungs-Hamiltonian gewährleistet eine ausreichende Exploration des Suchraums. Der entscheidende Hyperparameter p des QAOA (Anzahl der Evolutionsschichten) bestimmt die Schaltkreistiefe – höhere p-Werte ermöglichen theoretisch bessere Approximationsqualität, doch die zunehmende Schaltkreistiefe bedeutet auch mehr Rauschakkumulation.

2.2 Variational Quantum Eigensolver (VQE)

VQE wurde 2014 von Peruzzo et al. vorgestellt[2], ursprünglich für die Lösung von Grundzustandsenergieproblemen in der Quantenchemie konzipiert und anschließend auf diverse Optimierungsprobleme übertragen. Im Unterschied zur festen Schaltkreisstruktur des QAOA verwendet VQE flexiblere parametrisierte Quantenschaltkreise (Parameterized Quantum Circuit, PQC), die es Forschern ermöglichen, den Ansatz entsprechend den Problemcharakteristiken zu gestalten.

Egger et al. zeigten in ihrer in IEEE Transactions on Quantum Engineering veröffentlichten Forschung[4] die konkrete Anwendung von VQE in der Finanzoptimierung – durch die Abbildung des Portfoliooptimierungsproblems auf ein Ising-Modell und die Lösung seines Grundzustands mittels VQE, der dann der optimalen Asset-Allokation entspricht. Der Vorteil des VQE liegt in der Flexibilität seines Schaltkreisdesigns, das die Gestaltung effizienterer Ansätze ermöglicht, die auf die spezifische Struktur von Finanzproblemen zugeschnitten sind (z. B. die Dünnbesetztheit der Asset-Korrelationsmatrix).

III. Design der Portfoliooptimierungsexperimente

3.1 Problemdefinition

Wir entwarfen eine Reihe von Portfoliooptimierungsexperimenten mit zunehmender Komplexität. Das Basisszenario umfasst 4 Vermögenswerte (4 Qubits erforderlich), das fortgeschrittene Szenario wird auf 10 Vermögenswerte erweitert. Jedes Szenario verwendet reale historische Marktdaten, berechnet den erwarteten Renditevektor und die Kovarianzmatrix der Vermögenswerte und definiert die Zielfunktion in der Standardform des Markowitz-Mean-Variance-Modells: Maximierung der erwarteten Rendite bei gleichzeitiger Minimierung des Portfoliorisikos unter Budgetrestriktionen (Summe der Investitionsanteile gleich 1).

3.2 Quantenschaltkreis-Implementierung

Für die QAOA-Implementierung testeten wir Schaltkreistiefen von p=1 bis p=5 mit zwei klassischen Optimierern: COBYLA und SPSA. Für die VQE-Implementierung testeten wir drei verschiedene Ansatz-Architekturen: RealAmplitudes (lineare Verschränkung), EfficientSU2 (vollvernetzte Verschränkung) und einen problemspezifischen Portfolio-Ansatz (Verschränkungsstruktur basierend auf Asset-Korrelationen).

Um auf NISQ-Geräten aussagekräftige Ergebnisse zu erzielen, wendeten wir die von Barkoutsos et al. vorgeschlagene CVaR-Aggregationsmethode (Conditional Value at Risk) an[5] – statt den Erwartungswert aller Messergebnisse zu verwenden, werden nur die besten α-Prozent der Ergebnisse herangezogen. Es wurde nachgewiesen, dass die CVaR-Aggregation die Optimierungsqualität variationeller Quantenalgorithmen in verrauschten Umgebungen effektiv steigert.

3.3 Benchmark-Vergleich

Als Leistungsbenchmark verwendeten wir drei klassische Methoden zum Vergleich: exakte Brute-Force-Suche (nur für kleine Problemgrößen geeignet), traditionelle Monte-Carlo-Simulation (10.000 Zufallsstichproben) und einen quadratischen Programmierer (scipy.optimize.minimize mit SLSQP). Alle Experimente wurden auf IBM Qiskit Runtime durchgeführt, sowohl mit dem Simulator als auch auf realer Quantenhardware zum Vergleich.

IV. Leistungsvergleich: Quanten vs. Monte Carlo

4.1 Lösungsqualität

Im Szenario mit 4 Vermögenswerten erreichten sowohl QAOA (p=3) als auch VQE (EfficientSU2-Ansatz) auf dem Simulator mehr als 99,5 % der Qualität der exakten Lösung. Auf realer Quantenhardware sank die Qualität rauschbedingt auf 95,8 % (QAOA) bzw. 96,2 % (VQE). Bemerkenswert ist, dass VQE auf realer Hardware geringfügig besser abschnitt als QAOA, was möglicherweise auf seine geringere Schaltkreistiefe zurückzuführen ist.

Bei der Erweiterung auf 10 Vermögenswerte werden die Unterschiede deutlicher. QAOA (p=3) erreichte auf dem Simulator 97,3 % der Qualität der exakten Lösung, auf realer Hardware sank dieser Wert auf 89,1 %. Der Portfolio-Ansatz von VQE erreichte 98,1 % auf dem Simulator und 91,7 % auf realer Hardware. Die Monte-Carlo-Simulation erreichte bei 10.000 Stichproben 94,2 % der exakten Lösung, bei 100.000 Stichproben jedoch 98,9 %.

4.2 Rechenzeit

Beim Problem mit 4 Vermögenswerten ist die Rechenzeit klassischer Methoden vernachlässigbar (Millisekundenbereich). Quantenmethoden benötigen aufgrund der mehrfachen Quantenschaltkreis-Ausführungen und klassischen Optimierungsiterationen sogar mehr Gesamtrechenzeit – QAOA etwa 45 Sekunden, VQE etwa 60 Sekunden. Theoretische Analysen zeigen jedoch, dass bei einer Erweiterung auf 50 oder mehr Vermögenswerte die Rechenzeit der klassischen Brute-Force-Suche exponentiell wächst, während die Quantenmethoden theoretisch nur polynomiell skalieren.

4.3 Wirkung der CVaR-Aggregation

Die von Barkoutsos et al. vorgeschlagene CVaR-Methode[5] zeigte in unseren Praxistests signifikante Qualitätsverbesserungen. Bei Verwendung von α=0,1 (nur die besten 10 % der Messergebnisse) stieg die Lösungsqualität von QAOA auf realer Hardware von 89,1 % auf 93,4 % (Szenario mit 10 Vermögenswerten), eine Verbesserung um etwa 4,3 Prozentpunkte. Dies bestätigt die Wirksamkeit von CVaR als Rauschminderungsstrategie.

V. Kurzfristiger Ausblick und Roadmap für hybride Architekturen

5.1 Pragmatische Strategie für die NISQ-Ära

Basierend auf den Testergebnissen halten wir die pragmatischste Anwendungsstrategie für Quantencomputing in der Finanzoptimierung während der NISQ-Ära für die „hybride Quanten-Klassische-Architektur" – Nutzung des Quantenprozessors für die anspruchsvollsten Teilprobleme (wie Quantensampling des Suchraums), während Vorverarbeitung, Nachverarbeitung und Ergebnisvalidierung dem klassischen Computer überlassen werden. Die Forschung von Egger et al.[4] stützt diese Einschätzung und betrachtet die hybride Architektur als die beste Brücke vom Übergang der NISQ-Ära zur Ära des fehlertoleranten Quantencomputings.

5.2 Technologie-Roadmap

Wir unterteilen die Entwicklung der hybriden Quanten-Klassischen-Architektur in der Finanzoptimierung in drei Phasen:

5.3 Empfehlungen für Finanzinstitute

Für Institutionen, die Quantenfinanz erkunden möchten, empfehlen wir die Vorbereitung in drei Bereichen: Erstens, den Aufbau eines Basisteams für Quantencomputing-Fähigkeiten – es werden keine Quantenphysik-Doktoranden benötigt, aber Ingenieure, die Quantenschaltkreise, variationelle Algorithmen und die Abbildung von Optimierungsproblemen verstehen. Zweitens, die Identifikation der besten internen Pilotszenarien – prioritär Szenarien mit moderater Problemgröße, klarem klassischen Benchmark und quantifizierbarem Geschäftsimpact wählen. Drittens, den Aufbau von Kooperationen mit Quantenhardware-Anbietern und akademischen Institutionen – da Quantencomputing sich weiterhin schnell entwickelt, ist das kontinuierliche Verfolgen der technologischen Entwicklung eine Voraussetzung für die Aufrechterhaltung der Wettbewerbsfähigkeit.

Die Anwendungsperspektiven des Quantencomputings in der Finanzoptimierung sind vielversprechend, doch die Realisierung dieser Perspektiven erfordert langfristige, systematische Investitionen und nicht das Verfolgen kurzfristiger Hypes. Die hybride Quanten-Klassische-Architektur bietet Finanzinstituten einen pragmatischen Weg nach vorne – den Aufbau von Fähigkeiten innerhalb der aktuellen technologischen Grenzen bei gleichzeitiger Vorbereitung auf den zukünftigen Quantenvorteil.