Um Geschäftsprozesse übergreifend zu optimieren, müssen Entscheidungen automatisiert werden. Für eine zuverlässige Automatisierung von komplexen Entscheidungen sind grosse Mengen an Daten erforderlich. Mit diesen Daten können Simulationen ausgeführt werden. Eine optimale Entscheidungsgrundlage für solche komplexe Entscheidungssituationen wäre es, das beste Szenario aus einer grossen Anzahl an ausführlichen Simulationen zu berechnen. An diesem Punkt stösst die bisherige Computertechnologie an ihre Grenzen. Das bekannte Moore’s Law besagt vereinfacht, dass sich die Rechenleistung von neuen Computern bei gleichem Preis ca. alle 12-18 Monate verdoppelt. Obwohl traditionelle Computersysteme immer performanter werden, ist die bewährte Technologie nicht optimal für solch aufwändige Simulationsaufgaben geeignet. Genau hier kommt das Quantencomputing ins Spiel. Ein herkömmlicher Prozessor arbeitet auf Basis von elektrischen Schaltungen (0 und 1) – ein Quantencomputer auf Basis von quantenmechanischen Zuständen. Diverse Studien belegen, dass gewisse Aufgaben von Quantencomputern um Faktoren schneller gelöst werden als mit herkömmlichen Prozessoren.
Wo steht die Technologie?
Quantencomputing wird seit rund 10 Jahren erforscht und weiterentwickelt. Dennoch ist die fragile Technologie noch nicht in der Praxis angekommen. Das liegt an zwei grossen Problemstellungen: Einerseits funktionieren Quantencomputer nur nahe der Nullgrad-Termperaturgrenze und bedürfen deshalb enormer Kühlleistung. Andererseits sind die Rechenoperationen noch fehleranfällig (Dekohärenz) und es wird intensiv nach Verfahren gesucht, um die Zuverlässigkeit zu erhöhen.
Exkurs: «Quantum Error Correction»
Ein Knackpunkt beim Betrieb eines Quantencomputers ist die Dekohärenz. Dekohärenzeffekte ergeben sich, wenn ein Quantensystem mit seiner Umgebung in Wechselwirkung tritt und dabei die «Quanten-Magie» (Überlagerung) verloren geht. Bei Quantencomputern wird durch Abkühlung auf ein paar Milli-Kelvin über dem absoluten Nullpunkt versucht, diese Dekohärenzeffekte möglichst lange hinauszuzögern, so dass die quantenmechanischen Überlagerungen, welche für die Quantenalgorithmen genutzt werden, möglichst lange ungestört aufrechterhalten werden.
Dekohärenz lässt sich nicht vermeiden und hat einen Einfluss auf die mögliche Laufzeit eines Quantenalgorithmus resp. wie komplex dieser sein darf, um noch ein korrektes Resultat zu liefern. Hier kommen fehlerkorrigierende Quantencodes zum Zuge. Aber auch an dieser Stelle macht es die Quantenwelt den Ingenieuren nicht einfacher. In der klassischen Welt kann ein Algorithmus in einzelne Schritte aufgeteilt, können die Teilergebnisse gespeichert und in weiteren Schritten weiterverarbeitet werden. In der Quantenwelt geht dies nicht unbedingt, da ein Teilergebnis eine Messung des Quantenzustands bedeutet und damit die quantenmechanische Überlagerung verloren geht. Der Trick ist, mehrere physikalische QBits zu einem logischen QBit zusammen zu nehmen. Die Krux dabei ist, dass der fehlerkorrigierende Code die physikalischen QBits nicht direkt messen darf und von daher indirekt den Fehler erkennen und korrigieren muss.
Aktuell ist die Quantum-Fehlerkorrektur ein lebendiges Forschungsgebiet und bedient sich je nach QBit-Technologie verschiedener Lösungsansätze. Welche sich hierbei durchsetzen wird, ist offen. Spannend bleibt auch, ob der Ansatz von Microsoft beim Bau eines topologischen QBits (Majorana-Fermionen) wirklich erfolgreich ist. Diese topologischen QBits sollen Eigenschaften besitzen, die Fehler «automatisch» korrigieren. Bildlich gesprochen: ähnlich einer Kugel in einer Schale, welche nach einem Störeinfluss zurück an den tiefsten Punkt der Schale (optimaler Zustand) findet.
Die Wirtschaft bereitet sich dennoch auf die Adoption der neuen Technologie vor. Technologieriesen wie Google oder auch spezialisierte Anbieter wie Rigetti Computing (Nasdaq kotiert) und natürlich auch die Forschung investieren seit Jahren beträchtliche Summen und erzielen kontinuierlich Fortschritte. So weihte IBM im Juni 2021 zusammen mit dem Frauenhofer Institut in der Nähe von Stuttgart den ersten Quantencomputer in Deutschland ein. Global fliesst immer mehr Kapital in Start-ups, die die Technologie als Basis für ihr Geschäftsmodell definiert haben. Die Hyperscaler sorgen für den sicheren und performanten Zugang zu den Quantencomputern wie etwa Amazon Braket. Zudem wird es den Anwendern leicht gemacht, mit der Technologie zu experimentieren – IBM bietet mit dem «Open Plan» beispielsweise einen kostenfreien Zugang an. Und Google hat jüngst sein Python-basiertes Programmier-Framework für Quantencomputer namens «Cirq» in der Version 1.0 freigegeben. In gewissen Branchen liegt der Nutzen der revolutionären Technologie auf der Hand. Die Wetterprognosen werden sich auf Basis der neuen Technologie weiter verbessern. Ebenso steckt in der personalisierten Medizin ein riesiges Potenzial – beispielsweise für die grosse Anzahl an seltenen Krankheiten.
Exkurs: uptownBasel
Forschungsintensive Branchen wie Chemie, Pharma und Maschinenbau gehören global zu den frühen Anwendern der Technologie. So nutzen bspw. Flugzeughersteller die Technologie für die Strömungsanalyse von Triebwerken. Oder die Chemie wendet Quantencomputer für die Berechnung von komplexen biochemischen Reaktionen an. Für die Wirtschaftsregion Basel ist die Technologie folglich ein wichtiger Standortfaktor der Zukunft. In Basel hat sich der Innovations-Hub uptownBasel dem Quantencomputing bereits angenommen. Aktuell wird dort auf 70’0000 m2 ein internationales Kompetenzzentrum für Industrie 4.0 aufgebaut. Der sichere und performante Zugang zu den Quantencomputern von verschiedenen Herstellern ist bereits fest auf der Roadmap eingeplant und steht demnächst zur Verfügung.
Adoption in der Finanzindustrie
Auch in der Finanzindustrie tut sich etwas. Das Institut für Finanzdienstleistungen Zug (IFZ) der Hochschule Luzern forscht bereits seit geraumer Zeit am Thema und stellte unlängst fest, dass die Potenziale von Quantencomputing für die Finanzindustrie entlang der Use Cases Machine Learning, Monte Carlo Simulation und Portfolio-Optimierung zu suchen sind. Mastercard und das auf Quantencomputing fokussierte Unternehmen D-Wave schlossen jüngst eine mehrjährige Partnerschaft ab, um die Technologie in den Bereichen Payment, Fraud Detection und Loyalty Management in die Praxis zu hieven. Die Quantentechnologie gilt es folglich als Ergänzung zu anderen Technologien einzustufen. Leistungen aus Quantencomputern werden aufgrund ihrer hohen Kosten und anspruchsvollen Betriebsbedingungen als Service bezogen, was in der Gesamtarchitektur der hybriden IT-Plattform berücksichtigt werden muss – vergleichbar mit Cloud-Services auf Basis von Grafikprozessoren (GPU).
Outlook
Die Quantencomputertechnologie entwickelt sich stetig weiter. Der Fokus liegt aktuell in der besseren Beherrschung der fragilen Technologie und der Steigerung der Zuverlässigkeit von Berechnungen. Die Forschung sowie die Branchen Energie, Chemie und Pharma werden die Technologie früh adoptieren und zur praktischen Marktreife bringen. Wir gehen davon aus, dass die kommerzielle Nutzung in der Finanzindustrie erst in den frühen 2030er Jahren umgesetzt sein wird, da die konkrete Businessanwendung noch definiert werden muss, um die Investitionen zu rechtfertigen. Quantencomputing ist ein strategisches Suchfeld des Inventx Lab – wir bleiben deshalb weiterhin am Ball.
Ein verwandtes Thema liegt im Bereich der IT-Sicherheit (Post-Quanten-Krypthographie) – hierzu werden wir einen separaten Blog-Beitrag publizieren.
Mitautoren des Blogs sind Stefan Stettler & Damir Bogdan.