Finds documents with both search terms in any word order, permitting "n" words as a maximum distance between them. Best choose between 15 and 30 (e.g. NEAR(recruit, professionals, 20)).
Finds documents with the search term in word versions or composites. The asterisk * marks whether you wish them BEFORE, BEHIND, or BEFORE and BEHIND the search term (e.g. lightweight*, *lightweight, *lightweight*).
Activate our intelligent search to find suitable subject content or patents.
Select sections of text to find matching patents with Artificial Intelligence.
powered by
Select sections of text to find additional relevant content using AI-assisted search.
powered by
(Link opens in a new window)
Zusammenfassung
Quantencomputerwurden ursprünglich bereits im letzten Jahrhundert als neuartige Computer vorgeschlagen, um insbesondere Simulationen von quantenmechanischen Prozessen zu verbessern. In den letzten Jahren konnten Quantencomputer auch praktisch realisiert werden und stehen nun als erste kleine Geräte kommerziell zur Verfügung. Dadurch kann das Potential für unterschiedliche Anwendungsbereiche eingehender praktisch erforscht werden. Ein vielversprechender Bereich ist die quantengestützte Künstliche Intelligenz (KI), wo der Einsatz von Quantencomputing z. B. zu einem dateneffizienteren Training führen kann. Dieser Beitrag diskutiert den aktuellen Stand von Quantencomputing und zeigt mögliche Perspektiven einer quantengestützten KI auf, einschließlich möglicher Anwendungsfelder und aktueller Herausforderungen.
12.1 Einleitung
Das empirische Gesetz von Moore (1965) postulierte für viele Jahre eine Verdopplung der Transistoren in einem integrierten Schaltkreis bei gleichbleibenden Kosten durch Fortschritte in der technischen Realisierung etwa alle zwei Jahre und somit kontinuierlich leistungsfähigere Computer. Doch diese Fortschritte verlangen unter anderem das fortwährende Verkleinern von Strukturen auf Computerchips, so dass davon ausgegangen wird, dass das Gesetz von Moore über die Zeit seine Gültigkeit verlieren wird. Tatsächlich weisen erste Messungen im High-Performance-Computing (HPC) bereits auf eine Abschwächung von Moore’s Gesetz hin. Zugleich verlangen aber die steigende Digitalisierung und vor allem der voranschreitende zunehmende Einsatz von Künstlicher Intelligenz (KI) in der Industrie, der wissenschaftlichen Forschung und dem alltäglichen Leben höhere Speicher- und Rechenkapazitäten. Daher wird intensiv an neuartigen Computertypen sowie auch an neuen Computing-Strukturen geforscht.
Bereits 1982 wurde von Richard P. Feynman die Annahme geäußert, dass sich klassische Computer für die Berechnung mancher Fragestellungen nicht gut eignen – nämlich in der Simulation von quantenmechanischen Systemen, wie der Simulation von Molekülen. Vielmehr würde ein neuartiger Computer benötigt, der quantenmechanische Prinzipien direkt in seinen Berechnungen berücksichtigt:
„… because nature isn’t classical, dammit, and if you want to make a simulation of nature, you’d better make it quantum mechanical, and by golly it’s a wonderful problem, because it doesn’t look so easy.“
Advertisement
Es wird erwartet, dass ein Quantencomputer manche Rechenprobleme deutlich effizienter als klassische Computer lösen oder sogar Probleme berechnen kann, an denen aktuell selbst Supercomputer scheitern, wie beispielsweise die Simulation bestimmter Moleküle. Diese Annahmen beruhen auf einigen grundlegenden Algorithmen, die mit der Hilfe von Quantencomputern ausgeführt werden können (sogenannte Quantenalgorithmen). Ein besonders wichtiger Algorithmus ist hierbei der von Peter Shor, 1994 vorgeschlagene Algorithmus zur effizienten Zerlegung von Zahlen in ihre Primfaktoren. Die Schwierigkeit, mit aktuell verfügbaren Computern große Zahlen effizient in ihre Primfaktoren zu zerlegen, ist die Grundlage von modernen RSA-Verschlüsselungsverfahren. Sollte daher ein Quantencomputer tatsächlich in der Lage sein, wie in Shor’s Algorithmus demonstriert, diese Zerlegung superpolynom schneller als aktuell vorhandene Computer durchzuführen, so wären etablierte Verschlüsslungsverfahren angreifbar.
Kurz danach schlug Lov Grover (1996) einen Algorithmus vor, der ein Element in einer unstrukturierten Datenbank effizient finden kann. Im Vergleich zu einem manuellen Durchsuchen einer Datenbank nach einem Element erreicht Grover’s Algorithmus zwar nur eine quadratische Beschleunigung, aber das effiziente Lösen von Suchproblemen ist eine grundlegende Fragestellung in der Lösung von mathematischen Optimierungsproblemen.
2009 schlugen Harrow, Hassidim und Lloyd einen effizienten Algorithmus zur Lösung von linearen Systemen von Gleichungen vor, der im Vergleich zu alternativen klassischen Algorithmen ebenfalls einen superpolynomen Vorteil aufweist – den HHL-Algorithmus. Wenige Jahre später (ab 2013) erschienen erste Arbeiten (Lloyd et al., 2013; Wittek, 2014), die explorierten, ob der Einsatz von Quantencomputern einen Vorteil im Bereich des maschinellen Lernens bedeuten könnte. Obwohl diese Frage noch nicht abschließend beantwortet ist, entwickelte sich daraus innerhalb weniger Jahre das sehr aktive neue Forschungsfeld des quanten-maschinellen Lernens (QML).
Trotz der ersten Vorschläge von Quantencomputern in den Achtzigerjahren des letzten Jahrhunderts dauerte es einige Jahrzehnte, bevor Quantencomputer auch tatsächlich technisch realisiert werden konnten. Ihre Entwicklung erreichte in den letzten Jahren einige bemerkenswerte Ergebnisse. So behauptete Google 2019 mit dem Google Sycamore-Chip eine Quantenüberlegenheit auf einem spezifischen mathematischen Problem (Arute, 2019), auch wenn dieser Vorteil im Vergleich zu klassischen Algorithmen in der wissenschaftlichen Community heftig debattiert wurde und das betrachtete Problem keine industrielle Relevanz aufwies. 2023 behauptete IBM sogenannte Quanten-Nützlichkeit (Quantum Utility) (Kim, 2023), wobei für ein spezielles mathematisches Problem der Quantenalgorithmus und vergleichbare klassische Algorithmen sehr ähnliche Ergebnisse lieferten. Zudem gelingt es zunehmend besser, die aktuell noch fehleranfälligen Quantencomputer durch Korrektur der Fehler zu kontrollieren (Bluvstein, 2024).
Advertisement
Gerade das Experiment mit dem Google Sycamore-Chip triggerte die Erwartung, dass der perspektivische Einsatz von Quantencomputern einen disruptiven Einfluss auf verschiedene industrielle Domänen haben wird. So wird zurückkommend auf die Idee von Richard P. Feynman erwartet, dass der Einsatz von Quantencomputern die Simulation von quantenmechanischen Materialien und Molekülen erlauben wird, für die selbst die aktuell verfügbaren Ressourcen von HPC-Systemen nicht ausreichend sind. Dies ist dann in der Entwicklung sowohl von neuen Medikamenten als auch von neuen Materialien in der Chemiebranche, wie z. B. Katalysatoren, relevant. Zudem wird, zurückgehend auf Grover’s Algorithmus, erwartet, dass Quantencomputer mathematische Optimierungsprobleme deutlich effizienter als aktuelle Computer lösen können, wobei mathematische Optimierungsprobleme in industriellen Fragestellungen, beispielsweise in der Logistik und in der Produktion, zahlreich erscheinen. Hierbei handelt es sich meistens um NP-schwere Probleme (wie z. B. dem Handelsreisendenproblem), so dass von einem Quantencomputer typischerweise keine genaue Lösung erwartet werden kann, sondern nur eine ‚bessere‘ approximative Lösung, als dies mit aktuellen klassischen Computern möglich ist. Die effiziente Lösung von linearen Systemen von Gleichungen durch den HHL-Algorithmus lässt erwarten, dass sich Berechnungen in den Einsatzbereichen von Differentialgleichungen, wie in der Strömungsmechanik oder im maschinellen Lernen, deutlich effizienter als mit klassischen Computern lösen lassen. Dies hätte erhebliche Auswirkungen auf beispielsweise den Luftfahrt-Sektor, aber auch auf alle Branchen, die KI und maschinelles Lernen einsetzen. Eine Studie der Boston Consulting Gruppe sagt voraus (BCG, 2023), dass Quantencomputing in den nächsten 15 bis 30 Jahren zu einer wirtschaftlichen Wertschöpfung von bis zu 80 Mrd. US-$ in der Medikamentenentwicklung oder von bis zu 100 Mrd. US-$ im Logistikbereich führen könnte.
Jedoch ist das Potential von Quantenalgorithmen im Vergleich zum Einsatz von klassischen Algorithmen nicht immer direkt bewertbar, wie an einem Forschungsbeispiel des Autors verdeutlicht werden soll. In der Medizin wird an verschiedenen Stellen der Einsatz von KI-Algorithmen zur Diagnose- und Entscheidungsunterstützung exploriert und teilweise auch bereits in der medizinischen Praxis eingesetzt. Dies ist insbesondere in der medizinischen Bildgebung der Fall, wo KI-Algorithmen schon heute verwendet werden, um z. B. Frakturen auf MRT-Bildern oder Tumore auf CT-Bildern zu entdecken und zu klassifizieren. In diesem Kontext erweist sich jedoch das herkömmliche Trainieren eines KI-Algorithmus als problematisch, da im medizinischen Kontext häufig nur sehr wenige Trainingsdaten vorliegen – oft nur 100 oder 1000 Bilder. Zugleich muss aber gerade in diesem Bereich ein besonders hohes Level an Sicherheit beim Einsatz von KI erreicht werden, um zu gewährleisten, dass die Entscheidungen zu keinem Schaden an Patienten führen.
Es ist recht schwierig, an weitere Bilddaten hoher Qualität heranzukommen, insbesondere wenn es um seltene Erkrankungen geht, denn diese Bilder müssen erst kostspielig aufgezeichnet und dann von nur wenigen verfügbaren Experten aufwendig annotiert werden. Sollen nun KI-Algorithmen auch in diesem Bereich insbesondere für seltene Erkrankungen eingesetzt werden, so müssen aufwendigere und zuverlässigere KI-Algorithmen erforscht werden – dies ist auch Bestandteil aktueller KI-Forschung. Aber auch der Einsatz quantengestützter KI ist hier vielversprechend, da mathematisch-theoretische Arbeiten (Caro, 2022) zeigen, dass spezielle QML-Algorithmen bessere Generalisierungseigenschaften aufweisen als äquivalente klassische Algorithmen. Das heißt, die eingesetzten QML-Algorithmen sind möglicherweise in der Lage, auch mit weniger Trainingsdaten ein gutes Ergebnis zu erreichen. Nun sind aber in der realen Anwendung die jeweiligen besten klassischen und Quantenalgorithmen relevant und müssen miteinander verglichen werden. Vergleichsgrößen können z. B. die erreichte Genauigkeit und Zuverlässigkeit sein. Aufgrund der Unzulänglichkeit aktuell verfügbarer Quantencomputer bleiben aber aktuell mögliche Berechnungen auf Quantencomputern klein und zeigen sich aus diesem Grund weniger performant als klassische Algorithmen und Computer. Dies ist ein wiederkehrendes Problem im Vergleich zwischen klassischen und Quantenalgorithmen: Können mathematisch-theoretisch nur Vergleiche zwischen gleichartigen Algorithmen gezogen werden, so zählt in der Praxis die Performance. Und Verbesserungen im Bereich der Quantenalgorithmen werden von Verbesserungen im Bereich der klassischen Algorithmen aufgewogen, so dass sich schlussendlich klassische Algorithmen und Quantenalgorithmen in der Erarbeitung von immer performanteren Algorithmen ein Wettrennen liefern.
12.2 Grundlagen des Quantencomputings
Im Gegensatz zu klassischen Computern rechnet ein Quantencomputer mit sogenannten Quantum Bits (Qubits). Arbeitet ein klassischer Computer mit Bits, welche Werte von 0 oder 1 einnehmen können, so ist ein Qubit eine Überlagerung beider quantenmechanischer Zustände |0⟩ und ∣1⟩ zugleich:
Wobei im quantenmechanischen System die beiden Vorfaktoren α ∈ ℂ und β ∈ ℂ normiert sein müssen: |α|2 + |β|2 = 1. Nun kann gezeigt werden, dass eine globale Phase keinen Effekt auf das Ergebnis einer Berechnung hat, so dass es auch möglich ist, ein Qubit in Polarkoordinaten darzustellen:
Unter Zuhilfenahme dieser Darstellung kann ein Qubit auf die Oberfläche einer Kugel projiziert werden, der sogenannten Bloch-Kugel, wie in Abb. 12.1 dargestellt. Hierbei kann das Qubit jeden Wert auf der Oberfläche dieser Kugel und so prinzipiell unendlich viele verschiedene Werte einnehmen. Hierbei wird der Zustand ∣1⟩ typischerweise mit dem Nordpol identifiziert und der Zustand |0⟩ mit dem Südpol. Jedoch kollabiert das quantenmechanische System bei einer Messung desselbigen, wie es beim Auslesen eines Berechnungsergebnisses aus einem Quantencomputer passieren wird. Wenn also nun ein Qubit gemessen wird, so wird man entweder |0⟩ oder |1⟩ messen (was dann auf die klassischen Bits 0 bzw. 1 abgebildet wird), wobei die Wahrscheinlichkeit dafür den Vorfaktoren entspricht: Die Wahrscheinlichkeit |0⟩ zu messen ist |α|2, und für |1⟩ ist sie |β|2. Ein Quantencomputer gibt somit prinzipiell probabilistische Ergebnisse zurück. Es können nun auf Qubits verschiedene Rechenoperationen ausgeführt werden, sogenannte Gatter . Operationen, die hierbei nur auf ein Qubit wirken, die Ein-Qubit-Gatter, führen Rotationen auf der Bloch-Kugel aus. Beispielsweise rotiert das X-Gatter, auch NOT-Gatter genannt, ein Qubit um 180° um die x-Achse der Bloch-Kugel, was in diesem Fall bedeutet, dass aus |0⟩ eine |1⟩ wird und umgekehrt bzw.
Abb. 12.1
Ein Qubit kann prinzipiell alle Werte auf der Oberfläche einer Bloch-Kugel einnehmen (links). Der Zustand |0⟩ entspricht hierbei dem Nordpol. Die Anwendung eines Hadamard-Gatters führt zur Rotation dieses Zustandes. Der eingenommene Zustand liegt auf der x-Achse
X · |ψ⟩ = X · (α| 0⟩ + β ∣ 1⟩) = α ∣ 1⟩ + β ∣ 0⟩. Dementsprechend führen die Y- und Z-Gatter 180°-Rotationen um die y- und z-Achse aus. Ein besonders wichtiges Gatter ist das sogenannte Hadamard-Gatter, da es ein Qubit im Zustand ∣0⟩ in eine Überlagerung beider Zustände |0⟩ und ∣1⟩ bringt:
Möchte man nun Berechnungen auf einem Quantencomputer realisieren, so konstruiert man zu diesem Zweck Quantenschaltkreise, in denen auf mehrere Qubits verschiedene Gatter angewendet werden, bevor das Ergebnis der Berechnung schlussendlich durch eine Messung des Quantenschaltkreises ausgelesen wird. Hierbei werden die Qubits üblicherweise zunächst in den Quantenzuständen ∣0⟩ präpariert.
Neben verschiedenen Ein-Qubit-Gattern können dann auch Mehr-Qubit-Gatter angewendet werden. Hier spielt das sogenannte CNOT-Gatter eine besondere Rolle, weil alle möglichen Gatter durch eine Kombination aus Ein-Qubit-Gattern und dem CNOT-Gatter dargestellt werden können. Das CNOT-Gatter ist ein Zwei-Qubit-Gatter. Wenn das erste Qubit, das sogenannte Kontroll-Qubit, im Zustand ∣1⟩ ist, so wird auf dem sogenannten Ziel-Qubit ein X-Gatter ausgeführt. Ansonsten, wenn das Kontroll-Qubit im Zustand |0⟩ ist, wird auf dem Ziel-Qubit keine Operation ausgeführt. Das CNOT-Gatter erlaubt es, zwei Qubits miteinander zu verschränken. Der quantenmechanische Effekt der Verschränkung wurde von Einstein einmal als „spooky action“ bezeichnet, denn entgegen der Intuition wirkt eine Aktion auf ein Teilchen, welches mit einem anderen Teilchen verschränkt ist, instantan – ohne irgendeinen zeitlichen Versatz – auch auf das andere Teilchen. Der Effekt der Verschränkung ist in einem Quantenschaltkreis die einzige Möglichkeit, Informationen zwischen Qubits auszutauschen, denn die Gesetze der Quantenmechanik verbieten es, Informationen einfach zu kopieren. Aus diesem Grund laufen Berechnungen auf einem Quantencomputer auch grundsätzlich anders als auf klassischen Computern ab.
Es sind aber diese quantenmechanischen Effekte – die Überlagerung („Superposition“) von Zuständen und die Verschränkung von Zuständen, zusammen mit einem dritten Effekt, der Interferenz –, die die Stärke von Berechnungen auf einem Quantencomputer begründen. Die Interferenz erlaubt es, Zustände zu verstärken oder abzuschwächen, wie dies auch von klassischen Wellen bekannt ist.
Durch den Effekt der Superposition können Berechnungen auf einem Quantencomputer gleichzeitig auf mehrere Zustände angewendet werden. Somit findet eine „natürliche“ Parallelisierung durch Berechnungen statt. Auch können Zahlen sehr effizient dargestellt werden: n Qubits genügen bereits, um 2n quantenmechanische Zustände und somit Basisvektoren von einem höherdimensionalen Raum aufzuspannen.
Es kann nun gezeigt werden, dass sich durch Berechnungen auf Quantencomputern bestimmte Probleme effizienter lösen lassen, wobei hier zunächst normalerweise gemeint ist, dass die Berechnungskomplexität (typischerweise in der ‚Big-O‘-Notation angegeben) geringer ist als in vergleichbaren klassischen Algorithmen. Ein Beispiel hierfür ist der bereits erwähnte Grover’s Algorithmus für das Auffinden eines Elementes in einer unstrukturierten Datenbank. Würde man diese Datenbank naiv durchsuchen, so müsste man im schlimmsten Fall jedes einzelne Element (bis auf das letzte) ansehen, um das gesuchte Element zu finden. Somit benötigt man O(N) Anfragen an die Datenbank. Grover’s Algorithmus kommt dagegen mit \( O\left(\sqrt{N}\right) \) Anfragen aus. Der Algorithmus erreicht das einerseits durch das Betrachten aller Elemente gleichzeitig, da diese in eine Superposition gebracht wurden, und andererseits durch eine geschickte Verstärkung der Amplituden des gesuchten Elementes.
Neben einer verringerten Berechnungskomplexität könnten Berechnungen auf einem Quantencomputer auch weitere Vorteile aufweisen. So wird in der Literatur beispielsweise spekuliert, dass Berechnungen auf einem Quantencomputer energieeffizienter sein könnten (PASQAL, 2023) als klassische Berechnungen – das wäre gerade für Zentren für High Performance Computing (HPC) sehr interessant. Bei QML-Algorithmen können sich noch weitere Vorteile ergeben (s. Abschn. 12.4), wie eine bessere Generalisierung, eine erhöhte Berechnungskapazität im Algorithmus und die Möglichkeit, Datenpunkte besser zu separieren.
Es ist jedoch an dieser Stelle zu betonen, dass diese ganzen Vorteile aktuell eher theoretischer Natur sind und häufig einen perfekten Quantencomputer verlangen. Mit perfekt ist hier gemeint, dass der Quantencomputer nicht von Fehlern oder Störeffekten betroffen ist. Wie kann nun ein Quantencomputer technisch realisiert werden?
Gemäß der Definition eines Qubits benötigt man zu seiner Realisierung zwei quantenmechanische Zustände, die zum einen klar unterscheidbar und zum anderen kontrollierbar sein müssen. Somit können nahezu „perfekte“ Qubits realisiert werden, wenn man die atomaren Zustände von einzelnen Atomen und Ionen nimmt (z. B. den Grundzustand und einen angeregten Zustand). Eine andere Möglichkeit ist es, einen supraleitenden Schwingkreis zu bauen, wodurch sich ein Oszillator mit verschiedenen Zuständen ausformt (wobei man diesen durch den Einbau einer Josephson-Verbindung anharmonisch machen muss). Dementsprechend sehen wir aktuell verschiedene Quantencomputer, die auf unterschiedlichen Technologien beruhen. Verschiedene Hersteller bieten Quantencomputer basierend auf Supraleitung oder kalten Atomen oder aber realisiert durch gefangene Ionen in Ionenfallen an. Dies sind nur die am weitesten fortgeschrittenen Technologien. Weitere Quantencomputer werden beispielsweise auf der Basis von Photonen oder Nitrogen-Vacancy-Zentren (NV-Zentren) entwickelt.
Ein grundsätzliches Problem in der Realisierung von Quantencomputern ist es, das quantenmechanische System so von der Umgebung abzuschirmen, dass es seine quantenmechanischen Eigenschaften behält. Eine mögliche Störung kann beispielsweise durch kosmische Strahlung auftreten, welche einen Quantencomputer-Chip gelegentlich treffen und dann innerhalb des Chips Ladungslawinen und somit die Zerstörung von Qubits auslösen kann (McEwan et al., 2022).
Der Effekt der Quantendekohärenz beschreibt das Phänomen, dass quantenmechanische Systeme mit der Zeit durch Interaktion mit der Umgebung ihre Eigenschaften verlieren. Das bedeutet, dass jede Berechnung auf einem Quantencomputer innerhalb der Dekohärenzzeit beendet sein muss. Es können also nur Berechnungen mit einer gewissen, auf das System angepassten Länge durchgeführt werden. Dies ist für das Ausführen von komplizierten und aufwendigen Berechnungen unerwünscht, so dass intensiv daran gearbeitet wird, Korrekturmethoden zu ermöglichen (die sogenannte Quantenfehlerkorrektur), um perspektivisch auch lange Berechnungen mit der Ausführung einer Vielzahl von Gattern durchführen zu können. Diese Korrekturverfahren während der Ausführung eines Quantenschaltkreises existieren aktuell aber noch nicht in der praktischen Anwendung, so dass derzeit lediglich statistische Quanten-Mitigationsverfahren angewendet werden, die ein Berechnungsergebnis statistisch durch einen nachgeschalteten klassischen Berechnungsschritt nach Abschluss der Berechnung auf einem Quantencomputer korrigieren. Da hierbei aber nur ein statistischer Mittelwert einer Vielzahl an Ausführungen des Quantenschaltkreises korrigiert werden kann, wird das Berechnungsergebnis mit einer wesentlichen Unsicherheit behaftet sein.
Eine weitere Schwierigkeit in der Realisierung von Quantencomputern besteht darin, Systeme mit einer großen Anzahl an Qubits zu realisieren. Aktuelle Supercomputer können Systeme mit ca. 40 Qubits simulieren; jenseits davon lassen sich diese Systeme nicht mehr mit klassischen Computern darstellen. Somit könnte man zu dem Schluss kommen, dass bereits Quantencomputer mit ca. 100 Qubits ausreichend wären, um einen Quantenvorteil zu erlangen. Jedoch sind die aktuell realisierbaren physikalischen Qubits wie diskutiert fehleranfällig. Quantenfehler-Korrekturverfahren benötigen je nach Methode 10–1000 physikalische Qubits, um einen fehlerkorrigierten Qubit zu erreichen. Somit wären Quantencomputer erforderlich, die einige 1000 bis Millionen physikalische Qubits enthalten, um Rechnungen zu realisieren, die einige Hundert fehlerkorrigierte Qubits benötigen. So große Quantencomputer zu bauen ist technisch nicht einfach – einerseits muss diese große Anzahl an Qubits kontrollierbar sein, anderseits muss dann auch die begleitende Technologie entsprechend groß skaliert werden können. Beispielsweise müssen supraleitende Quantencomputer aufgrund der benötigten Supraleitung auf Temperaturen nahe 0 K heruntergekühlt werden, wozu große Kryostaten notwendig werden. Die Größe aktuell realisierbarer und kommerziell verfügbarer Kryostaten limitiert aber dann die Anzahl der physikalischen Qubits innerhalb eines Quantencomputers. Der Hersteller IBM konnte Ende 2023 beispielsweise einen Chip mit über 1000 physikalischen Qubits demonstrieren, würde aber mehrere verbundene Kryostaten benötigen, um größere Quantencomputer zu realisieren.
Aktuelle Berechnungen auf Quantencomputern sind also durch die Anzahl der physikalischen Qubits und die Fehleranfälligkeit der Qubits limitiert. Somit können nur recht kleine Berechnungen mit einigen Dutzend Qubits und geringer Tiefe der Quantenschaltkreise durchgeführt werden. Dies bedeutet auch, dass die Ausführung von Grover’s Algorithmus und Shor’s Algorithmus auf industriell interessanten Problemgrößen aktuell nicht möglich ist (Leymann & Barzen, 2020).
Die derzeit verfügbaren Quantencomputer werden daher als Noisy Intermediate-Scale Quantum (NISQ)-Geräte bezeichnet und auf ihnen ausführbare Algorithmen als NISQ-Algorithmen. Um trotz der Einschränkung aktueller Quantencomputer sinnvolle Algorithmen ausführen zu können, bedient man sich im Design von NISQ-Algorithmen eines Wechselspiels von klassischen Computern und Quantencomputern. Hierbei ist die Idee, dass nur kleine Quantenschaltkreise auf einem NISQ-Gerät ausgeführt werden, und zwar für die Berechnungsteile eines hybriden quantenklassischen Algorithmus, für die sich der Einsatz eines Quantencomputers lohnt. Die anderen Berechnungsteile dagegen werden weiterhin von einem klassischen Computer übernommen.
Eine bedeutende Klasse dieser hybriden quantenklassischen Algorithmen sind variationelle Quantenalgorithmen (VQA), s. Abb. 12.2, in denen ein Quantenschaltkreis mit trainierbaren Parametern einen Ansatz für die Lösung eines Problems erarbeitet und dann ein klassischer Computer diesen Ansatz durch das Minimieren einer Kostenfunktion und Aktualisieren der Parameter optimiert. Hierbei enthält der Quantenschaltkreis neben Zwei-Qubit-Gattern auch trainierbare Ein-Qubit-Gatter, bei denen der Rotationswinkel nun nicht mehr von vornhinein festgelegt ist, sondern während des Trainingsprozesses angepasst werden kann.
Abb. 12.2
Sketch eines variationellen Algorithmus mit Teilen, die ein Quantencomputer berechnet (in Blau) und Teilen, die ein klassischer Computer berechnet oder zuliefert (in Grün)
Bedeutende Quantenalgorithmen in dieser Kategorie sind der Variational Quantum Eigensolver (VQE) (Peruzzo, 2014) und der Quantum Approximate Optimization Algorithm (QAOA) (Farhi et al., 2014). Der VQE-Algorithmus berechnet unter Zuhilfenahme des variationellen Ritz-Rayleigh-Prinzips eine Oberschranke eines Grundzustands und kann somit herangezogen werden, um sowohl den Grundzustand von Molekülen als auch das Minimum eines Optimierungsproblems auszurechnen. Er hat jedoch keinerlei Garantie, bessere Lösungen als klassische Algorithmen zu liefern. Der QAOA-Algorithmus ist ein Diskretisieren der Idee, durch langsame kontinuierliche Entwicklung eines gut präparierbaren Grundzustands eines quantenmechanischen Systems einen anderen Grundzustand eines deutlich komplizierteren quantenmechanischen Systems zu erhalten, welches dann die Lösung der zugrunde liegenden Problemstellung enthält. Der QAOA-Algorithmus kann prinzipiell nur Quadratic Unconstrained Binary Optimization (QUBO)-Probleme berechnen und somit zur Lösung von mathematischen Optimierungsproblemen herangezogen werden. Auch für diesen Algorithmus existieren keine klaren mathematischen Beweise für einen Vorteil dieses Algorithmus gegenüber klassischen Algorithmen. Dennoch werden sowohl der VQE- als auch der QAOA-Algorithmus als vielversprechende NISQ-Algorithmen zur Lösung von Simulations- und Optimierungsproblemen betrachtet und in der Forschung und für industrielle Anwendungen umfangreich untersucht.
12.3 Quantengestützte KI
Quanten-maschinelles Lernen (QML) hat einiges mit den VQAs wie zuvor definiert gemeinsam, doch umfasst der Begriff noch darüber hinausgehende Algorithmen. Als relativ neues Feld wurde QML erst 2013/2014 durch die Arbeiten von S. Lloyd et al. (2013) sowie P. Wittek (2014) und anderen begründet, erfuhr aber in den Folgejahren eine rege Forschungsaktivität. Dennoch ist der Begriff QML aktuell mit verschiedenen Interpretationen in der Literatur noch ungenau definiert. M. Schuld und F. Petruccione (Machine Learning with Quantum Computers, 2021) versuchen eine Einordnung wie in Abb. 12.3 definiert und weisen insbesondere auf die Unterschiede in den verwendeten Datentypen hin.
Klassisches maschinelles Lernen (ML) verwendet klassische Computer, um mit klassischen ML-Algorithmen auf klassischen Daten zu lernen. Vielfach werden mittlerweile auch klassische ML-Algorithmen eingesetzt, um Hardwareeigenschaften von Quantencomputern zu verbessern oder Quantenschaltkreise optimierter auf der Quantenhardware auszuführen. Ebenso kommen vielfach ML-Algorithmen zum Einsatz, um ein tiefergehendes Verständnis über quantenmechanische Effekte oder Materialien zu gewinnen. In Rahmen dieses Artikels sind wir jedoch eher an den zwei anderen Bedeutungen von QML interessiert – dem Einsatz von Quantencomputern, um klassische ML-Algorithmen durch den Einsatz von Quantenalgorithmen zu ergänzen. Hierbei kann der Datentyp sowohl klassische Daten wie auch Quantendaten umfassen. Es existieren grundsätzlich zwei Herangehensweisen, um einen quantengestützten ML-Algorithmus zu entwerfen: Entweder man nimmt einen bekannten klassischen ML-Algorithmus und überlegt sich, wie dieser als Quantenalgorithmus realisiert werden könnte und welche Quantenvorteile möglicherweise relevant wären, oder aber man ersetzt Teilalgorithmen in einem klassischen ML-Algorithmus durch Quantenalgorithmen, um in diesen Teilen von den Vorteilen des Quantencomputings zu profitieren. Dieser Vorteil könnte beispielsweise in einer vergrößerten Kapazität des quantengestützten ML-Modells liegen (Abbas, 2021). Ein solcher hybrider quantenklassischer ML-Algorithmus ist beispielsweise eine Kombination aus quantenneuronalen Netzen und klassischen neuronalen Netzen wie exemplarisch in Abschn. 12.4 gezeigt.
Es wurden für nahezu alle klassischen ML-Algorithmen quantengestützte Varianten entwickelt. Sofern im quantengestützten ML-Algorithmus ein fehlerkorrigierter Quantenalgorithmus eingebaut wird, beispielsweise der HHL-Algorithmus, so lässt sich auch mathematisch nachweisen, dass der resultierende quantengestützte Algorithmus im Vergleich zum äquivalenten klassischen Algorithmus einen exponentiellen, superpolynomiellen oder quadratischen Vorteil im Sinne der Berechnungskomplexität aufweist. Allerdings muss ein Vorteil in der Berechnungskomplexität noch nicht zu schnelleren Rechenzeiten im zeitlichen Kontext führen, da Gatteroperationen auf Quantencomputern prinzipiell sehr langsam sind. Der Einbau von fehlerkorrigierten Quantenalgorithmen in einen ML-Algorithmus verlangt häufig die Existenz eines Quantum Random Access Memorys (QRAM) zum Speichern von Quantendaten, für welche zwar theoretische Vorschläge existieren (Giovannetti et al., 2008), aber noch keine praktische Realisierung gezeigt werden konnte. Dies ist beispielsweise der Fall bei der Realisierung von Quanten-Vektor-Maschinen als Erweiterung von klassischen Vektormaschinen. Dementsprechend sind im Allgemeinen quantengestützte ML-Algorithmen, die auf den Einsatz von fehlertoleranten Quantenalgorithmen oder der Existenz eines QRAM beruhen, mit aktueller Quantenhardware aktuell noch nicht realisierbar, auch wenn ihr Vorteil nachweisbar wäre.
Stattdessen können kleinere quantengestützte ML-Algorithmen exploriert werden, die in einem Wechselspiel mit einem klassischen Computer nur die Berechnung von kleinen Quantenschaltkreisen mit wenigen Qubits und wenigen Quantengattern erfordern. Der Vorteil dieser Algorithmen im Vergleich zu klassischen Algorithmen ist aber noch nicht nachgewiesen, insbesondere nicht in der Praxis, und ist aktuell eher spekulativer Natur. Es wird aber erwartet, dass QML-Methoden frühzeitig einen Quantenvorteil demonstrieren können. Jedoch stellt sich auch die Frage, wie Schuld & Killoran erläutern (2022), ob die Suche nach einen Quantenvorteil in QML überhaupt das richtige Ziel ist. Die Autoren weisen in ihren Arbeiten insbesondere auch auf die konzeptionellen Unterschiede zwischen QML und ML hin. So werden beispielsweise für Problemstellungen in QML in der Forschung aktuell nur kleinere Problemgrößen berücksichtigt. Es werden sehr saubere Trainingsdaten verwendet und eine hohe theoretische Interpretierbarkeit angestrebt. Klassisches ML dagegen ist in industrieller Anwendung, auch wenn die Performance dieser Algorithmen häufig nur durch praktische Benchmarks und Challenges nachgewiesen werden kann und weniger durch theoretische Erklärungen.
Am Beispiel von Quanten-Vektor-Maschinen soll im Folgenden ein möglicher entstehender Quantenvorteil diskutiert werden. Klassische Vektor-Maschinen erreichen die Separierung von Datenpunkten aus unterschiedlichen Klassen durch die Separierung aller Punkte mit einer Hyperebene. Das Auffinden der Hyperebene und die Separierung von Punkten werden häufig durch den Einsatz des sogenannten Kernel-Tricks vereinfacht. Hierbei ist die Idee, dass die Datenpunkte geeignet in einen höherdimensionalen Raum durch die Abbildung Φ(x) eingebettet werden, bevor überhaupt ein Training durchgeführt wird. Durch diese Einbettung wird die Separierung der Punkte erheblich vereinfacht. Es muss dann noch eine Funktion
maximiert werden, wobei (xi, yi) die Datenpunkte sind. Hierbei sind die Nebenbedingungen 0 ≤ αj ≤ C und ∑iαiyi = 0 zu erfüllen. Das dabei enthaltene Produkt
Wie zuvor diskutiert, spannen n Qubits einen 2n-dimensionalen Hilbertraum auf. Somit können wir die Erwartung äußern, dass eine Einbettung in diesen Hilbertraum bei der Separierung der Datenpunkte hilft. Hierbei wird die Einbettung durch die Ausführung eines Quantenschaltkreises erreicht: Uϕ(xi)|0⟩ = ∣ ϕ(xi)⟩. Quantencomputer erweisen sich nun theoretisch als sehr effizient, um Quantenkernels zu berechnen: |⟨ϕ(xi)| ϕ(xj)⟩|2, indem einfach der entsprechende Quantenschaltkreis mehrfach ausgeführt wird. In kleineren Anwendungsbeispielen wurde z. B. aus Fragestellungen der Hochenergie-Teilchenphysik (Wu, 2021) das Potential von Quantenkernelmethoden demonstriert, auch wenn in diesen Fällen Quantencomputer nur simuliert und nicht konkret eingesetzt wurden. In der Praxis allerdings sind Quantenkernelmethoden teilweise nur schwer trainierbar (Thanasilp et al., 2022).
12.4 Quantenneuronale Netze
Neben Quantenkernelmethoden ist die zweite grundsätzliche Richtung des quanten-maschinellen Lernens in der Konstruktion von quantenneuronalen Netzen (QNNs) begründet. QNNs sind variationelle Quantenmodelle und haben somit Ähnlichkeiten mit den zuvor diskutierten VQE- und QAOA-Algorithmen in dem Sinne, dass in QNNs Rotationswinkel von Ein-Qubit-Gattern während des Trainingsprozesses angepasst werden. Im Vergleich zu klassischen neuronalen Netzen (NN) weisen QNNs wenig Ähnlichkeiten auf. Sowohl QNNs als auch NNs sind schichtweise aufgebaut; darüber hinaus sind NNs aber schichtweise Abfolgen von trainierbaren linearen und elementweisen nichtlinearen Transformationen, wobei die Nichtlinearitäten wesentlich für den Erfolg moderner NNs sind. QNNs dagegen sind lineare bzw. unitäre Transformationen, und es ist Bestandteil aktueller Forschung, ob Nichtlinearitäten für den Erfolg von QNNs notwendig oder gar schädlich sind (Wilkinson & Hartmann, 2022). Eine grundsätzliche Architektur von QNNs ist in Abb. 12.4 gezeigt, wobei QNNs prinzipiell mit NNs kombiniert werden können.
Abb. 12.4
Schematische Beispielarchitektur eines quantenklassischen neuronalen Netzes
Beispielsweise können die Daten erst durch einen QNN und anschließend einen NN prozessiert werden, wobei die Aktualisierung der Parameter in beiden Fällen durch die Optimierung einer Kostenfunktion durch einen klassischen Computer erfolgt. Ein QNN besteht grundsätzlich aus einem Datenkodierungsschritt, um die (Trainings-)Daten in einem Quantenschaltkreis einzulesen, und einem variationellen Quantenschaltkreis, der trainiert werden kann. Das Einbetten der Daten erweist sich als wesentliche Komponente (Abbas, 2021), die über die Performance des resultierenden QNNs maßgeblich entscheidet. So konnte insbesondere gezeigt werden, dass ein nichttriviales Einbetten der Daten unter Ausnutzung höherer Ordnungen zu einer vergrößerten normierten effektiven Dimension führt. Es wurde insbesondere gezeigt, dass durch dieses sorgfältig gewählte Einbetten der Daten ein QNN eine vergrößerte Kapazität im Vergleich zu klassischen NNs ähnlicher Größe aufweist.
Grundsätzlich stellt sich die Frage, wie das Potential von quantengestützter KI bewertet und gemessen werden kann. Verschiedene Arbeiten versuchten, typische Eigenschaften des zugrunde liegenden Quantenschaltkreises, wie die erreichte Verschränkung oder die erreichte Expressivität (Sim et al., 2019), mit der erreichten tatsächlichen Performance eines trainierten QML-Modells, z. B. die erreichte Genauigkeit, zu korrelieren. Jedoch zeigten diese Studien (z. B. Drăgan, 2023) bislang keine Korrelation. Insbesondere ist es eine offene Forschungsfrage, wie viel Verschränkung notwendig ist und auch welche Eigenschaften die klassischen Daten aufweisen müssen, um einen potenziellen Quantenvorteil zu erreichen.
Eine weitere Herausforderung ist es, QML-Modelle auf realer Quantencomputing-Hardware zu trainieren, da die im klassischen ML etablierten Verfahren zum Aktualisieren der Parameter nicht direkt anwendbar und im QML-Bereich deutlich aufwendiger sind. Das in der aktuellen Quantencomputing-Hardware vorhandene Rauschen kann das Training zusätzlich erschweren.
12.5 Quantengestützte KI in der Bildklassifikation
Wie gezeigt wurde, ist das noch junge Feld des QML also stark explorativ und trotz des großen Potentials noch von grundsätzlichen Fragestellungen auf theoretischer und praktischer Seite geprägt. Um diese Aspekte etwas konkreter zu machen, wenden wir uns noch einmal dem eingangs erwähnten Beispiel der Klassifikation in der medizinischen Bildgebung zu.
Aufgaben in der Klassifikation von Bildern werden im Bereich des klassischen maschinellen Lernens mit Convolutional Neural Networks (CNNs) bzw. Varianten und Erweiterungen davon gelöst. Der Erfolg dieser Architekturen im täglichen Leben zeigt sich deutlich durch den stetig zunehmenden Einsatz dieser ML-Modelle. Wie eingangs erklärt, bleiben aber deutliche Limitierungen, da diese ML-Modelle typischerweise das Vorliegen großer Datenmengen zum Trainieren der Modelle verlangen. Diese großen Datenmengen liegen jedoch in zahlreichen potenziellen Anwendungsgebieten nicht vor, insbesondere bei Fragestellungen, in denen es darum geht, seltenere Anomalien oder Defekte in Bildern zuverlässig zu klassifizieren. Dies ist beispielsweise in der medizinischen Bildgebung der Fall. Neben Ansätzen zur Verbesserung klassischer ML-Modelle ist somit zu klären, ob eine quantengestützte KI diese Fragestellung effizienter als eine klassische KI lösen könnte.
Zur Klärung dieser Frage kann zunächst versucht werden, die Architektur eines klassischen neuronalen Netzes durch einen quantengestützten Algorithmus zu verbessern. Es geht also zunächst darum, ein quantengestütztes Convolutional Neural Network (QCNN) vorzuschlagen und das Potential des resultierenden Modells zu untersuchen. Ein erster Vorschlag für ein Quantum Convolutional Neural Network wurde 2019 von Cong et al. gemacht. Dieser Vorschlag sieht das Ersetzen aller Schichten eines klassischen Convolutional Neural Networks durch entsprechende Quantenschaltkreise vor. Auch wird angenommen, dass die Daten bereits in einem Quantencomputer eingelesen bzw. kodiert wurden. Weitere Arbeiten, insbesondere von Caro et al. (2022), konnten nachweisen, dass diese Architekturen bessere Generalisierungseigenschaften als vergleichbare klassische CNNs aufweisen. Demnach können wir von QCNNs erwarten, dass sie möglicherweise schon mit kleineren Trainingsdatenmengen vielversprechende Ergebnisse und insbesondere Genauigkeit auf unbekannten Daten aufweisen.
Diese fehlertoleranten QCNNs sind aktuell aber noch zu groß, d. h. sie verlangen zu viele Qubits und zu viele Gatter, als dass sie mit aktuell verfügbaren Quantencomputern ausgeführt werden könnten. Verschiedene Arbeiten (Henderson, 2019; Mattern, 2021) haben daher NISQ-freundliche Adaptionen vorgeschlagen. Die Grundidee hierbei ist, nicht die gesamte Architektur eines CNN durch Quantenschaltkreise darzustellen, sondern nur einzelne Schichten. So könnte beispielsweise eine Convolutional-Schicht oder auch eine Pooling-Schicht durch Quantenschaltkreise ersetzt werden. Dadurch ergibt sich ein hybrides quantenklassisches CNN (QCCNN), welches die Vorzüge sowohl von klassischen ML-Modellen als auch von QML-Modellen vereinen sollte.
Die Arbeit von Matic et al. (2022) hat verschiedene QCCNNs vorgeschlagen, um medizinische 2D-und 3D-Bilder zu klassifizieren, wie beispielsweise 2D-Ultraschallbilder zur Klassifikation von Tumoren in der Brust oder 3D-CT-Bilder zur Klassifikation von Läsionen in der Lunge. Die vorgeschlagenen Architekturen ersetzen hierbei ausschließlich eine klassische Convolutional-Schicht aus dem klassischen CNN mit einem Quantenschaltkreis, wie exemplarisch für die Architektur für 2D-Bildern in Abb. 12.5 gezeigt.
Abb. 12.5
Architektur eines hybriden quantenklassischen CNNs für die medizinische Bildklassifikation
Die Architektur des gewählten Quantenschaltkreises weist hierbei neben einem trainierbaren Teil einen Teil zum Einlesen der Bilddaten auf. Hierbei werden nur Teile des Bildes auf einmal prozessiert, da wie bei klassischen CNNs auch eine Convolutional-Schicht als Filter über die einzulesenden Bilder iteriert und dabei charakteristische Merkmale ausarbeitet. Zudem wurde für das Einlesen des Bildes in das QCCNN die bereits erwähnte Datenkodierung mit höherer Ordnung gewählt.
Durch diese Wahl konnte gezeigt werden (Matic et al., 2022), dass das QCCNN zu einer höheren Klassifikationsgenauigkeit als das vergleichbare klassische CNN führt. Jedoch konnte dieses Ergebnis nur in der Simulation eines Quantencomputers gezeigt werden, nicht aber unter Verwendung von Quantencomputing-Hardware.
Arbeiten von Junyu Liu (2022) lassen jedoch erwarten, dass QNNs bis zu einem gewissen Grad resistent gegenüber dem in derzeit verfügbaren Quantencomputern enthaltenen Rauschen sind. Somit limitiert nicht unbedingt die aktuelle Qualität der verfügbaren Quantencomputer die Ausführung des QCCNNs auf realer Hardware. Vielmehr stellt sich heraus, dass die aktuelle Verfügbarkeit von Quantencomputing-Hardware, Wartezeiten auf die Maschinen und große Latenzzeiten ein konkretes Trainieren eines QCCNN auf Quantencomputing-Hardware zum gegenwärtigen Zeitpunkt unrealistisch erscheinen lassen. Der Trainingsprozess würde einige Wochen dauern und damit deutlich länger als das Trainieren eines klassischen CNNs – trotz der erwähnten Defizite eines klassischen CNN, eine gute Performance zu erreichen.
Um diesem Defizit zu begegnen und das Potential von Quantencomputern zu realisieren, muss die Integration von Quantencomputern mit klassischen Computern deutlich verbessert werden.
12.6 Sind Quantencomputer Big-Data-Maschinen?
In der öffentlichen Wahrnehmung werden Quantencomputer häufig als Kandidaten dargestellt, um die immer stärker wachsenden Datenmengen in der digitalisierten Welt zu prozessieren. Diese Hoffnung entsteht nicht zuletzt aus dem Potential von Quantencomputern, eine natürliche Parallelisierung in Rechenprozessen zu erreichen. Doch ist es realistisch anzunehmen, dass Quantencomputer Big-Data-Maschinen sind?
Da aktuelle Quantencomputer fehleranfällig sind, konnte ein QRAM aktuell noch nicht praktisch realisiert werden. Die Fähigkeit, größere Mengen von Daten in einem Quantencomputer zu speichern, wäre aber Voraussetzung für das Prozessieren großer Datenmengen durch einen Quantencomputer.
Darüber hinaus zeigen verschiedene Arbeiten, darunter von González-García (2022), dass auf aktuellen Quantencomputern nur sehr kleine Quantenschaltkreise und somit Problemgrößen berechnet werden können, bevor das Berechnungsergebnis durch verschiedene Störeffekte, insbesondere aber durch die Quantendekohärenz, komplett zerstört bzw. komplett zufällig wird.
Aus diesen beiden genannten Gründen sind aktuelle Quantencomputer nicht als Big-Data-Maschinen einsetzbar; auch ist die Perspektive hier ungewiss. Jedoch hat eine Arbeit von Junyu Liu (2024) gezeigt, wie ein Quantencomputer doch noch in Teilaspekten zum Prozessieren von großen Datenmengen eingesetzt werden könnte, wobei hier fehlertolerante Quantencomputer angenommen werden. Die Arbeit schlägt vor, dass in großen klassischen neuronalen Netzen zunächst alle Verbindungen zwischen den Neuronen deaktiviert werden, die ein zu kleines Gewicht aufweisen. Das daraus resultierende neuronale Netz kann durch eine dünn besetzte Matrix dargestellt werden. Diese Matrix wiederum erfüllt nun die Bedingung, dass der HHL-Algorithmus herangezogen werden kann, um das entsprechende Gleichungssystem exponentiell schneller als mit klassischen Methoden zu lösen. Somit könnte für eine spezielle Klasse von großen klassischen neuronalen Netzen, nämlich denen mit vielen schwach ausgeprägten Verbindungen, Quantencomputing doch noch zur Effizienzsteigerung eingesetzt werden – mit Vorteilen zum Prozessieren großer Datenmengen.
12.7 Ein Ausblick: Aktuelle Entwicklungen
Wie bislang diskutiert, sind die aktuelle Größe und Qualität der verfügbaren Quantencomputer nicht ausreichend, um für industriell relevante Fragestellungen schon einen Vorteil durch den Einsatz von Quantencomputing zu erreichen. Dazu werden weiter verbesserte Quantencomputer mit reduzierten Fehlerraten oder sogar fehlerkorrigierte Quantencomputer notwendig sein.
Jedoch schreitet die Entwicklung der Quantencomputing-Hardware stetig voran. Beispielsweise konnte IBM bereits 2023Quantum Utility zeigen. Hierbei wurde exemplarisch für einen spezifischen Algorithmus gezeigt, dass durch das Zusammenspiel einer genauen Kalibration der Hardware und abgestimmten Fehler-Mitigationsverfahren erfolgreich Experimente durchgeführt werden konnten, die nicht mehr auf einem klassischen brute-force-Weg berechenbar waren. Das Beispiel war hierbei eine trotterisierte Zeitentwicklung eines 2D-transversalen Ising-Feldes – ein Problem, das Ähnlichkeiten zu einer mathematischen Formulierung von Simulations- und Optimierungsproblemen aufweist. Die Experimente verwendeten hierbei einen supraleitenden Quantencomputing-Chip mit 127 Qubits. Der Algorithmus verlangte die Ausführung von 2880 Zwei-Qubit-CNOT-Gattern. Auch wenn kurz auf diese Experimente folgend ähnlich gute oder bessere Ergebnisse durch klassische Algorithmen demonstriert werden konnten, so zeigt es sich doch, dass durch das Zusammenspiel der drei Faktoren Software, Algorithmik und Hardware bereits jetzt das Quantencomputing in Bereiche gelangen kann, in denen es mit klassischen Algorithmen in Konkurrenz treten kann.
Im Bereich von Neutralatom-Quantencomputern konnte Ende 2023 eine erste experimentelle Realisierung von fehlertoleranten Qubits (Kim, 2023) gezeigt werden. Diese müssen allerdings noch skaliert und in kommerzielle Systeme eingebaut werden, um für quantengestützte industrielle Berechnungen nutzbar zu sein – ein erheblicher weiterer Entwicklungsschritt.
Neben den Entwicklungen auf Hardwareseite ist auch auf der Seite der Algorithmik und der Softwareentwicklung umfangreiche Arbeit zu leisten, bevor Quantencomputing sein volles Potential entfalten kann. So ist insbesondere zunächst zu verstehen, für welche industrielle Fragestellungen ein perspektiver Vorteil durch den Einsatz welcher Quantenalgorithmen und unter Verwendung welcher Quantencomputing-Hardware erreicht werden kann. Dazu werden aktuell zunehmend anwendungsgetriebene Benchmarks und Metriken entwickelt und definiert (Barbaresco, 2024), die versuchen, diese Fragen quantitativ zu beantworten und somit die Perspektiven von Quantencomputing für eine Vielzahl von verschiedenen Anwendungsfeldern zu quantifizieren.
Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung - Nicht kommerziell - Keine Bearbeitung 4.0 International Lizenz (http://creativecommons.org/licenses/by-nc-nd/4.0/deed.de) veröffentlicht, welche die nicht-kommerzielle Nutzung, Vervielfältigung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Die Lizenz gibt Ihnen nicht das Recht, bearbeitete oder sonst wie umgestaltete Fassungen dieses Werkes zu verbreiten oder öffentlich wiederzugeben.
Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist auch für die oben aufgeführten nicht-kommerziellen Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.
Bluvstein, D. E. (2024). Logical quantum processor based on reconfigurable atom arrays. Nature, 626, 58–65.CrossRef
Caro, M. H. (2022). Generalization in quantum machine learning from few training data. Nature Communications, 13, 4919.CrossRef
Cong, I., et al. (2019). Quantum convolutional neural networks. Nature Physics, 15, 1273–1278.CrossRef
Drăgan, T.-A., et al. (2023). Quantum reinforcement learning for solving a stochastic frozen lake environment and the impact of quantum architecture choices. SCITEPRESS – Science and Technology Publications.CrossRef
Farhi, E., et al. (2014). A quantum approximate optimization algorithm, arXiv, 1411.4028 (quant-ph).
Feynman, R. P. (1982). Simulating physics with computers. International Journal of Theoretical Physics, 21, 467.MathSciNetCrossRef
Giovannetti, V., et al. (2008). Quantum random access memory. Physical Review Letters, 100, 160501.MathSciNetCrossRef
González-García, G., et al. (2022). Error propagation in NISQ devices for solving classical optimization problems. PRX Quantum, 3, 040326.CrossRef
Grover, L. K. (1996). A fast quantum mechanical algorithm for database search. In Proceedings, 28th Annual ACM Symposium on the Theory of Computing (STOC) (S. 212–219).
Harrow, A. W., et al. (2009). Quantum algorithm for linear systems of equations. Physical Review Letters, 103, 150502.MathSciNetCrossRef
Henderson, M., et al. (2019). Quanvolutional neural networks: Powering image recognition with quantum circuits, arXiv, 1904.04767 (quant-ph).
Kim, Y., et al. (2023). Evidence for the utility of quantum computing before fault tolerance. Nature, 618, 500–505.CrossRef
Leymann, F., & Barzen, J. (2020). The bitter truth about gate-based quantum algorithms in the NISQ era. Quantum Science and Technology, 5, 044007.CrossRef
Liu, J., et al. (2022). Stochastic noise can be helpful for variational quantum algorithms, arXiv, 2210.06723 (quant-ph).
Liu, J., et al. (2024). Towards provably efficient quantum algorithms for large-scale machine-learning models. Nature Communications, 15, 434.CrossRef
Lloyd, S., et al. (2013). Quantum algorithms for supervised and unsupervised machine learning, arXiv, 1307.041 (quant-ph).
Matic, A., et al. (2022). Quantum-classical convolutional neural networks in radiological image classification. IEEE International Conference on Quantum Computing and Engineering (QCE).
Mattern, D., et al. (2021). Variational Quanvolutional Neural Networks with enhanced image encoding, arXiv, 2106.07327 (cs.CV).
McEwan, M., et al. (2022). Resolving catastrophic error bursts from cosmic rays in large arrays of superconducting qubits. Nature Physics, 18, 107–111.CrossRef
Moore, G. E. (1965). Cramming more components onto integrated circuits. Electronics, 38(8), 19. April.
PASQAL. (2023). Towards Regenerative Quantum Computing with proven positive sustainability impact. Whitepaper.
Peruzzo, A. M. (2014). A variational eigenvalue solver on a photonic quantum processor. Nature Communications, 5, 4213.CrossRef
Schuld, M., & Killoran, N. (2022). Is quantum advantage the right goal for quantum machine learning? PRX Quantum, 3, 030101.CrossRef
Schuld, M., & Petruccione, F. (2021). Machine learning with quantum computers. Springer.CrossRef
Shor, P. W. (1994). Algorithms for quantum computation: discrete logarithms and factoring. In Proceedings 35th Annual Symposium on Foundations of Computer Science (S. 124–134).CrossRef
Sim, S., et al. (2019). Expressibility and entangling capability of parameterized quantum circuits for hybrid quantum-classical algorithms. Advanced Quantum Technologies, 2, 1900070.CrossRef
Thanasilp, S., et al. (2022). Exponential concentration in quantum kernel methods, arXiv, 2208.11060 (quant-ph).
Wilkinson, S. A., & Hartmann, M. J. (2022). Evaluating the performance of sigmoid quantum perceptrons in quantum neural networks, arXiv, 2208.06198 (quant-ph).
Wittek, P. (2014). Quantum machine learning – What quantum computing means to data mining. Academic Press.
Wu, S. L. (2021). Application of quantum machine learning using the quantum kernel algorithm on high energy physics analysis at the LHC. Physical Review Research, 3, 033221.CrossRef