Schlussfolgerungen aus Googles Sycamore-Experiment von 2019 Was ist Quantum Supremacy und wann wird sie erreicht?
Anbieter zum Thema
Die Überlegenheit von Quantenrechnern, Quantum Supremacy, gegenüber traditionellen digitalen Rechnern ist nicht in erster Linie an numerischen Werten festzumachen als an der Art, wie sie funktionieren. Quantenrechner sind überlegen, weil sie den physikalischen Gesetzen näher sind.

Gegenüber traditionellen Rechnern, auch so genannten Supercomputern, zeichnen sich Quantenrechner – ob nun tatsächlich betriebsbereit oder nur theoretisch vorstellbar – durch ihre inhärente Parallelität aus. Letztere ist kein spezielles Architekturdesign wie bei traditionellen Parallelrechnern, sondern ergibt sich aus Quanteneffekten wie Verschränkung oder Überlagerung sozusagen von selbst.
Schon am Anfang der Überlegungen zu einem Quantencomputer war deshalb das Thema „Quantenüberlegenheit“ (Quantum Supremacy) ein ständiges Begleitmotiv der Entwicklung. Und mit Quantenrechner-basierten Algorithmen zur schnellen Faktorisierung von Primzahlen (Peter Shor) oder zum kompletten Durchsuchen einer Datenbank mittels einer einfachen Prüfroutine (Lov Grover) wurden vor einigen Dezennien Rechenaufgaben formuliert, die für traditionelle (Super-)Rechner unlösbar, für Quantenrechner dagegen ein relativ leichtes Spiel sind.
200 Sekunden versus 10.000 Jahre?
Freilich sind wir auch heute von Quantenrechnern mit einer Kapazität, die den Shor- oder Grover-Algorithmus lösen können, noch weit entfernt. Trotzdem oder wohl eher gerade deswegen bleibt das Thema „Quantenüberlegenheit“ virulent.
Vor vier Jahren meldeten Google-Forscher in einem Forschungsartikel in der Zeitschrift „Nature“ sozusagen Vollzug. Man hatte, so die Verlautbarung, mit einem tatsächlichen Quantenrechner namens „Sycamore“ ein trickreiches Rechenproblem in 200 Sekunden gelöst, wofür die damals größten traditionellen Superrechner ungefähr 10.000 Jahre benötigten, so die Schätzung des Google-Teams (siehe. Frank Arute, Kunal Arya,……Hartmut Neven, John M. Martinis: „Quantum supremacy using a programmable superconducting processor“ (2019).
:quality(80)/images.vogel.de/vogelonline/bdb/1632900/1632958/original.jpg)
Der Beweis für die Überlegenheit des Quantencomputers ist erbracht
Google erzielt mit 53 Qubits einen Durchbruch
Der Artikel, dessen Publikation wohl in einem anderen (nämlich etwas späteren) zeitlichen Rahmen gedacht war und der versehentlich auf einem Web-Server der NASA von findigen Wissenschaftsreportern entdeckt worden war, erzeugte ein lebhaftes weltweites Echo, auch und besonders in den nicht fachlichen Medien: „Google hängt Supercomputer ab“ oder „Der Sputnik-Moment der Quantenphysik“ waren einige der „knackigen“ Überschriften.
Kaum war der Artikel erschienen, da konterten unter anderem IBM-Forscher, dass die Google-Leute sich bezüglich der 10.000 Jahre auf (ihrem!) traditionellen Supercomputer deutlich vertan hätten – statt 10.000 Jahre benötige der traditionelle Superrechner allenfalls 2,5 Tage. Und mittlerweile gibt es ein wissenschaftliches Papier einer chinesischen Forschergruppe (siehe: Feng Pan, Keyang Chen, and Pan Zhang, Solving the Sampling Problem of the Sycamore Quantum Circuits, Phys. Rev. Lett. 129, 090502 22. [August 2022]), in der dargestellt wird, dass man die Aufgaben der Google-Forscher auf einem Rechner mit „normalen Prozessoren“ in wenigen Stunden gelöst habe und dass man meine, dass ein traditioneller Supercomputer das Problem sogar in „wenigen Sekunden“ lösen könne.
:quality(80)/images.vogel.de/vogelonline/bdb/1776600/1776689/original.jpg)
Quantencomputer auf Photonenbasis
Physiker in China beanspruchen den Beweis für die Quantencomputer-Überlegenheit
„Random Quantum Circuit Sampling“
Angesichts solcher Differenzen beim Zeitrahmen für die Lösung des Problems soll hier in der gebotenen Kürze und (leider) in starker Vereinfachung geschildert werden, worum es bei der Sycamore-Aufgabe überhaupt geht.
In einem Verfahren, das sich „Random Quantum Circuit Sampling“ nennt, werden zufällig ausgewählte Qubit-Operationen auf zufällig ausgewählten Qubits durchgeführt. Diese Sequenz wird millionenfach wiederholt und am Ende werden die daraus entstehenden Nullen und Einsen quantenmechanisch gemessen.
Die durch die millionenfache Wiederholung von zufälligen Operationen auf zufällig ausgewählten Qubits entstehenden Bit-Folgen sind in den auftretenden Mustern ebenfalls zufällig, desgleichen sind die Wiederholungen zufällig, aber – und jetzt kommt der Gag - einzelne Folgen wiederholen sich verschieden oft.
Durch eine solche Ungleichverteilung, also durch die unterschiedlichen Häufigkeiten, mit der die verschiedenen Reihen auftauchen, ist das jeweilige Quantenprogramm charakterisiert.
Grund für die Ungleichverteilung sind die Interferenzen, die durch Wechselwirkungen zwischen den Qubits erzeugt werden. Dadurch werden einige Zufallsfolgen verstärkt und andere ausgelöscht. Manche Folgen treten also häufiger auf als andere. Voraussagen zur Wahrscheinlichkeitsverteilung sind erst nach Millionen Durchgängen möglich.
Da die Quantenphysik bekanntlich das „Reich der Wahrscheinlichkeit“ ist, sagt uns nun schon unsere Intuition, dass ein derart gestalteter Zufallsmechanismus wie geschaffen ist für einen Quantenrechner.
Dass ein traditioneller Superrechner solche Wahrscheinlichkeitsmuster nicht auch in relativ kurzer Zeit erzeugen kann, war der damalige Schluss der Google-Forscher, der schon damals in Zweifel gezogen wurde und neuerdings ein zusätzliches Momentum erhält. Das entsprechende Gegenargument ist, wie so oft: Man muss das Problem nur gut genug durchdenken und so aufbereiten, dass es der traditionelle Rechner gut versteht.
Echte und „nicht so echte“ Zufallszahlen
War es das nun mit der Quantenüberlegenheit? Alles nur Augenwischerei? Üble Trickserei. Noch dazu mit einer Aufgabe, die hinsichtlich ihrer Praxisrelevanz mehr als Null ist, nämlich schlicht surreal?
Nicht ganz. Eigentlich gar nicht. Das liegt daran, dass man auch dem Zufall - etwas lässig formuliert – ein bisschen auf die „Sprünge helfen“ muss, damit er auch tatsächlich ganz und gar zufällig ist.
Tatsächlich ist die Beispielaufgabe, die das Google-Team verwendete, um die Überlegenheit von Quantenrechnern gegenüber traditionellen Rechnern praktisch zu demonstrieren, nicht so surreal wie sie zunächst anmutet. Die Aufgabe baut nämlich auf Überlegungen auf, die der Computerwissenschaftler Scott Aaronson bezüglich „echter“, das heißt nicht manipulierbarer Zufallszahlen in verschiedenen Forschungspapieren anstellte.
Echte Zufallszahlen können ab einer bestimmten Größe der Ziffernfolgen nur aus einem Quantenrechner stammen, argumentiert Aaronson. Er spricht auch von quantenzertifizierten Zufallszahlen, ihre Echtheit ergibt sich daraus, dass sie sozusagen das Abbild physikalischer Abläufe sind.
Irgendwann können herkömmliche Superrechner nicht mehr mithalten
Im Projektaufbau des Google-Teams für die Demonstration der Quantenüberlegenheit spielte übrigens eine bisher noch nicht erwähnte spezielle Prüfroutine namens „Cross Entropy Benchmark Fidelity“ eine wichtige Rolle. Mit dieser Routine suchte man nach etwaigen Abweichungen der Häufigkeitsverteilung der Ziffernfolgen aus dem Quantenrechner und aus dem Simulationsmodell, das man parallel auf einem traditionellen Rechner konstruiert hatte.
Dabei handelte es sich nicht um die ganze Aufgabe – die kann ja nicht simuliert werden -, sondern um daraus abgeleitete Teilaufgaben, deren Komplexität man sukzessive erhöhte; bis zu dem Punkt, an dem die Kapazitäten jeglicher traditioneller Superrechner, die „zur Hand waren“ (unter anderem wurde wohl auch auf den Jülicher Superrechner zurückgegriffen) erschöpft waren.
Ergebnis dieses Riesenexperiments: obwohl die verwendete Prüfroutine sehr empfindlich auf Abweichungen reagiert, wurden keine solchen Abweichungen beim Vergleich zwischen der Häufigkeitsverteilungen auf dem Quantenrechner und entsprechenden Simulationen auf traditionellen Superrechnern festgestellt.
Das vorläufige Fazit
Der Quantenrechner ist korrekt auf einem traditionellen Rechner zu simulieren, aber ab einem gewissen Punkt kann letzterer nicht mehr mithalten. Ob dieser „gewisse Punkt“ woanders liegt als die Google-Forscher meinten – derartiges legt ja beispielsweise das oben angeführte wissenschaftliche Paper der chinesischen Forschergruppe nahe – ist sekundär gegenüber der Feststellung, dass es einen solchen Punkt gibt.
Das Prinzip der Quantenüberlegenheit ergibt sich einfach daraus, dass jede Turing-Maschine (quasi die theoretische Blaupause der heutigen digitalen Rechner) auf einem universellen analogen Rechner implementiert werden kann, dass letzterer also theoretisch mächtiger ist. Und ein Quantenrechner ist eben ein analoger Rechner und kein digitaler, auch wenn die Terminologie (Qubit, Gatter etc.) das suggeriert.
Artikelfiles und Artikellinks
(ID:46872426)