Der Beweis für die Überlegenheit des Quantencomputers ist erbracht

Google erzielt mit 53 Qubits einen Durchbruch

| Redakteur: Ulrike Ostler

Eine Reihe von Google-Sycamore-Chips, die für die elektrische Vorprüfung vorbereitet werden.
Eine Reihe von Google-Sycamore-Chips, die für die elektrische Vorprüfung vorbereitet werden. (Bild: Google)

Der Begriff „Quantum Supremacy“ bezeichnet den Moment, an dem ein Quantencomputer erstmals herkömmlichen Rechner bei einer bestimmten Aufgabe überlegen ist. Googles Quantenprozessor, „Sycamore“ genannt, löste ein Problem innerhalb von 200 Sekunden, für das der schnellste Superrechner der Welt ungefähr 10.000 Jahre benötigen würde.

Derzeit besteht eine grundlegende Herausforderung darin, einen Prozessor zu entwickeln, der in der Lage ist, Quantenalgorithmen in einem exponentiell großen Rechenraum auszuführen. In der Zeitschrift „Nature“ veröffentlichen Wissenschaftler nun einen Nachweis der so genannten Quantenüberlegenheit. Diese wurde mithilfe des Google-Prozessors „Sycamore“ erbracht, eines programmierbaren supraleitenden Prozessors zur Erzeugung von Quantenzuständen auf 53 funktionsfähige Qubits, entsprechend einem rechnerischen Zustandsraum der Dimension 253 (etwa 1016).

Als Aufgabe für das Benchmarking wählten die Google-Forscher das Auslesen und Auswerten einer Zufallsquantenschaltung, die Qubits auf zufällige Art und Weise transformiert. Der Auslesevorgang erzeugt eine Reihe von Bitstrings, zum Beispiel 0000101 oder 1011100, von denen einige häufiger auftreten als andere.

Die Wahrscheinlichkeitsverteilung ähnelt einem so genannten Specklemuster, also einem Wellenmuster, das entsteht, wenn Laserlicht an einer rauen Oberfläche gestreut wird. Wenn man versucht, das Auslesen von Werten aus einer solchen Wahrscheinlichkeitsverteilung auf einem konventionellen Computer zu simulieren, steigt der Rechenaufwand mit jedem Qubit und jedem Arbeitszyklus exponentiell.

Der Sycamore-Prozessor benötigt gerade einmal 200 Sekunden, also rund dreieinhalb Minuten, um eine solch komplexe Quantenschaltung 1 Million Mal auszulesen. Nach Darstellung der Forscher deuten die Benchmarks derzeit darauf hin, dass die äquivalente Aufgabe für einen modernen klassischen Supercomputer etwa 10.000 Jahre dauern würde. Dieser dramatische Geschwindigkeitszuwachs im Vergleich zu allen bekannten klassischen Algorithmen ist eine experimentelle Realisierung der Quantensouveränität und kündigt ein lang erwartetes Rechenparadigma an.

200 Sekunden statt 10.000 Jahre

Das Ergebnis gilt als wissenschaftlicher Meilenstein. Forscher des Jülich Supercomputing Centre (JSC) unter der Leitung von Professor Kristel Michielsen trug mittels Simulationen auf dem Jülicher Supercomputer „Juwels“ dazu bei, die Ergebnisse zu verifizieren und die Leistung des Quantenprozessors zu bestimmen.

Bereits in den 1980er Jahren sagte der Physiker Richard Feynman voraus, dass Quantencomputer bestimmte Probleme, beispielsweise die Simulation von Quantensystemen in der Physik und Chemie, viel schneller lösen können als herkömmliche Rechner. „Doch der Nachweis dieser These galt schon immer als Herausforderung. Der dafür benötigte Quantenprozessor muss einerseits ausreichend groß dimensioniert sein und gleichzeitig eine geringe Fehlerrate aufweisen. Und es muss ein Problem gefunden werden, das für einen konventionellen Superrechner schwierig, für einen Quantencomputer aber einfach zu lösen ist", erklärt Kristel Michielsen.

Professor Dr. Kristel Michielsen: Der gigantische Aufwand für die Berechnung hängt nicht nur mit der Anzahl der Qubits zusammen, sondern auch mit der Komplexität der jeweils verwendeten Quantenschaltung. Die Forscher brachten auf Googles Quantenprozessor gleich mehrere Schaltungen mit 53 Qubits zum Laufen, die sich nicht mehr auf Superrechnern simulieren lassen.
Professor Dr. Kristel Michielsen: Der gigantische Aufwand für die Berechnung hängt nicht nur mit der Anzahl der Qubits zusammen, sondern auch mit der Komplexität der jeweils verwendeten Quantenschaltung. Die Forscher brachten auf Googles Quantenprozessor gleich mehrere Schaltungen mit 53 Qubits zum Laufen, die sich nicht mehr auf Superrechnern simulieren lassen. (Bild: Forschungszentrum Jülich / Ralf-Uwe Limbach)

Mit dem Erreichen dieses Meilensteins können die Forscher zeigen, dass Quantenbeschleunigung in einem realen System möglich und nicht durch irgendwelche versteckten physikalischen Gesetze ausgeschlossen sei, heißt es in dem Nature-Artikel. Die Quantenvorherrschaft läute zudem die Ära der verrauschten Quantentechnologien (NISQ) im mittleren Maßstab ein.

Die bewältigte Benchmark-Aufgabe habe sofortige Auswirkungen, etwa in Anwendung bei der Generierung von zertifizierbaren Zufallszahlen; andere erste Anwendungen für diese neue Rechenfähigkeit können Optimierungsaufgaben aber auch maschinelles Lernen und Aufgaben in den Materialwissenschaften und Chemie sein. Die Realisierung des vollen Potenzials des Quantencomputing, zum Beispiel mit dem Shor-Algorithmus für Factoring, erfordere jedoch immer noch technische Sprünge, um fehlertolerante logische Qubits zu entwickeln, so die Ausführungen der Google-Wissenschaftler.

Allerdings haben sie bereits eine Reihe technischer Fortschritte gemacht, die den Weg zur Fehlerkorrektur ebnen. „Wir haben schnelle, hochpräzise Gates entwickelt, die gleichzeitig über ein zweidimensionales Qubit-Array ausgeführt werden können. Wir haben den Prozessor sowohl auf Komponenten- als auch auf Systemebene mit einem leistungsstarken neuen Tool kalibriert und bewertet: dem Cross-Entropy Benchmarking“, so der Nature-Artikel. Dabei wird verglichen, wie häufig sich Bitstrings experimentell beobachten lassen, und wie hoch die Wahrscheinlichkeit für ihr Auftreten ist.

Eine geeignete Rechenaufgabe

„Wir entwerfen die Schaltungen so, dass sie einen Satz von Quantenbits (Qubits) durch wiederholte Anwendung von logischen Single-Quit- und Two-Quit-Operationen umschließen. Das Abtasten des Ausgangs der Quantenschaltung erzeugt eine Reihe von Bitstrings, zum Beispiel {0000101, 1011100, ...}. Aufgrund der Quanteninterferenz ähnelt die Wahrscheinlichkeitsverteilung der Bitstrings einem gesprenkelten Intensitätsmuster, das durch Lichtinterferenz in der Laserstreuung erzeugt wird, so dass einige Bitstrings viel wahrscheinlicher sind als andere. Die klassische Berechnung dieser Wahrscheinlichkeitsverteilung wird mit zunehmender Anzahl der Qubits (Breite) und Anzahl der Torzyklen (Tiefe) exponentiell schwieriger“, lautet die Beschreibung im Magazin „Nature“.

Um zu überprüfen, ob der Quantenprozessor ordnungsgemäß funktioniert, wird geschaut, wie oft jeder Bitstring experimentell beobachtet wird und mit der entsprechenden idealen Wahrscheinlichkeit verglichen, die durch Simulation auf einem klassischen Computer berechnet wird. „Für eine gegebene Schaltung sammeln wir die gemessenen Bitstrings {xi} und berechnen das lineare Cross-Entropy Benchmarking Fidelity, das der Mittelwert der simulierten Wahrscheinlichkeiten der von uns gemessenen Bitstrings ist.

Für die Simulation der Quantenschaltungen wurden verschiedene Algorithmen und Codes auf „Summit“, dem aktuell leistungsstärksten Supercomputer der Welt, Google Cloud-Servern und dem Jülicher Supercomputer Juwels implementiert. Forscher des Jülich Supercomputing Centre trugen mithilfe der Simulationssoftware „Jucs“, Jülich Universal Quantum Computer Simulator, dazu bei, die Leistung von Quantenschaltungen mit bis 43 Qubits zu bewerten. Mit dem Code hatten die Jülicher 2018 einen Weltrekord in der Simulation von Quantenschaltungen mit bis zu 48 Qubits aufgestellt.

Was meinen Sie zu diesem Thema?
...  lesen
posted am 24.10.2019 um 11:20 von Unregistriert


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46198970 / Komponenten)