Supercomputer schaffen mehr als gedacht Die Messlatte für Quantenüberlegenheit verlagert sich – nach oben
Noch wird diskutiert, ob Quantum Supremacy, die Überlegenheit der Quantencomputer über herkömmliche Rechnerei bereits erreicht ist. Wenn ja, dann in einzelnen Anwendungsfällen. Dann aber kann ein Quantencomputer das spezifische Problem in 200 Sekunden lösen, für das der weltweit schnellste Supercomputer 600 Millionen Jahre bräuchte. Jetzt haben HPE-Forscher und Wissenschaftler der Universität Bristol und des Imperial College London gezeigt, dass HPC-Rechner und optimierte Algorithmen das auch in 73 Tagen schaffen können.
Anbieter zum Thema

Hewlett Packard Enterprise (HPE) hat gestern neue Forschungsergebnisse bekannt gegeben, die zeigen, wie Supercomputer zum Testen und Benchmarking der Rechenleistung für die Quantencomputer-Gemeinschaft eingesetzt werden können. Durch diese müssen, so die Wissenschaftler, die theoretischen Leistungsansprüche an zukünftige Quantencomputer neu definiert werden.
Die Forschungsergebnisse, die gestern in der Zeitschrift „Science Advances“ veröffentlicht worden sind, zeigen, wie das Gaussian Boson Sampling (GBS) mithilfe von High Performance Computing (HPC) oder Supercomputing gelöst werden konnte. GBS ist ein Modell des photonischen Quantencomputers, das als Plattform für den Bau von Quantengeräten Aufmerksamkeit erregt hat. Das Modell besteht aus einer Abtastung der Wahrscheinlichkeitsverteilung identischer Bosonen (Teilchen mit symmetrischer Wellenfunktion), die von einem linearen Interferometer gestreut werden.
Obwohl das Problem für alle bosonischen Teilchen gut definiert ist, gilt seine photonische Version derzeit als die vielversprechendste Plattform für eine skalierbare Implementierung eines Bosonen-Sampling-Geräts, was es zu einem nicht universellen Ansatz für lineares optisches Quanten-Computing macht. Auch wenn das Bosonen-Sampling-Schema nicht universell ist, so wird doch davon ausgegangen, dass es Rechenaufgaben lösen kann, die mit klassischen Computern nur schwer umsetzbar sind, da es weitaus weniger physikalische Ressourcen benötigt als ein vollständiger linear-optischer Quantencomputeraufbau. Dies macht es zu einem idealen Kandidaten für die Demonstration der Leistungsfähigkeit von Quantencomputern in naher Zukunft, heißt es etwa auf der Website der Cornell University.
In der jetzt veröffentlichten Forschungsarbeit haben Teammitglieder der HPC and AI Business Group von HPE und der Hewlett Packard Labs, dem Forschungs- und Entwicklungszweig von HPE, mit der University of Bristol und dem Imperial College London zusammengearbeitet, um eine frühere Vorhersage zu verbessern. Nach der Entwicklung eines Algorithmus und dessen Anwendung auf eine Simulation des GBS-Problems, die auf kleineren, älteren Generationen von HPE-Supercomputern gelaufen ist, nutzten die Teams die Simulationsergebnisse, um vorherzusagen, dass es auf einem noch schnelleren Supercomputer nur 73 Tage dauern würde. Um genau zu sein: Für den „Fugaku“-Supercomputer wurden 73 Stunden für die Lösung einer Gauß-Boson-Sampling-Simulation veranschlagt.
:quality(80)/images.vogel.de/vogelonline/bdb/1734000/1734065/original.jpg)
Die Nr. 1 der Supercomputer
Von Petascale zu Exascale: Fugaku
:quality(80)/images.vogel.de/vogelonline/bdb/1904800/1904806/original.jpg)
Fugaku ist noch immer die Nummer 1 und Intel verliert
Die aktuelle Top500-Liste der Superrechner
Der neue Algorithmus bedeutet eine milliardenfache Beschleunigung im Vergleich zu früheren Ansätzen für klassische Computer. Das Ergebnis bedeutet unter anderem, dass sich die Grenzen der Probleme, die Supercomputer (noch) lösen können weit nach oben verschieben. Außerdem zeigen die Ergebnisse, wie Supercomputer in Kombination mit optimierten Algorithmen den Rechenvorteil zwischen klassischen Computern und Quantencomputern genau vergleichen können.
Justin Hotard, Senior Vice President und General Manager HPC und AI bei HPE, erläutert: „Die Forschungsarbeit […], wurde von der Spitze der Entwicklung des Quantencomputers inspiriert, um den Wert des Supercomputers zu erweitern, wenn er mit optimierten Algorithmen kombiniert wird, um den Rechenvorteil zwischen klassischen Computern und Quantencomputern genau zu vergleichen und neue Leistungsstandards zu setzen.“ Er setzt hinzu: „Wir freuen uns darauf, diese Bemühungen durch die Zusammenarbeit mit der Quantencomputer-Community voranzutreiben und die `HPE Cray´ Supercomputer-Produktlinie mit anderen Technologien zu integrieren, um die Entwicklung zukünftiger Quantencomputer voranzutreiben."
Die Ergebnisse
Die Forschung sagt voraus, dass mit der weiteren Entwicklung des Supercomputing, wie mit den bevorstehenden Exascale-Supercomputern, die bis zu zehnmal schneller sein werden als einige der leistungsstärksten Supercomputer von heute, Quantencomputerergebnisse in noch kürzeren Zeitfenstern verifiziert werden können, von Monaten bis zu Wochen auf schnelleren Systemen.
Kurzfristige Quantenexperimente basieren auf den heute verfügbaren Quantencomputern, die verrauschte Quantengeräte mittlerer Größe (NISQ) verwenden. NISQ-Geräte sind die führenden Quantenprozessoren, die fast 50 bis einige Hundert Qubits enthalten oder enthalten werden. Wie die Forscher betonen, ist es aber eine offene Forschungsfrage, ob sie fortschrittlich genug sein werden, um die leistungsfähigsten Supercomputer von heute bei unternehmensrelevanten Arbeitslasten zu übertreffen. Das jüngste Experiment zeige den zunehmenden Wert des Supercomputing und wie sie zum Testen und Unterstützen aktueller oder kurzfristiger Quantenexperimente genutzt werden können, die dazu beitragen, die kommerzielle Relevanz von Quantencomputern zu beschleunigen.
:quality(80)/images.vogel.de/vogelonline/bdb/1776600/1776689/original.jpg)
Quantencomputer auf Photonenbasis
Physiker in China beanspruchen den Beweis für die Quantencomputer-Überlegenheit
HPE und die Teams ließen sich von den Behauptungen in einem früheren Papier der University of Science and Technology of China (USTC) inspirieren, das den „Quantum Computational Advantage Using Photons“ beschreibt. In dem Papier berichten die USTC-Forscher über die Ergebnisse eines Experiments, bei dem ein großer, komplexer Quantenzustand des Lichts mit Hilfe von Einzelphotonendetektoren in dem GBS-Protokoll gemessen wurde. Das USTC sagte voraus, dass ihre Simulation von GBS, die sie auf einem photonischen Einzweck-Quantencomputer in 200 Sekunden durchführten, auf dem größten Supercomputer der Welt 600 Millionen Jahre dauern würde, um sie zu simulieren.
Die Forscher haben einen einen Algorithmus angewendet, der exakte, korrelierte Photonen-Nachweiswahrscheinlichkeiten für GBS-Simulationen berechnet. Sie haben die Simulationen zunächst auf dem „Isambard“-Supercomputer von GW4 und einem HPE-Supercomputer ausgeführt, der von HPE intern als Testsystem verwendet wird.
Die Simulationen auf diesen Systemen haben sie dann verwendet, um vorherzusagen, dass die Ausführung auf dem derzeit schnellsten Supercomputer schätzungsweise 73 Tage und auf einem Exascale-Supercomputer schätzungsweise drei Wochen dauern würde. Das Experiment und die Ergebnisse sind in dem Beitrag „The Boundary of Quantum Advantage in Gaussian Boson Sampling“ veröffentlicht.
(ID:47962813)