Vorbereitung auf den Einsatz von Quantencomputern Nvidia: Qubits als „GPU-Bits“

Autor / Redakteur: Jürgen Höfling / Ulrike Ostler

Die Nvidia GPU Technical Conference 2021 (GTC21) hat in der vergangenen Woche nicht nur spektakuläre Ankündigungen im Prozessor-Bereich aufgewartet (siehe Links), sondern auch viele hochkarätige Vorträge zu GPU-Anwendungen - unter anderem im Bereich Quantencomputing-Simulation.

Quantensimulation mit GPUs: Keine Zauberei, sondern harte Arbeit
Quantensimulation mit GPUs: Keine Zauberei, sondern harte Arbeit
(Bild: Bild von Yerson_Retamal_auf Pixabay)

Die inhärente Parallelität, die ein Quantencomputer durch Ausnutzung der quantenphysikalischen Delozierung von Elementarteilchen (Teilchen ist mit einer bestimmten Wahrscheinlichkeit 'hier' und mit einer bestimmten Wahrscheinlichkeit 'dort') darstellen kann, wird ein klassischer Rechner grundsätzlich nie erreichen können. Im Gegensatz zum Quantencomputer sind indes im Moment klassische Computer „hier“ und Quantencomputer eher „dort“, wenn man dem Autor das Wortspiel erlaubt.

Das Simulieren von Quantenschaltkreisen auf leistungsfähigen klassischen Computern ist deshalb ein probates Mittel, um die Zeit, bis der Quantencomputer weniger Zukunftshoffnung denn Realität ist, zu überbrücken und das Arbeiten mit diesem Rechnertyp auch programmiertechnisch einzuüben. Ein großer Vorteil von Quantensimulatoren besteht darüber hinaus darin, dass die Simulation nicht auf einen spezifischen Quantenprozessortyp, wie Supraleitung, Ionenfalle und Einzel-Atome, festgelegt ist oder zumindest nicht festgelegt sein muss.

Baukasten für die Quantensimulation

Auf der GPU Technical Conference 2021 von Nvidia war deshalb Quantensimulation auf der Basis von Nvidia-Beschleuniger-Bausteinen zwar nicht unbedingt eines der Hauptthemen, aber doch ein sehr wichtiges Thema am Rande. Unternehmensgründer und CEO Jensen Huang hat in seiner in seiner Keynote darauf hingewisen, dass seine Firma mit dem Superrechner „Selene“ auch einen leistungsfähigen Quantensimulator im eigenen Haus hat.

Dass Nvidia aber nicht nur mit seiner GPU-Hardware dem „Quantengedanken“ auf die Sprünge helfen kann, zeigte auf der GTC Huangs Ankündigung eines speziellen Quantenrechner-orientierten Software-Entwicklungs-Bausatzes mit der Bezeichnung „cuQuantum SDK“. Mit dieser Software lasse sich nicht nur Erfahrung in der Programmierung von Quantencomputern sammeln, sondern ließen sich bestimmte Aufgaben auch um Größenordnungen schneller bewältigen als mit traditionellen Methoden.

Das cuQuantum SDK ist nach Angaben des Nvidia-Chefs nicht auf eine bestimmte Methode aus dem Baukasten der linearen Algebra festgelegt, um die Simulation zu beschleunigen, sondern spielt mit mehreren Berechnungs-Methoden zusammen, seien es die klassische Zustandsvektorenmethode oder auch neuere Ansätze wie beispielsweise „Tensor“-Netzwerke.

Erste Ergebnisse des GPU-Turbos beim Jülicher Superrechner

Die klassische Zustandsvektorenmethode zur Berechnung simulierter Qubits verwendet zum Beispiel das Superrechner-Zentrum des Forschungszentrum Jülich, hardwareseitig auf der Basis eines großen Rechner-Clusters, ergänzt durch einen zusätzlichen Turbo von Tausenden von „Nvidia A100“-GPU-Bausteinen.

Dennis Willsch vom Jülicher Zentrum stellte in seinem (quanten-)rechentechnisch sehr detaillierten Vortrag im Rahmen der GTC21 erste Ergebnisse mit den A100-Grafikprozessoren vor, die im „Nvidia-Turbo“ des Cluster-Superrechners Juwels verbaut sind. Er zeigte, dass man 40 Qubits mit diesem Aufbau gut simulieren kann und dass Speichernutzung, Prozessorkommunikation über das Netzwerk und Rechenleistung sich – anders als mit Hochleistungs-CPUs, beispielsweise vom Typ „AMD Epyc 7742“ - in eine gute Balance bringen lassen.

Googles Sycamore in Rekordzeit simulieren

Auch Forscher am California Institute of Technology simulieren Qubits mit Hilfe von Nvidia-Grafikprozessoren. Sie verwenden nach Angaben von Nvidia-CEO Huang die Tensor-Netzwerk-Methode, die weniger speicherintensiv ist als die Zustandsvektoren-Algebra, dafür aber mehr Rechenaufwand erfordert.

Die Caltech-Forscher haben beispielsweise mit dem cuQuantum SDK als Teil der Software und dem Nvidia-Superrechner Selene sowie Nvidia A100-Tensor-Core-Grafikprozessoren als Hardware den Sycamore-Schaltkreis von Google (ein auf supraleitenden Stromflüssen basierendes Quantenbauteil) „in ausreichender Tiefe“ in 9,3 Minuten simuliert, eine Aufgabe, für die traditionelle Supercomputer, die auf CPU-Kernen basieren, mehrere Tage benötigten, so Huang.

Quantenprogrammierung praktisch erfahren

Solche Geschwindigkeits-Vorteile sind zweifellos eindrucksvoll und machen auch „Marketing-technisch viel her“. Der größte Vorteil der Quantensimulation auf klassischen Rechnern dürfte indes die Tatsache sein, dass in diesem Rahmen Softwarewerkzeuge geschaffen werden, zum Beispiel das cuQuantum SDK, mit denen mehrere Generationen ganz praktisch an die Quantenprogrammierung herangeführt werden, ohne dass sie studierte Quantenphysiker sind oder auch nur sein müssen.

Artikelfiles und Artikellinks

(ID:47360363)