Superrechner und Quantencomputer sollen zusammen arbeiten Referenzarchitektur für quantenzentriertes Supercomputing aus dem Hause IBM

Quelle: Pressemitteilung IBM 2 min Lesedauer

Anbieter zum Thema

IBM hat in der vergangenen Woche eine branchenweit erste Referenzarchitektur für quantenzentriertes Supercomputing vorgestellt.Diese soll als Blaupause für die Integration von Quantencomputing in Supercomputing-Umgebungen dienen.

Die Abbildung zeigt das äußere Bild einer Integration von (IBM)-Quantencomputern und Superrechnern. (Bild:  IBM)
Die Abbildung zeigt das äußere Bild einer Integration von (IBM)-Quantencomputern und Superrechnern.
(Bild: IBM)

Nach IBM-Angaben zeigt die Architektur auf, wie Quantenprozessoren (QPUs) gemeinsam mit GPUs und CPUs und über On-Premises-Systeme, Forschungszentren sowie die Cloud hinweg eingesetzt werden können, um wissenschaftliche Herausforderungen bewältigen, für die kein Ansatz für sich allein eine Lösung bieten kann. Sie soll ein einen praxisnahen, skalierbaren Ansatz zur Kombination von Quanten- und klassischem Computing skizzieren.

So sei die Architektur für heutige Workloads konzipiert und darauf ausgelegt, sich im Laufe der Zeit weiterzuentwickeln. Denn wissenschaftliche Durchbrüche in Chemie, Materialwissenschaften und Molekül-Simulation treiben Berechnungen über die Grenzen klassischer Computer hinaus. Ermöglicht wird das durch einen quantenzentrierten Ansatz.

Die Integration von Quanten- und klassischen Systemen verlangt nach einer einheitlichen Umgebung. IBM hat nun ein Referenzmodell vorgestellt. (Bild:  IBM)
Die Integration von Quanten- und klassischen Systemen verlangt nach einer einheitlichen Umgebung. IBM hat nun ein Referenzmodell vorgestellt.
(Bild: IBM)

Das Architekturkonzept: Es vereint Quanten- und klassische Systeme in einer einheitlichen Computing-Umgebung, offene Software und abgestimmte Vorgehensweisen. Dafür kombiniert sie Quantenhardware mit leistungsstarker klassischer Infrastruktur, darunter CPU- und GPU-Cluster, Hochgeschwindigkeitsnetzwerke und gemeinsam genutzte Speicher, um rechenintensive Workloads und die Algorithmenforschung zu unterstützen.

Koordinierte Vorgehensweisen

Der Ansatz ermöglicht so koordinierte Workflows, die Quanten- und klassisches Computing miteinander verbinden. Integrierte Orchestrierung und offene Software-Frameworks, darunter „Qiskit“, erlauben es Entwicklerinnen, Entwicklern sowie Wissenschaftlerinnen und Wissenschaftlern, über vertraute Tools und Workflows auf Quantenfunktionen zuzugreifen. Dadurch wird es einfacher, Quantencomputing auf Problemstellungen in Bereichen wie Chemie, Materialwissenschaften und Optimierung anzuwenden.

Jay Gambetta, Director of IBM Research und IBM Fellow, sagt dazu: „Vor mehr als vier Jahrzehnten stellte sich Richard Feynman Computer vor, die Quantenphysik simulieren können.[...] Die heutigen Quantenprozessoren beginnen, die schwierigsten Teile wissenschaftlicher Probleme zu bearbeiten – jene, die in der Chemie durch Quantenmechanik bestimmt sind. Die Zukunft liegt im quantenzentrierten Supercomputing, bei dem Quantenprozessoren zusammen mit klassischem Hochleistungsrechnen eingesetzt werden, um Probleme zu lösen, die bislang unerreichbar waren.“

Vorzuweisende Erfolge

Jüngste Ergebnisse geben einige der bislang stärksten Belege dafür ab, dass Quantencomputer in Kombination mit klassischen Computing-Workflows wissenschaftliche Entdeckungen beschleunigen können:

  • Forschende von IBM, der University of Manchester, der University of Oxford, der ETH Zürich, der EPFL und der Universität Regensburg haben erstmals ein Halb-Möbius-Molekül erzeugt und dessen ungewöhnliche elektronische Struktur mithilfe eines quantenzentrierten Supercomputers verifiziert. Die Ergebnisse wurden in Science veröffentlicht.
  • Die Cleveland Clinic simulierte ein 303-Atom-Tryptophan-Cage-Mini-Protein, eines der bislang größten molekularen Modelle, die auf einem quantenzentrierten Supercomputer berechnet wurden.
  • Ein Team von IBM, Riken und der University of Chicago ermittelte den niedrigsten Energiezustand konstruierter Quantensysteme und übertraf damit die bisher führenden der rein klassischen Ansätze.
  • Wissenschaftlerinnen und Wissenschaftler von Riken und IBM realisierten eine der bislang größten Quantensimulationen von Eisen-Schwefel-Clustern, einem grundlegenden Molekül in Biologie und Chemie. Möglich wurde dies durch den kontinuierlichen Datenaustausch zwischen einem lokal installierten „IBM Quantum Heron“-Prozessor und allen 152.064 klassischen Rechenknoten des „Fugaku“-Supercomputers von Riken.
  • Algorithmiq, das Trinity College Dublin und IBM veröffentlichten in „Nature Physics“ Methoden zur präzisen Simulation von Vielteilchen-Quantendynamik-Systemen, etwa Atom- und Elektronensammlungen, unter Nutzung klassischer Rechenressourcen zur Rauschunterdrückung.

Außerdem verbessern IBM und das Rensselaer Polytechnic Institute beispielsweise, wie die nahtlose Planung und Orchestrierung von Workflows über Quanten- und Hochleistungsrechenressourcen hinweg erfolgen kann. Die Bereitstellung neuer Algorithmen auf dieser zunehmend ausgereiften Architektur wird die nächste Generation von Anwendungen in Chemie, Materialwissenschaften, Optimierung und darüber hinaus hervorbringen und sie in die Lage versetzen, exponentiell zu skalieren.

Artikelfiles und Artikellinks

(ID:50784602)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung