Professor Estela Suarez vom JSC über die europäischen Exascale-Initiativen „Exa ist ein quantitativer Sprung, der erhebliche qualitative Auswirkungen hat“

Von M.A. Jürgen Höfling |

Anbieter zum Thema

1 Trillion (10 hoch 18) doppelt genaue Gleitkomma-Operationen pro Sekunde, sprich 1 ExaFlops: so hoch liegt mittlerweile die Latte beim weltweiten Wettbewerb für High-Performance-Computing. Autor Jürgen Höfling hat mit Professor Estela Suarez vom Jülich Supercomputing Centre über Höchstleistungsrechnen in Zeiten von Klimakrise und Energiemangellage gesprochen.

Die modulare Superrechner-Architektur, die in Jülich entwickelt wurde, ist auch die technische Basis in Richtung „Exascale“
Die modulare Superrechner-Architektur, die in Jülich entwickelt wurde, ist auch die technische Basis in Richtung „Exascale“
(Bild: Forschungszentrum Jülich Sascha Kreklau)

Mit dem Supercomputer „Frontier“ von HPE wurde im Mai 2022 der erste Hochleistungsrechner vorgestellt, der die Exascale-Barriere durchbricht. Das Rennen um die Trillionen Flops hat damit noch mehr Fahrt bekommen.

Auch in Europa gibt es viel Forschungsgeld für das „Achtzehn-Nullen-Ziel“, sowohl aus Unionstöpfen als auch über die verschiedenen nationalen Forschungsprogramme. In Deutschland ist es das Superrechner-Zentrum am Forschungszentrum Jülich, wo der Durchbruch besonders nahe scheint. In der zweiten Hälfte des Jahres 2023 soll dort die Installation der ersten Exascale-Maschine in Europa beginnen.

Grund genug, hier Informationen aus erster Hand zu präsentieren. Im Auftrag von Datacenter Insider hat sich Jürgen Höfling direkt nach der diesjährigen Supercomputer Conference (SC22), die im texanischen Dallas stattgefunden hat, mit Frau Professor Estela Suarez unterhalten, die am Jülich Supercomputing Centre die Abteilung „Next Generation Architectures and Prototypes“ leitet und die gleichzeitig Projektleiterin im europäischen Forschungsprojekt DEEP-SEA ist.

Darf ich Sie zunächst um die Entschlüsselung der Projektbezeichnung DEEP-SEA bitten. Was bedeutet sie?

Estela Suarez: Die Abkürzung DEEP steht für Dynamical Exascale Entry Platform. Die Serie der DEEP-Projekte begann 2011, im siebten Forschungsrahmenprogramm der EU mit dem gleichnamigen Projekt. Das Akronym SEA bedeutet „Software for Exascale Architectures“. DEEP-SEA ist das vierte der DEEP-Projekte.

Mit wie vielen anderen Forschungseinrichtungen arbeiten Sie in diesem Projekt zusammen?

Estela Suarez: Wir arbeiten mit 15 anderen Einrichtungen aus Industrie und Wissenschaft in Europa zusammen, zum Beispiel Atos, CEA, Fraunhofer, ETHZ, das Europäische Zentrum für Wettervorhersage (ECMWF).

Warum sind die drei weiteren Nullen, also der Sprung von Peta zu Exa, sprich von 15 zu 18 Nullen, so wichtig? Wird in diesem Sprung die Quantität zur Qualität?

Estela Suarez: Zunächst einmal ist Exa ein quantitativer Sprung, der sich aber auch qualitativ auswirkt, weil er viele Aspekte erst in den Blick bringt und schärfer konturiert. Es ist nicht nur die Größe eines Problems, das im Exascale-Rahmen besser beherrscht werden kann, sondern vor allem auch die Detailtiefe, die deutlich erweitert wird.

In den Modellen vieler Anwendungsbereiche, ich nenne beispielhaft die Meteorologie, müssen ja sehr viele Abhängigkeiten dargestellt werden. Da kann der Faktor Tausend einen echten Qualitätsunterschied bewirken.

Ist der Juwels-Rechner, den Sie in Jülich haben und der ja schon jetzt einen Spitzenplatz in der Top500-Rangliste der weltweit schnellsten Rechner einnimmt - ich glaube, derzeit hat er Rang 12 - der Ausgangspunkt für den ersten Exascale-Rechner in Deutschland?

Estela Suarez: Ja, Juwels basiert ja auf der modularen Supercomputing-Architektur, abgekürzt MSA, die in den letzten zehn Jahren im Rahmen der verschiedenen DEEP-Projekte entwickelt worden ist. Die MSA wird nun in ganz Europa und weltweit übernommen, wobei bereits viele Petascale-Produktionssysteme auf diesem Konzept aufsetzen, als Vorläufer von Exascale. Juwels ist eines davon und eines der leistungsfähigsten. Also liegt es nahe, auf dieser Basis auch in Richtung Exascale zu gehen.

Derzeit schafft das Juwels Booster-Modul mit AMDs Epyc-7002-CPUs und Nvidias A100-Beschleunigern kontinuierlich 44 Billiarden FP64-Berechnungen pro Sekunde, das sind 44,1 PetaFlops im Linpack-Benchmark.

Vielleicht sagen Sie, was die konzeptionelle Idee hinter MSA ist.

Estela Suarez: MSA setzt das Konzept der funktionalen Parallelität auf der höchsten organisatorischen Ebene eines Supercomputersystems um. Es orchestriert die Hardware-Heterogenität auf Systemebene und organisiert die Ressourcen in verschiedenen Modulen, von denen jedes für sich ein Cluster-Computer ist.

Ermöglicht das Konzept auch die Integration von nicht-klassischen Clustern, also zum Beispiel auch von Quantencomputer-Modulen?

Estela Suarez: Ja, MSA ermöglicht die Integration sehr unterschiedlicher Hardwaretechnologien, auch Quantencomputer-Konzepte oder neuromorphe Computer. Entsprechende Systeme passen sich dynamisch an die Bedürfnisse einer breiten Palette von Anwendungen an. Dazu gehören auch Anwendungen im Bereich Datenanalyse und Künstliche Intelligenz.

Ihr persönlicher Forschungsschwerpunkt ist die Software. Welche speziellen Anforderungen gibt es da, vor allem auch im Blick auf die eben von Ihnen angesprochenen unterschiedlichen Hardware-Ansätze?

Estela Suarez: Für jede neue Architektur oder jeden neuen Hardware-Ansatz ist ein zuverlässiger und ausgereifter Software-Stack unerlässlich, damit die HPC-Anwender von dem Konzept umfassend profitieren können. Dies ist gerade für heterogene Systeme entscheidend, deren Komplexität auf Hardware-Ebene Anwender sonst stark überfordern würde.

Worauf muss speziell im Exascale-Bereich auf der Software-Ebene geachtet werden?

Estela Suarez: In erste Linie sind ausgefeilte Skalierungstechniken notwendig, damit die Anwendungen genügend Leistung erhalten. Wir konzentrieren uns dabei vor allem auf die Systemebene, damit möglichst viele Anwendungsbereiche von den Optimierungen profitieren können.

Welche Anwendungsbereiche gibt es?

Estela Suarez: Unter anderem Klimaforschung, Astrophysik, Materialforschung numerische Strömungsmechanik und Molekulardynamik. Insgesamt haben wir es in unserem Projekt mit sehr unterschiedlichen Anwendungen und Bibliotheken zu tun, die wir aber bei unseren Software-Überlegungen auf der Systemebene im Blick haben.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Nun sind Höchstleistungen beim Rechnen nicht zum energetischen Nulltarif zu haben. Wie steht es mit der Energieeffizienz von Rechnern, die in Richtung Exascale gehen?

Estela Suarez: Unser modulares Konzept bietet viele Ansatzpunkte für Energieeffizienz. Für jede Anwendung wird im Vorhinein entschieden, wie viele Knoten für dies und für das eingesetzt werden. Auch sind bei Juwels die CPUs als Allzweck-Prozessoren und die GPUs als Spezialisten entkoppelt.

Wenn ich spezielle Algorithmen auf dafür spezialisierte Prozessoren auslagern kann, beispielsweise auf die eben genannten Grafikprozessoren oder auch auf neuartige Netzwerkprozessoren, statt sie auf Allzweck-Prozessoren laufen zu lassen, dann spare ich per se Energie. Als weitere Maßnahme reguliert man die Frequenz der Prozessoren je nach der Last, die gerade gefahren wird.

Professor Estela Suarez leitet am Jülich Supercomputing Centre die Abteilung „Next Generation Architectures and Prototypes“ und das Forschungsprojekt DEEP-SEA.
Professor Estela Suarez leitet am Jülich Supercomputing Centre die Abteilung „Next Generation Architectures and Prototypes“ und das Forschungsprojekt DEEP-SEA.
(Bild: fhgfd)

Kann man nicht dieses Spiel noch weiter treiben und die Prozesse generell dynamisch steuern? Wenn ein Prozessor noch Kapazitäten frei hat, bekommt er Last zugeteilt, wenn er am Limit ist, wird Last weggenommen und woandershin transferiert?

Estela Suarez: Sie sprechen die so genannte „malleability“ an, was man wohl mit Formbarkeit oder Adaptionsfähigkeit übersetzen kann. Die Herausforderung ist in diesem Punkt größer, als es auf den ersten Blick aussieht. Das eigentliche Problem liegt nämlich gar nicht bei der Anwendung selbst, sondern in deren Daten. Auf welchem Knoten sollen denn die zur Anwendung gehörenden Daten untergebracht werden? Hier haben wir derzeit noch keine wirklich befriedigenden Lösungen für den Allgemeinfall.

Energiemangellagen sind hierzulande in den nächsten Jahren nicht auszuschließen. Wie bereiten Sie sich im Bereich Höchstleistungsrechnen und Exascaling darauf vor beziehungsweise tun Sie das überhaupt?

Estela Suarez: Auf jeden Fall. Priorisierung von Anwendungsbereichen ist für uns zumindest seit der Pandemie nichts Neues. Damals hatten zum Beispiel oft Anwendungen aus der Molekulargenetik und Simulationen zur Entwicklung der Pandemieausbreitung auf unserem Supercomputer Vorrang.

In echten Mangellagen müssen dann aber vielleicht Anwendungen priorisiert werden, die weniger Energie als andere benötigen….

Estela Suarez: Ja, dafür gibt es Ansätze, um Anwendungen zu priorisieren, die energieeffizienter laufen. Man muss dafür natürlich den Energieverbrauch jedes Anwendungslaufs messen, bevor man entsprechende Priorisierungsentscheidungen trifft. Monitoring und Scheduling müssen zusammenspielen. Das umso mehr, als nicht unbedingt ohne Weiteres von den Energie-Effizienz-Werten einzelner Komponenten des Systems auf den Energie-Effizienz-Wert des Gesamtsystems geschlossen werden kann. Wir arbeiten hier an Lösungen.

Energieeffizientes Höchstleistungsrechnen als integratives Projekt

Gibt es in Jülich auch Überlegungen, die Energie-Effizienz noch breiter zu fassen, sprich: den Gesamtkomplex Rechenzentrum zu betrachten, also nicht nur den White Space?

Estela Suarez: Ja, die gibt es und es sind nicht nur Überlegungen, sondern schon längst Taten. Wir bereiten gerade die Infrastruktur darauf vor, dass die Abwärme, die unser Höchstleistungsrechner Juwels produziert, für das Beheizen von zunächst acht Gebäuden nahe der Rechnerhalle genutzt werden kann. Dazu nutzen wir sowohl Teile des bisherigen Nahwärmenetzes als auch neu verlegte Rohrleitungssysteme.

Die optimale Auslegung des Netzes wurde dabei durch umfassende Simulationen überprüft. Die eigentliche Innovation ist aber die Einbindung eines solchen Wärmenetzes in die cloudbasierte Regelungsplattform, die vom Bereich Modellierung von Energiesystemen des Instituts für Energie- und Klimaforschung entwickelt worden ist.

Lassen Sie uns zum Schluss des Gesprächs noch einmal auf die Exascale-Planungen in Deutschland kommen. Soweit ich weiß, sind drei nationale Hochleitungsrechenzentren ausgewählt worden, die nach und nach in Richtung Exascale hochgerüstet werden sollen.

Estela Suarez: So ist es. Es handelt sich um die Superrechner, die im Gauss Centre for Supercomputing zusammengefasst sind. Das ist zum einen das Höchstleistungsrechenzentrum in Stuttgart, zum zweiten das Leibniz-Rechenzentrum in Garching bei München und last but not least das Jülich Supercomputing Centre.

Diese drei Rechenzentren werden regelmäßig in Abständen von fünf bis sechs Jahren modernisiert, nicht zuletzt in Sachen Energie-Effizienz. Ziel für alle drei Rechenzentren ist Exascale-Leistung in den nächsten Jahren, Jülich ist vorgesehen als der erste Standort, der diese Leistungsklasse erreichen soll.

Eine allerletzte Frage: Wie sehen Sie die europäischen Exascale-Aktivitäten im Vergleich zum Rest der Welt?

Estela Suarez: In den Vereinigten Staaten gibt es bekanntlich seit diesem Jahr mit Frontier einen Exascale-Rechner, in Japan hat man einen 500-PetaFlops-Rechner, also sozusagen einen halben Exascale-Rechner, bezüglich China gibt es nur Gerüchte und Europa muss noch aufholen, aber ich bin hier zuversichtlich. Zugegebenermaßen ist die europäische Sicht trotz der vielen EU-Programme noch stark national geprägt, das kann, aber muss nicht unbedingt ein Nachteil sein, man kann es auch als Vielfalt sehen und gerade daraus Vorteile ziehen.

Artikelfiles und Artikellinks

(ID:48835524)