Professor Estela Suarez vom JSC über die europäischen Exascale-Initiativen „Exa ist ein quantitativer Sprung, der erhebliche qualitative Auswirkungen hat“
1 Trillion (10 hoch 18) doppelt genaue Gleitkomma-Operationen pro Sekunde, sprich 1 ExaFlops: so hoch liegt mittlerweile die Latte beim weltweiten Wettbewerb für High-Performance-Computing. Autor Jürgen Höfling hat mit Professor Estela Suarez vom Jülich Supercomputing Centre über Höchstleistungsrechnen in Zeiten von Klimakrise und Energiemangellage gesprochen.
Die modulare Superrechner-Architektur, die in Jülich entwickelt wurde, ist auch die technische Basis in Richtung „Exascale“
(Bild: Forschungszentrum Jülich Sascha Kreklau)
Mit dem Supercomputer „Frontier“ von HPE wurde im Mai 2022 der erste Hochleistungsrechner vorgestellt, der die Exascale-Barriere durchbricht. Das Rennen um die Trillionen Flops hat damit noch mehr Fahrt bekommen.
Auch in Europa gibt es viel Forschungsgeld für das „Achtzehn-Nullen-Ziel“, sowohl aus Unionstöpfen als auch über die verschiedenen nationalen Forschungsprogramme. In Deutschland ist es das Superrechner-Zentrum am Forschungszentrum Jülich, wo der Durchbruch besonders nahe scheint. In der zweiten Hälfte des Jahres 2023 soll dort die Installation der ersten Exascale-Maschine in Europa beginnen.
Grund genug, hier Informationen aus erster Hand zu präsentieren. Im Auftrag von Datacenter Insider hat sich Jürgen Höfling direkt nach der diesjährigen Supercomputer Conference (SC22), die im texanischen Dallas stattgefunden hat, mit Frau Professor Estela Suarez unterhalten, die am Jülich Supercomputing Centre die Abteilung „Next Generation Architectures and Prototypes“ leitet und die gleichzeitig Projektleiterin im europäischen Forschungsprojekt DEEP-SEA ist.
Darf ich Sie zunächst um die Entschlüsselung der Projektbezeichnung DEEP-SEA bitten. Was bedeutet sie?
Estela Suarez: Die Abkürzung DEEP steht für Dynamical Exascale Entry Platform. Die Serie der DEEP-Projekte begann 2011, im siebten Forschungsrahmenprogramm der EU mit dem gleichnamigen Projekt. Das Akronym SEA bedeutet „Software for Exascale Architectures“. DEEP-SEA ist das vierte der DEEP-Projekte.
Mit wie vielen anderen Forschungseinrichtungen arbeiten Sie in diesem Projekt zusammen?
Estela Suarez: Wir arbeiten mit 15 anderen Einrichtungen aus Industrie und Wissenschaft in Europa zusammen, zum Beispiel Atos, CEA, Fraunhofer, ETHZ, das Europäische Zentrum für Wettervorhersage (ECMWF).
Warum sind die drei weiteren Nullen, also der Sprung von Peta zu Exa, sprich von 15 zu 18 Nullen, so wichtig? Wird in diesem Sprung die Quantität zur Qualität?
Estela Suarez: Zunächst einmal ist Exa ein quantitativer Sprung, der sich aber auch qualitativ auswirkt, weil er viele Aspekte erst in den Blick bringt und schärfer konturiert. Es ist nicht nur die Größe eines Problems, das im Exascale-Rahmen besser beherrscht werden kann, sondern vor allem auch die Detailtiefe, die deutlich erweitert wird.
In den Modellen vieler Anwendungsbereiche, ich nenne beispielhaft die Meteorologie, müssen ja sehr viele Abhängigkeiten dargestellt werden. Da kann der Faktor Tausend einen echten Qualitätsunterschied bewirken.
Ist der Juwels-Rechner, den Sie in Jülich haben und der ja schon jetzt einen Spitzenplatz in der Top500-Rangliste der weltweit schnellsten Rechner einnimmt - ich glaube, derzeit hat er Rang 12 - der Ausgangspunkt für den ersten Exascale-Rechner in Deutschland?
Estela Suarez: Ja, Juwels basiert ja auf der modularen Supercomputing-Architektur, abgekürzt MSA, die in den letzten zehn Jahren im Rahmen der verschiedenen DEEP-Projekte entwickelt worden ist. Die MSA wird nun in ganz Europa und weltweit übernommen, wobei bereits viele Petascale-Produktionssysteme auf diesem Konzept aufsetzen, als Vorläufer von Exascale. Juwels ist eines davon und eines der leistungsfähigsten. Also liegt es nahe, auf dieser Basis auch in Richtung Exascale zu gehen.
Derzeit schafft das Juwels Booster-Modul mit AMDs Epyc-7002-CPUs und Nvidias A100-Beschleunigern kontinuierlich 44 Billiarden FP64-Berechnungen pro Sekunde, das sind 44,1 PetaFlops im Linpack-Benchmark.
Vielleicht sagen Sie, was die konzeptionelle Idee hinter MSA ist.
Estela Suarez: MSA setzt das Konzept der funktionalen Parallelität auf der höchsten organisatorischen Ebene eines Supercomputersystems um. Es orchestriert die Hardware-Heterogenität auf Systemebene und organisiert die Ressourcen in verschiedenen Modulen, von denen jedes für sich ein Cluster-Computer ist.
Ermöglicht das Konzept auch die Integration von nicht-klassischen Clustern, also zum Beispiel auch von Quantencomputer-Modulen?
Estela Suarez: Ja, MSA ermöglicht die Integration sehr unterschiedlicher Hardwaretechnologien, auch Quantencomputer-Konzepte oder neuromorphe Computer. Entsprechende Systeme passen sich dynamisch an die Bedürfnisse einer breiten Palette von Anwendungen an. Dazu gehören auch Anwendungen im Bereich Datenanalyse und Künstliche Intelligenz.
Ihr persönlicher Forschungsschwerpunkt ist die Software. Welche speziellen Anforderungen gibt es da, vor allem auch im Blick auf die eben von Ihnen angesprochenen unterschiedlichen Hardware-Ansätze?
Estela Suarez: Für jede neue Architektur oder jeden neuen Hardware-Ansatz ist ein zuverlässiger und ausgereifter Software-Stack unerlässlich, damit die HPC-Anwender von dem Konzept umfassend profitieren können. Dies ist gerade für heterogene Systeme entscheidend, deren Komplexität auf Hardware-Ebene Anwender sonst stark überfordern würde.
Worauf muss speziell im Exascale-Bereich auf der Software-Ebene geachtet werden?
Estela Suarez: In erste Linie sind ausgefeilte Skalierungstechniken notwendig, damit die Anwendungen genügend Leistung erhalten. Wir konzentrieren uns dabei vor allem auf die Systemebene, damit möglichst viele Anwendungsbereiche von den Optimierungen profitieren können.
Welche Anwendungsbereiche gibt es?
Estela Suarez: Unter anderem Klimaforschung, Astrophysik, Materialforschung numerische Strömungsmechanik und Molekulardynamik. Insgesamt haben wir es in unserem Projekt mit sehr unterschiedlichen Anwendungen und Bibliotheken zu tun, die wir aber bei unseren Software-Überlegungen auf der Systemebene im Blick haben.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Nun sind Höchstleistungen beim Rechnen nicht zum energetischen Nulltarif zu haben. Wie steht es mit der Energieeffizienz von Rechnern, die in Richtung Exascale gehen?
Estela Suarez: Unser modulares Konzept bietet viele Ansatzpunkte für Energieeffizienz. Für jede Anwendung wird im Vorhinein entschieden, wie viele Knoten für dies und für das eingesetzt werden. Auch sind bei Juwels die CPUs als Allzweck-Prozessoren und die GPUs als Spezialisten entkoppelt.
Wenn ich spezielle Algorithmen auf dafür spezialisierte Prozessoren auslagern kann, beispielsweise auf die eben genannten Grafikprozessoren oder auch auf neuartige Netzwerkprozessoren, statt sie auf Allzweck-Prozessoren laufen zu lassen, dann spare ich per se Energie. Als weitere Maßnahme reguliert man die Frequenz der Prozessoren je nach der Last, die gerade gefahren wird.
Professor Estela Suarez leitet am Jülich Supercomputing Centre die Abteilung „Next Generation Architectures and Prototypes“ und das Forschungsprojekt DEEP-SEA.
(Bild: fhgfd)
Kann man nicht dieses Spiel noch weiter treiben und die Prozesse generell dynamisch steuern? Wenn ein Prozessor noch Kapazitäten frei hat, bekommt er Last zugeteilt, wenn er am Limit ist, wird Last weggenommen und woandershin transferiert?
Estela Suarez: Sie sprechen die so genannte „malleability“ an, was man wohl mit Formbarkeit oder Adaptionsfähigkeit übersetzen kann. Die Herausforderung ist in diesem Punkt größer, als es auf den ersten Blick aussieht. Das eigentliche Problem liegt nämlich gar nicht bei der Anwendung selbst, sondern in deren Daten. Auf welchem Knoten sollen denn die zur Anwendung gehörenden Daten untergebracht werden? Hier haben wir derzeit noch keine wirklich befriedigenden Lösungen für den Allgemeinfall.
Energiemangellagen sind hierzulande in den nächsten Jahren nicht auszuschließen. Wie bereiten Sie sich im Bereich Höchstleistungsrechnen und Exascaling darauf vor beziehungsweise tun Sie das überhaupt?
Estela Suarez: Auf jeden Fall. Priorisierung von Anwendungsbereichen ist für uns zumindest seit der Pandemie nichts Neues. Damals hatten zum Beispiel oft Anwendungen aus der Molekulargenetik und Simulationen zur Entwicklung der Pandemieausbreitung auf unserem Supercomputer Vorrang.
In echten Mangellagen müssen dann aber vielleicht Anwendungen priorisiert werden, die weniger Energie als andere benötigen….
Estela Suarez: Ja, dafür gibt es Ansätze, um Anwendungen zu priorisieren, die energieeffizienter laufen. Man muss dafür natürlich den Energieverbrauch jedes Anwendungslaufs messen, bevor man entsprechende Priorisierungsentscheidungen trifft. Monitoring und Scheduling müssen zusammenspielen. Das umso mehr, als nicht unbedingt ohne Weiteres von den Energie-Effizienz-Werten einzelner Komponenten des Systems auf den Energie-Effizienz-Wert des Gesamtsystems geschlossen werden kann. Wir arbeiten hier an Lösungen.
Energieeffizientes Höchstleistungsrechnen als integratives Projekt
Gibt es in Jülich auch Überlegungen, die Energie-Effizienz noch breiter zu fassen, sprich: den Gesamtkomplex Rechenzentrum zu betrachten, also nicht nur den White Space?
Estela Suarez: Ja, die gibt es und es sind nicht nur Überlegungen, sondern schon längst Taten. Wir bereiten gerade die Infrastruktur darauf vor, dass die Abwärme, die unser Höchstleistungsrechner Juwels produziert, für das Beheizen von zunächst acht Gebäuden nahe der Rechnerhalle genutzt werden kann. Dazu nutzen wir sowohl Teile des bisherigen Nahwärmenetzes als auch neu verlegte Rohrleitungssysteme.
Die optimale Auslegung des Netzes wurde dabei durch umfassende Simulationen überprüft. Die eigentliche Innovation ist aber die Einbindung eines solchen Wärmenetzes in die cloudbasierte Regelungsplattform, die vom Bereich Modellierung von Energiesystemen des Instituts für Energie- und Klimaforschung entwickelt worden ist.
Lassen Sie uns zum Schluss des Gesprächs noch einmal auf die Exascale-Planungen in Deutschland kommen. Soweit ich weiß, sind drei nationale Hochleitungsrechenzentren ausgewählt worden, die nach und nach in Richtung Exascale hochgerüstet werden sollen.
Estela Suarez: So ist es. Es handelt sich um die Superrechner, die im Gauss Centre for Supercomputing zusammengefasst sind. Das ist zum einen das Höchstleistungsrechenzentrum in Stuttgart, zum zweiten das Leibniz-Rechenzentrum in Garching bei München und last but not least das Jülich Supercomputing Centre.
Diese drei Rechenzentren werden regelmäßig in Abständen von fünf bis sechs Jahren modernisiert, nicht zuletzt in Sachen Energie-Effizienz. Ziel für alle drei Rechenzentren ist Exascale-Leistung in den nächsten Jahren, Jülich ist vorgesehen als der erste Standort, der diese Leistungsklasse erreichen soll.
Eine allerletzte Frage: Wie sehen Sie die europäischen Exascale-Aktivitäten im Vergleich zum Rest der Welt?
Estela Suarez: In den Vereinigten Staaten gibt es bekanntlich seit diesem Jahr mit Frontier einen Exascale-Rechner, in Japan hat man einen 500-PetaFlops-Rechner, also sozusagen einen halben Exascale-Rechner, bezüglich China gibt es nur Gerüchte und Europa muss noch aufholen, aber ich bin hier zuversichtlich. Zugegebenermaßen ist die europäische Sicht trotz der vielen EU-Programme noch stark national geprägt, das kann, aber muss nicht unbedingt ein Nachteil sein, man kann es auch als Vielfalt sehen und gerade daraus Vorteile ziehen.