Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Auf dem Weg zu den Trillionen-Flops Was ist Exascale-Computing?

Autor / Redakteur: M.A. Jürgen Höfling / Ulrike Ostler

Das Rennen um die Trillionen-Flops ist in der Hochleistungsrechner-Szene in vollem Gange. Exascaling heißt die Devise. Spätestens 2024 sollen die „Achtzehn-Nullen“ geknackt sein. Gleichzeitig wird die Dekarbonisierungs-Problematik in der IT immer virulenter.

Firma zum Thema

Exascale-Hochleistungsrechner sind sozusagen die Weltstädte unter den Rechnern
Exascale-Hochleistungsrechner sind sozusagen die Weltstädte unter den Rechnern
(Bild: Gerd_Altmann_auf_Pixabay)

Neben den analytischen Disziplinen der Mathematik (Funktionalanalysis, Lineare Algebra, Topologie) bauen Wissenschaft und Technik zunehmend auch auf der approximativen Mathematik (Numerik) auf. Diese nur scheinbar „ungenaue“ Mathematik ist die rechentechnische Grundlage von immer genaueren Simulationsrechnungen in Meteorologie, Physik, Chemie, Pharmazie, Materialwissenschaften und unzähligen anderen Disziplinen.

Im Computer findet die Numerik in Gleitkomma-Operationen statt und deren begrenzte Genauigkeit kommt bekanntlich dadurch, dass unendliche viele (reelle) Zahlen durch endlich viele Ziffernkombinationen dargestellt werden sollen. Mit doppelt genauen Gleitkomma-Operationen (64-Bit-Gleitkommazahlen oder FP64) erreicht man für solche Simulationen aber schon eine ausreichend große Genauigkeit, so dass die Leistung von Hochleistungsrechnern seit Jahr und Tag in solchen Floating-Point-64-Operationen pro Sekunde gemessen wird.

44 Billiarden FP-64 sind der Ausgangspunkt

Das „Juwels Booster Modul“ am Supercomputer-Zentrum in Jülich schafft beispielsweise mit „AMDs Epyc-7002“-CPUs und „Nvidia A100“-Beschleunigern kontinuierlich 44 Billiarden FP64-Berechnungen pro Sekunde (44,1 PetaFlops im Linpack-Benchmark) und liegt damit unter der TOP500 weltweit an achter Stelle.

Der Jülicher Rechner gehört in Deutschland zum Gauss Centre for Supercomputing, einem Verbund von den Superrechnern in Jülich, Stuttgart und München. Zusammen erbringen diese drei Superrechner-Zentren derzeit eine Leistung von 60 PetaFlops, also 60 Billiarden doppelt genaue Gleitkomma-Operationen pro Sekunde.

Giga-Euro für Exa-Flops

Schon längst ist indes das weltweite Rennen um die „nächsten drei Nullen“ eröffnet. Nach 'Peta' (10 hoch 15) kommt „Exa“ (10 hoch 18). Ein Exascale-Rechner soll also mindestens 1 ExaFlops FP64-Rechenleistung erreichen, sprich eine Trillion Berechnungen pro Sekunde. Die Vereinigten Staaten beispielsweise wollen in den kommenden Jahren mehrere solcher Exascale-Systeme bauen, China selbstredend auch und eventuell sogar früher, aber auch die EU ist voll im Rennen. Im Rahmen des EuroHPC-Programms stehen seit einigen Monaten knapp 7 Milliarden Euro für den Neu- und Ausbau europäischer Supercomputer in Richtung „Exascale“ zur Verfügung.

Aus Deutschland wird der oben schon erwähnte Superrechner-Verbund Gauss Centre for Supercomputing mit Sitz in Berlin Mittel aus dem EU-Topf beantragen, um einen oder mehrere Exascale-Rechner bis zum Jahr 2024 zu bauen. Zusätzliche nationale Mittel werden aus dem Bundesprogramm „Hoch- und Höchstleistungsrechnen für das digitale Zeitalter – Forschung und Investitionen zum High-Performance-Computing“, kommen. In diesem Förder-Topf liegen bis 2024 Gelder in Höhe von 300 Millionen Euro bereit.

Decarbonisierung der IT

Der Durchbruch durch die „Exascale-Schallmauer“ verlangt indes nicht nur viel Geld (Giga-Euro für Exa-Flops), sondern auch jede Menge Energie. Insofern ist „Decarbonisierung“ nicht nur in der Stahl- und Chemie-Industrie angesagt, sondern immer dringlicher auch in der IT. Auch hierfür gibt es mit Exa2Green ein EU-Projekt, das das Steinbeis-Europa-Zentrum gemeinsam mit Partnern umsetzt.

Unter Federführung des Rechenzentrums der Universität Heidelberg arbeitet in diesem Projekt ein Team aus Mathematikern, Informatikern, Physikern und Ingenieuren an der Entwicklung energiesparender Rechenarten und Technologien. Forschungsschwerpunkte sind die Entwicklung von Instrumenten zur Energie-Überwachung und Profilerstellung, die Entwicklung einer neuen Metrik für die quantitative Analyse der Energieprofile der Algorithmen, der Einsatz von energiebewussten elementaren Systemkernen, die Entwicklung von Programmbibliotheken für Energie-effiziente lineare Algebra und schließlich die Implementierung einer energiebewussten Simulationsplanung für Hochleistungsrechner.

Bleibt zu hoffen, dass sich auch die Ergebnisse dieses und ähnlicher Energie-Effizienz-Projekte in Richtung Exascaling bewegen.

(ID:47687897)

Über den Autor