Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Von der Cray bis zum Linux-Cluster mit GPU Was ist ein Supercomputer?

Von M.A. Jürgen Höfling 5 min Lesedauer

Anbieter zum Thema

Supercomputer machen mit ihrer gigantischen Rechenleistung ganze Chemie- und Medizin-Labors oder auch jede Menge Prüfstände für Materialien und Verfahren überflüssig. Und sie werden immer leistungsfähiger. Die Trillionen-Grenze bei den Gleitkomma-Operationen pro Sekunde ist mittlerweile geknackt.

Der erste Supercomputer rechnet mit Terabyte.(Bild:  © djarma/ Fotolia.com)
Der erste Supercomputer rechnet mit Terabyte.
(Bild: © djarma/ Fotolia.com)

Seinen Ursprung hat der Begriff Supercomputer in der von Seymour Cray entworfenen „CDC-6600“. Die Maschine rechnete bei ihrer Vorstellung 1964 rund zehnmal so schnell wie die schnellsten Computer ihrer Zeit.

Am typischen Aufbau von Supercomputern hat sich seit 1964 allerdings sehr viel verändert. Heute sind alle Höchstleistungsrechner alias „Supercomputer“ Kombinationen aus einer Vielzahl von Server-Einheiten, die wiederum aus einer Vielzahl jeweils spezieller Prozessoren bestehen.

Operativ betrieben wird die entsprechende Hardware in aller Regel mit quelloffener Software, also irgendeiner Linux-Version als Basis und verschiedenen Opensource-Angeboten in den oberen Schichten wie beispielsweise dem „Slurm“-Workload Manager oder der „Partec Parastation Modulo“ Supercomputing Software-Suite für die Verwaltung der modularen Supercomputing-Architektur.

Die Top500: Supercomputer im Vergleich

Konzipiert sind Supercomputing-Architekturen für Anwendungsszenarien, die einen hohen Grad an numerischer Rechenkapazität benötigen. Das Spektrum reicht von Klima- und Wettermodellrechnungen über Simulationen in Materialwissenschaften, Chemie, Pharmazie und Medizin bis zur rechentechnischen Modellierung volks- und betriebswirtschaftlicher Abläufe. Nicht zu vergessen: die immer wichtiger werdende Branche des Maschinenlernens und der neuronalen Netze, die einen immensen Bedarf an massiv-paralleler Numerik haben.

Deshalb ist es kein Wunder, dass die Kapazität von Supercomputern in „Floating Point Operations per Second“ (FLOPS), also der Anzahl der Gleitkommazahl-Operationen (Additionen oder Multiplikationen) gemessen wird, welche die Rechner pro Sekunde ausführen können.

Mit 1,19 Trillionen Gleitkomma-Operationen mit 64-Bit-Genauigkeit in der Sekunde, sprich 1,19 ExaFlops, liegt der Supercomputer „Frontier“ von HPE derzeit auf Platz 1 der weltweiten Superrechner, der so genannten TOP500-Liste. Frontier ist damit der erste im Produktivbetrieb arbeitende Exascale-Rechner.

Den zweiten Platz bei den TOP500 nimmt der japanische Fugaku-Rechner mit rund 442 Billiarden FP64-Operationen (= 442 PetaFLOPS) ein, an dritter Stelle kommt der finnische „Lumi“-Rechner mit 309 PetaFlops und an vierter Stelle der italienische „Leonardo“-Supercomputer mit rund 230 Billiarden FP64-Operationen in der Sekunde.

Auf Nummer 13 taucht der erste deutsche Supercomputer auf, nämlich „Juwels“ aus dem Forschungszentrum Jülich. Derzeit schafft Juwels mit „AMD Epyc-7002“-CPUs und „Nvidia A100“-Beschleunigern kontinuierlich 44 Billiarden FP64-Berechnungen pro Sekunde, das sind 44,1 PetaFlops im Linpack-Benchmark.

Das Benchmarking

Das Ranking, das im Rahmen der Supercomputing-Konferenzen (einmal in in Hamburg) stattfindet, ist sehr olympisch angelegt und dient nicht zuletzt auch Marketing-Zwecken. Denn letztendlich ist die Flops-Ziffer erst einmal nur eine Zahl, die mit „programmiertechnischem Inhalt“ gefüllt werden muss.

Und es kann durchaus sein, dass auch mit auf dem Papier leistungsschwächeren Supercomputern gute bis sehr gute Forschungsergebnisse erreicht werden. Schließlich kommt es auch und nicht zuletzt auf die Qualität der Programmierung an.

Modulare Supercomputer-Architektur (MSA)

Das Rennen um die Trillionen Flops hat gleichwohl gerade erst begonnen. Auch in Europa gibt es viel Forschungsgeld für das „Achtzehn-Nullen-Ziel“, sowohl aus EU-Töpfen als auch im Rahmen der verschiedenen nationalen Forschungsprogramme.

In Deutschland ist es einmal mehr das Superrechner-Zentrum am Forschungszentrum Jülich, wo der Exascale-Sprung besonders nahe scheint. Die Installation der ersten Exascale-Maschine in Deutschland hat begonnen und wie man auf der letzten ISC-Konferenz in Hamburg vernehmen konnte, liegt man bei der Fertigstellung im Zeitplan, sodass Mitte 2024 der neue Supercomputer zeigen kann, was er 'drauf' hat.

Technologische Basis der Jülicher Exascale-Maschine ist die modulare Supercomputing-Architektur (MSA), die nicht nur dem oben erwähnten Juwels-Rechner zugrunde liegt, sondern mittlerweile vielen Supercomputern in Europa und auch vielen Superrechnern auf anderen Kontinenten. Unter anderem basiert der Leonardo-Rechner, die oben erwähnte Nummer Vier unter den TOP500, auf dieser modularen Architektur.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

MSA ermöglicht die Integration sehr unterschiedlicher Hardwaretechnologien, zum Beispiel auch Quantencomputer-Konzepte oder neuromorphe Computer. Entsprechende Systeme passen sich dynamisch an die Bedürfnisse einer breiten Palette von Anwendungen an. Dazu gehören auch Anwendungen im Bereich Datenanalyse und Künstliche Intelligenz (KI).

Möglich ist diese Flexibilität von MSA aufgrund des Konzepts der funktionalen Parallelität auf der höchsten organisatorischen Ebene eines Supercomputersystems. Durch MSA wird die Hardware-Heterogenität auf Systemebene orchestriert und gleichzeitig werden die Ressourcen in verschiedenen Modulen organisiert, von denen jedes für sich ein Cluster-Computer ist.

GPU-Cluster ist nicht GPU-Cluster

Beim Supercomputing gibt es keine Einheitslösungen. Das erkennt man beispielsweise bei der Konfiguration des Energie-effizienten GPU-Clusters „Alex“ am Zentrum für nationales Hochleistungsrechnen an der Friedrich-Alexander-Universität Erlangen.

„Alex“ verstärkt das schon länger dort existierende Cluster „Fritz“ (nota bene: eine flapsige Namens-Hommage an den Doppelnamen der Erlanger Uni). Während Fritz mit seinen fast 1.000 Intel-Rechnerknoten vor allem für kommunikationsintensive und moderat-parallele Anwendungen eignet, ist Alex für hochgradige Simulationsrechnungen und Maschinelles Lernen zuständig.

Das GPU-Cluster besteht aus 32 „NF5488A5“ und 38 „NF5468A5“ GPU-Servern des chinesischen Unternehmens Inspur. Diese setzen sich aus insgesamt 256 „Nvidia A100“ Tensor Core GPUs und 304 „Nvidia A40“ Tensor Core GPUs zusammen.

Während sich beispielsweise Molekulardynamiksimulationen in der Chemie vor allem auf den NF5468A5 GPU-Server stützen, profitieren Maschinelles Lernen und andere KI-Methoden besonders von der Architektur des NF5488A5 GPU-Servers. Da Alex über beide Servervarianten verfügt, lassen sich mit dieser Kombi verschiedene Software- und Datenkombinationen optimal bedienen, denn diese erfordern deutlich unterschiedliche Auslastungen von CPUs, GPUs, Speicher und Festplatten.

Energie-effizienz als Supercomputer-Parameter

Alex belegte 2022 unter den TOP500 Platz 184 und unter den

Green500 der weltweit Energie-effizientesten Supercomputer Platz 16. Damit ist Alex derzeit „das Energie-effizienteste Supercomputer-System in Deutschland“, heißt es von Seiten des Europa-Managements von Inspur.

Leider spielt bei der Beschaffung eines Supercomputer-Systems die Energie-Effizienz meist immer noch keine Rolle. Oft wird nur das Preis-Leistungs-Verhältnis optimiert.

Dazu wird den Systemanbietern ein Set von repräsentativen Workloads, bestehend aus wissenschaftlichen Anwendungen und entsprechenden Eingabedatensätzen, vorgegeben. Es ist dann die Aufgabe des Anbieters, entweder die Anwendungslaufzeit zu minimieren oder den Anwendungsdurchsatz zu maximieren.

Insofern ist die Vorgehensweise an der Uni Erlangen immer noch die Ausnahme. Die Tatsache , dass es im Supercomputing-Ranking neben den TOP500 auch die Green500 gibt, wie oben erwähnt, lässt aber immerhin hoffen.

[Anm. d. Redaktion: Der Artikel ist eine Neufassung der Version aus dem Jahr 2017; sie ist notwendig geworden, weil sich technisch viel getan hat.]

Artikelfiles und Artikellinks

(ID:44572142)