Supercomputer machen mit ihrer gigantischen Rechenleistung ganze Chemie- und Medizin-Labors oder auch jede Menge Prüfstände für Materialien und Verfahren überflüssig. Und sie werden immer leistungsfähiger. Die Trillionen-Grenze bei den Gleitkomma-Operationen pro Sekunde ist mittlerweile geknackt.
Seinen Ursprung hat der Begriff Supercomputer in der von Seymour Cray entworfenen „CDC-6600“. Die Maschine rechnete bei ihrer Vorstellung 1964 rund zehnmal so schnell wie die schnellsten Computer ihrer Zeit.
Am typischen Aufbau von Supercomputern hat sich seit 1964 allerdings sehr viel verändert. Heute sind alle Höchstleistungsrechner alias „Supercomputer“ Kombinationen aus einer Vielzahl von Server-Einheiten, die wiederum aus einer Vielzahl jeweils spezieller Prozessoren bestehen.
Operativ betrieben wird die entsprechende Hardware in aller Regel mit quelloffener Software, also irgendeiner Linux-Version als Basis und verschiedenen Opensource-Angeboten in den oberen Schichten wie beispielsweise dem „Slurm“-Workload Manager oder der „Partec Parastation Modulo“ Supercomputing Software-Suite für die Verwaltung der modularen Supercomputing-Architektur.
Die Top500: Supercomputer im Vergleich
Konzipiert sind Supercomputing-Architekturen für Anwendungsszenarien, die einen hohen Grad an numerischer Rechenkapazität benötigen. Das Spektrum reicht von Klima- und Wettermodellrechnungen über Simulationen in Materialwissenschaften, Chemie, Pharmazie und Medizin bis zur rechentechnischen Modellierung volks- und betriebswirtschaftlicher Abläufe. Nicht zu vergessen: die immer wichtiger werdende Branche des Maschinenlernens und der neuronalen Netze, die einen immensen Bedarf an massiv-paralleler Numerik haben.
Deshalb ist es kein Wunder, dass die Kapazität von Supercomputern in „Floating Point Operations per Second“ (FLOPS), also der Anzahl der Gleitkommazahl-Operationen (Additionen oder Multiplikationen) gemessen wird, welche die Rechner pro Sekunde ausführen können.
Mit 1,19 Trillionen Gleitkomma-Operationen mit 64-Bit-Genauigkeit in der Sekunde, sprich 1,19 ExaFlops, liegt der Supercomputer „Frontier“ von HPE derzeit auf Platz 1 der weltweiten Superrechner, der so genannten TOP500-Liste. Frontier ist damit der erste im Produktivbetrieb arbeitende Exascale-Rechner.
Den zweiten Platz bei den TOP500 nimmt der japanische Fugaku-Rechner mit rund 442 Billiarden FP64-Operationen (= 442 PetaFLOPS) ein, an dritter Stelle kommt der finnische „Lumi“-Rechner mit 309 PetaFlops und an vierter Stelle der italienische „Leonardo“-Supercomputer mit rund 230 Billiarden FP64-Operationen in der Sekunde.
Auf Nummer 13 taucht der erste deutsche Supercomputer auf, nämlich „Juwels“ aus dem Forschungszentrum Jülich. Derzeit schafft Juwels mit „AMD Epyc-7002“-CPUs und „Nvidia A100“-Beschleunigern kontinuierlich 44 Billiarden FP64-Berechnungen pro Sekunde, das sind 44,1 PetaFlops im Linpack-Benchmark.
Das Benchmarking
Das Ranking, das im Rahmen der Supercomputing-Konferenzen (einmal in in Hamburg) stattfindet, ist sehr olympisch angelegt und dient nicht zuletzt auch Marketing-Zwecken. Denn letztendlich ist die Flops-Ziffer erst einmal nur eine Zahl, die mit „programmiertechnischem Inhalt“ gefüllt werden muss.
Und es kann durchaus sein, dass auch mit auf dem Papier leistungsschwächeren Supercomputern gute bis sehr gute Forschungsergebnisse erreicht werden. Schließlich kommt es auch und nicht zuletzt auf die Qualität der Programmierung an.
Modulare Supercomputer-Architektur (MSA)
Das Rennen um die Trillionen Flops hat gleichwohl gerade erst begonnen. Auch in Europa gibt es viel Forschungsgeld für das „Achtzehn-Nullen-Ziel“, sowohl aus EU-Töpfen als auch im Rahmen der verschiedenen nationalen Forschungsprogramme.
In Deutschland ist es einmal mehr das Superrechner-Zentrum am Forschungszentrum Jülich, wo der Exascale-Sprung besonders nahe scheint. Die Installation der ersten Exascale-Maschine in Deutschland hat begonnen und wie man auf der letzten ISC-Konferenz in Hamburg vernehmen konnte, liegt man bei der Fertigstellung im Zeitplan, sodass Mitte 2024 der neue Supercomputer zeigen kann, was er 'drauf' hat.
Technologische Basis der Jülicher Exascale-Maschine ist die modulare Supercomputing-Architektur (MSA), die nicht nur dem oben erwähnten Juwels-Rechner zugrunde liegt, sondern mittlerweile vielen Supercomputern in Europa und auch vielen Superrechnern auf anderen Kontinenten. Unter anderem basiert der Leonardo-Rechner, die oben erwähnte Nummer Vier unter den TOP500, auf dieser modularen Architektur.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
MSA ermöglicht die Integration sehr unterschiedlicher Hardwaretechnologien, zum Beispiel auch Quantencomputer-Konzepte oder neuromorphe Computer. Entsprechende Systeme passen sich dynamisch an die Bedürfnisse einer breiten Palette von Anwendungen an. Dazu gehören auch Anwendungen im Bereich Datenanalyse und Künstliche Intelligenz (KI).
Möglich ist diese Flexibilität von MSA aufgrund des Konzepts der funktionalen Parallelität auf der höchsten organisatorischen Ebene eines Supercomputersystems. Durch MSA wird die Hardware-Heterogenität auf Systemebene orchestriert und gleichzeitig werden die Ressourcen in verschiedenen Modulen organisiert, von denen jedes für sich ein Cluster-Computer ist.
GPU-Cluster ist nicht GPU-Cluster
Beim Supercomputing gibt es keine Einheitslösungen. Das erkennt man beispielsweise bei der Konfiguration des Energie-effizienten GPU-Clusters „Alex“ am Zentrum für nationales Hochleistungsrechnen an der Friedrich-Alexander-Universität Erlangen.
„Alex“ verstärkt das schon länger dort existierende Cluster „Fritz“ (nota bene: eine flapsige Namens-Hommage an den Doppelnamen der Erlanger Uni). Während Fritz mit seinen fast 1.000 Intel-Rechnerknoten vor allem für kommunikationsintensive und moderat-parallele Anwendungen eignet, ist Alex für hochgradige Simulationsrechnungen und Maschinelles Lernen zuständig.
Das GPU-Cluster besteht aus 32 „NF5488A5“ und 38 „NF5468A5“ GPU-Servern des chinesischen Unternehmens Inspur. Diese setzen sich aus insgesamt 256 „Nvidia A100“ Tensor Core GPUs und 304 „Nvidia A40“ Tensor Core GPUs zusammen.
Während sich beispielsweise Molekulardynamiksimulationen in der Chemie vor allem auf den NF5468A5 GPU-Server stützen, profitieren Maschinelles Lernen und andere KI-Methoden besonders von der Architektur des NF5488A5 GPU-Servers. Da Alex über beide Servervarianten verfügt, lassen sich mit dieser Kombi verschiedene Software- und Datenkombinationen optimal bedienen, denn diese erfordern deutlich unterschiedliche Auslastungen von CPUs, GPUs, Speicher und Festplatten.
Energie-effizienz als Supercomputer-Parameter
Alex belegte 2022 unter den TOP500 Platz 184 und unter den
Green500 der weltweit Energie-effizientesten Supercomputer Platz 16. Damit ist Alex derzeit „das Energie-effizienteste Supercomputer-System in Deutschland“, heißt es von Seiten des Europa-Managements von Inspur.
Leider spielt bei der Beschaffung eines Supercomputer-Systems die Energie-Effizienz meist immer noch keine Rolle. Oft wird nur das Preis-Leistungs-Verhältnis optimiert.
Dazu wird den Systemanbietern ein Set von repräsentativen Workloads, bestehend aus wissenschaftlichen Anwendungen und entsprechenden Eingabedatensätzen, vorgegeben. Es ist dann die Aufgabe des Anbieters, entweder die Anwendungslaufzeit zu minimieren oder den Anwendungsdurchsatz zu maximieren.
Insofern ist die Vorgehensweise an der Uni Erlangen immer noch die Ausnahme. Die Tatsache , dass es im Supercomputing-Ranking neben den TOP500 auch die Green500 gibt, wie oben erwähnt, lässt aber immerhin hoffen.
[Anm. d. Redaktion: Der Artikel ist eine Neufassung der Version aus dem Jahr 2017; sie ist notwendig geworden, weil sich technisch viel getan hat.]