Zum 40. Mal trafen sich vom 10. bis 13. Juni die Spezialisten für Hochleistungsrechnen zur „International Supercomputing Conference“ ( ISC) im Hamburger Kongresszentrum „CCH“. Neben dem permanent steigenden Bedarf an Rechenleistung waren die europäische Aufholjagd und hohe Energiebedarf wichtige Themen.
Auf der 40. „International Supercomputing Conference (ISC ) im Kongresszentrum Hamburg ging es unter anderem um das Zusammenwachsen von HPC, AI und Quantencomputing.
(Bild: Rüdiger/ISC)
Die Ehre, die Eröffnungsrede der 40. Ausgabe des renommierten Supercomputing-Kongresses ISC zu halten, erhielten weder Intel noch GPU-Star Nvidia. Vielmehr gab Mark Papermaker, CTO und Executive Vice President von AMD, einen Rück- und Ausblick auf das Hochleistungsrechnen der vergangenen 40 Jahre.
1998, so erinnerte Papermaker, lagen die höchsten Rechenleistungen bei 3,8 TeraFlops pro Sekunde (TFlop/s). Heute sind die Leistungen in den Exaflop-Bereich vorgestoßen. Das Kürzel 'Exa' steht für eine Eins mit 18 Nullen und ist kaum noch anschaulich vorstellbar. Doch die Leistungssteigerung bringt auch Probleme mit sich.
Energie-Effizienz steigt langsamer als Leistung
„Die Rechenleistung verdoppelt sich beim Supercomputing etwa alle 1,2 Jahre“, stellte Papermaker fest. „Die Energie-Effizienz tut das nur alle 2,2 Jahre.“ Daran, dieses Missverhältnis zu beheben, müsse die gesamte Branche mit höchster Energie arbeiten. Für die AI-getriebene Welt der Zukunft, die solche Rechenleistungen braucht, seien neue Innovationsansätze nötig - einer davon: Das Zusammenwachsen bislang getrennter Hardwaregattungen in den Hochleistungsrechenzentren.
AI und HPC, so Papermaker, müssten kooperieren. Ohnehin würden sie oft gemeinsam eingesetzt, so dass sich ihre Konvergenz zwangsläufig ergebe. Das werde auch den Strombedarf weiter nach oben treiben. Schon bald könnten die neuen, AI-angereicherten Superrechner mit ihrer Leistung an 500 MW bis 1 GW heranreichen.
Für das sich dadurch ergebende Energieproblem empfiehlt Papermaker vor allem kleine, modulare Atomreaktoren (SMR, Small Modular Reactors) in der Nachbarschaft oder unmittelbar auf dem Datacenter-Gelände. Das entspricht dem neuen amerikanischen Paradigma, erneuerbaren Energien die kalte Schulter zu zeigen.
Langsamer Leistungsanstieg der Superrechner
Dem widersprach Erich Strohmaier, ehemaliger Leiter des Future Technology Lab in Berkeley, bei der Präsentation der „Top500“. Die derzeitig aktiven Hyperscaler-Rechenzentren erreichten Leistungen von 50 bis 200 MW. Im Durchschnitt läge die Leistung der Top500 bei der Hälfte. Weil die Leistungen derzeit aus Komplexitätsgründen eher langsam weiter anstiegen, „dauert es sicher noch eine Weile“ bis diese Werte erreicht würden. „Es ist nicht klar, ob wir bis 2030 bei zehn Exaflops sind.“
Dass es der US-Branche mit der Atomindustrie als Energiequelle durchaus ernst ist, zeigte ein Panel zu Energie-Effizienz beim Hochleistungsrechnen. Dort berichtete ein Vertreter des Oak Ridge National Laboratory, man habe bereits mit dem Bau einer SMR-Anlage begonnen. Ab 2027 soll sie für reichlich kohlendioxidfreien Strom sorgen – ob es so kommt, wird sich zeigen. Bislang glänzten Atomprojekte der neuen Generation durch um Längen überschrittene Budgets und Bauzeiten.
In Finnland, wo der hochgradig nachhaltige Superrechner „Lumi“ im Rechenzentrum CSC arbeitet, schafft man nahezu einen kohlendioxidfreien Betrieb anders: durch die Nutzung der reichhaltig vorhandenen Wasserkraft. Und so empfahl Thomas Schulthess vom wissenschaftlichen Superrechner „Alps“ im Rechenzentrum CSCS der ETH Zürich in einem Panel zu HPC in Europa denn auch eine andere Vorgehensweise.
Sinnvoll sei es, in Europa die Rechenlast je nach Energiebedarf unter den diversen AI-Rechenzentren im europäischen Verbund aufzuteilen. Das sehr leistungsbedürftige Training großer Modelle solle am besten im an kohlendioxidfreier Energie reichen Nordeuropa stattfinden, die weniger leistungshungrige Verfeinerung der Modelle gern auch im übrigen Europa.
Eines der Blades (links: rechnende EInheiten, rechts: Wasserkühlung), die in die Chassis des Eviden-Rechners „Jupiter“ im Forschungszenrum Jülich eingebracht werden.
(Bild: Rüdiger)
Gleichzeitig kann man viele andere Wege zu mehr Energie-Effizienz beschreiten. Besonders wirksam: wo möglich, der Abschied von höchstgenauen und entsprechend aufwändigen Rechenverfahren. Oft, so Papermaker, reiche es für sinnvolle Ergebnisse nämlich, mit 8-Bit-Gleitkomma statt mit 16, 32 oder 64 Bit zu arbeiten. Dann ließe sich aber ein Vielfaches an Rechenoperationen für dasselbe Energiebudget abwickeln.
Unterschätzt und vernachlässigt: Analoges Rechnen
Auch das analoge Computing, Thema eines weiteren Panels, hat Sparpotentiale. Drei Beispiele sind photonische Systeme wie das komplett in Deutschland entwickelte und gefertigte von Qant in Stuttgart, neuromorphes Computing wie sie an der Universität in Heidelberg im Computing-Center „Ziti“ seit dreißig Jahren entwickelt werden oder analoges Rechnen, demnächst in Gestalt von CMOS-Chips, wie es etwa „Anabrid“ betreibt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Diese Technologien können komplexe, naturnahe Prozesse meist erheblich schneller, energiesparender und einfacher abbilden als reine Digitaltechnik. Freilich denkt niemand daran, letztere komplett abzulösen. Datenbanken, Office-Programme und vieles andere, so die einhellige Meinung, sind wohl weiter im Digitalrechner am besten aufgehoben. Deshalb bleibt Effizienz beim Digitalen weiterhin ein dringliches Problem.
Spitzenreiter unverändert
Wie üblich auf der ISC, ist die aktuelle Top500 präsentiert worden. Gerade hier zeigt sich, dass Europa erfolgreich dabei ist, aufzuholen - allerdings nicht auf den ersten Blick. Denn bei der klassischen Top500-Liste nach Linpack-Resultaten hat sich die Reihenfolge der ersten Drei gegenüber dem Vorjahr nicht verändert.
Die ersten drei Plätze nehmen nach wie vor „El Capitan“ (1,74 PFlop/s, HPE/Cray, AMD-optimiert), „Frontier“ (Oak Ridge National Lab, 1,353 EFlop/s, HPE/Cray, AMD-optimiert) und „Aurora“ (Argonne National Lab, USA, 1,353 EFlop/s, Intel/HPE/Cray) ein. Daneben kann El Capitan Platz 1 in den Top500 der Gradienten-Algorithmen (HPCG) und den zukünftig wohl sehr wichtigen Multipräzisions-Algorithmen (HPL MxP) erringen. Frontier landet bei HPCG und HPL MxP auf Platz 3. Und Aurora holt zusätzlich einen zweiten Platz bei HPL MxP.
Aufbau des neuen EuHPC-Projekts „Dare“.
(Bild: EuHPC)
Doch immerhin schon auf Platz 4 steht Jupiter, der neue modulare Superrechner des Forschungszentrum Jülich. Er erobert diesen Rang, obwohl das System noch nicht vollständig arbeitet. Die Leistung bleibt deshalb etwas unter der Exaflop-Schwelle.
Das aber soll sich bald ändern, sagt Professor Kristel Michielsen, die beim Forschungszentrum Jülich für Planung und Aufbau des Systems zuständig war. Der physische Aufbau der Rechner, deren Racks fertig vorkonfiguriert und verkabelt in Modulen angeliefert wurden, dauerte nur vier Monate.
Die ersten Fünf der GreenTop500 stammen aus Europa
Überhaupt finden sich unter den Top10 der Green Top500 inzwischen gleich acht europäische Systeme. Spitzenreiter ist das erste fertiggestellte Modul des Jülicher Superrechners Jupiter, „Jedi“, mit 72,533 GFlop/s pro Watt. Insgesamt belegen bei den Green Top500 europäische Superrechner aus mehreren Ländern sechs von zehn Plätzen, weil man wohl lieber intelligent Energie spart als sofort auf den SMR-Zug aufzuspringen.
Hier zeigt sich, dass die Anstrengungen der vergangenen fünf bis sieben Jahre, Europa beim Computing wieder nach vorn zu bringen, allmählich Früchte tragen. Das wurde auf der ISC 25 auch gründlich gefeiert. Hat man doch mit der „EuroHPC Joint Undertaking“ und den damit verbundenen Projekten anscheinend ein Werkzeug gefunden, den Kontinent aus seinem Computing-Tiefschlaf zu befreien und in hektische (und anscheinend erfolgreiche) Aktivität zu versetzen.
Europäische Chips ante portas
Das zeigte sich auch bei zwei Panels, die sich mit den europäischen Hochleistungsprojekten und -rechenzentren befassten. So sieht es so aus, als werde es im Rahmen von EPI (European Processor Initiative) mit „Rhea“ schon 2028 einen europäischen ARM-Chip in 6-nm-Technik mit Netzwerk und 80 „ARM-Neoverse-V1“-Cores geben.
Auf der RISC-V-Seite entstehen ein Vektorbeschleuniger und eine CPU, die zusammenwirken sollen, mit für ARM optimiererte Software dazu. Die Abhängigkeit von „Nvidia CUDA“ bei AI-Aufgaben möchten die EU-Projekte so weit wie möglich verringern. Die Arbeiten befinden sich trotz der komplexen europaweiten Organisation einigermaßen im geplanten Zeitrahmen.
"Großartige Leistung": Anders Jensen, Geschäftsführer des EuroHPC Joint Undertaking, zeigt sich begeistert über den schnellen Aufbau und die Inbetriebnahme von Jupiter.
(Bild: Rüdiger)
Das Projekt „EUPL“ arbeitet derweil an einer europäischen Beschleunigerarchitektur und ist schon recht weit gediehen. Auch hier werden so weit als möglich offene Technologien wie RISC-V verwendet. Der Chip soll acht Cores mit je einem Vektor-Prozessor besitzen und über einen schnellen PCIeCXL Gen5-Controller auf die Daten zugreifen.
Neues EU-Projekt: Dare
Erst seit März des Jahres läuft das EU-Projekt dare. Es ist für sechs Jahre geplant. Entstehen sollen ein AI- und ein General-Purpose-Prozessor fürs Hochleistungsrechnen sowie ein Vektor-Beschleuniger für hochpräzise HPC-Aufgaben. Dazu kommt ein entsprechender Softwarestack. Hardware und Software werden gemeinsam entwickelt.
Das Ganze ist für die erste Phase mit 240 Millionen Euro finanziert. Alle Produkte fließen später in europäische Supercomputer ein, um die hiesige Abhängigkeit von Halbleitern aus Übersee zu verringern. Denn bisher produziert Europa zehn Prozent der weltweiten Halbleiter, verbraucht aber das Doppelte.
Wie weit man damit ist, eine europäische Infrastruktur für Hochleistungsrechnen und AI aufzubauen, stellte der ob der Jülicher Erfolge freudestrahlende Geschäftsführer des EuroHPC Joint Undertaking, Anders Jensen, dar.
In Europa entstehen im Rahmen von EuHPC zehn Quanten-Rechenzentren. Für sechs wurden bereits Verträge geschlossen.
(Bild: EuHPC)
Europa sei zusätzlich zur HPC-Infrastruktur gerade dabei, ein Netz von 13 kooperierenden AI-Factories zu implementieren, auf das Anwender aus Wissenschaft und Industrie kostenfrei zugreifen können - für kleinere Tests mit wenig GPU-Bedarf schon innerhalb von zwei Tagen. Einige davon arbeiten schon.
Zehn Quantenrechenzentren für Europa
Zusätzlich entsteht ein weiteres Netz von zehn Quantencomputer-Ressourcen in ganz Europa. Bei der Arbeit mit AI- und Quantenressourcen lasse man die Anwender nicht allein, sondern stelle eine ganze Reihe von Beratungsservices zur Verfügung, die die Arbeit erleichtern sollen.
Mit einem europäischen Master-Studiengang für Hochleistungsrechnen gebe es, so Jensen, endlich auch eine fachbezogene Weiterbildungsmöglichkeit. Das zweijährige Angebot soll die dringend benötigten Supercomputing-Nachwuchskräfte hervorbringen.
Es verlangt die Arbeit beziehungsweise das Studium an mindestens zwei, gegebenenfalls auch drei Hochleistungs-Datacenter in Europa. Der erste Jahrgang läuft bereits.
Ideen für Next-Generation-AI-RZ
Und schließlich beginnt gerade das Nachdenken über AI-Giga-Factories. Jensen: „Dafür muss das Regelwerk des EuroHPC Joint Undertaking angepasst werden.“ Das wolle man im Dialog mit den Stakeholdern tun. Jensen: „Wir sind offen für alle Bedürfnisse und Ideen!“
Sie werden im Rahmen einer öffentlichen Konsultation des EuroHPC Joint Undertaking eingesammelt und in den Veränderungsprozess der eigenen Regeln eingebracht. Erst danach soll das neue Regelwerk festgeschrieben werden, auf das die Umsetzung aufbaut. Alle Ideen zu Konzepten, Umsetzung oder sonstigen Aspekten dieser europäischen Next-Generation-AI-Zentren aus sachverständigen Kreisen sind willkommen.