Die Hardwarekomponenten für das High Performance Computing Die HPC-Zukunft gehört der Architekturvielfalt

Von lic.rer.publ. Ariane Rüdiger 5 min Lesedauer

Anbieter zum Thema

Auf der „ISC 2023“ in Hamburg wurde viel darüber gesprochen, wie die Architektur zukünftiger Superrechner aussehen mag. Eines scheint klar: Die Zeiten des Prozessor-Einheitsbreis sind bis auf Weiteres vorüber. An ihre Stelle tritt zunehmend architektonische Vielfalt.

WIe am Fließband sollen sich im Supercomputer der Zukunft verschiedene Prozessortypen bei der Bearbeitung von Aufgaben und Algorithmen abwechseln.(Bild:  frei lizenziert/Jeff Tan /  Pixabay)
WIe am Fließband sollen sich im Supercomputer der Zukunft verschiedene Prozessortypen bei der Bearbeitung von Aufgaben und Algorithmen abwechseln.
(Bild: frei lizenziert/Jeff Tan / Pixabay)

Verschiedene Trends weisen darauf hin, dass die herkömmlichen Methoden des Prozessor- und Architekturdesigns an Grenzen stoßen. So im Einleitungsvortrag zur ISC (International Supercomputer Conference) Daniel Reed, Professor für Computerwissenschaften an der Universität Utah.

Mathematische und physische Gesetzmäßigkeiten, technische Grenzen und ökonomische Zusammenhänge erzwängen einen Abschied von Moores Law. Das zeigte sich schon vor einigen Jahren, als die Steigerung von Taktzahlen wegen des zu hohen Energieverbrauchs aufhörte.

Multicore statt höherer Takt

Ihr folgte das Multicore-Design: mehrere Kerne mit niedrigerer Frequenz auf einem Prozessor. Aber auch hier, so Reed, wüchsen die Bäume nicht in den Himmel.

  • Erstens steigt mit den vielen Kernen ebenfalls der Energieverbrauch.
  • Zweitens setzt die Physik der Verkleinerung der Strukturbreiten Limits, die inzwischen schon sehr nah sind.
  • Drittens steigert die Zahl der Cores die Leistung von Computern um so weniger, je mehr Cores bereits vorhanden sind („Amdahls Law“).

Alte Regeln gelten nicht mehr

Ökonomisch steigen mit sinkender Strukturbreite die Kosten. Die Entwicklung und Produktion neuer, noch leistungsfähiger Chipgenerationen wird mittlerweile beliebig teuer, was für die betroffenen Firmen irgendwann zu riskant sein könnte. Die Preise pro Transistor steigen deshalb wieder.

Das wiederum verdrießt die Anwender, die sich an uferlos sinkende Hardwarepreise gewöhnt haben. Sie können oder wollen wegen ihrer Budgets nur begrenzt in Technologie investieren, und sei der Ruf nach Digitalisierung noch so laut.

ExaFlop-Rechner – ineffizient?

Zudem sind, wie Eric Eppe, Group Vice President HPC/AI/Quantencomputing bei Atos/ Eviden unwidersprochen berichtete, ExaFlop-Rechner, wie sie heute arbeiten, ineffizient. Beim Rechnen von Algorithmen würden oft nur 20 Prozent der vorhandenen Flop-Ressourcen genutzt – unter anderem wegen Speicherengpässen. Da fragt man sich, ob die Jagd nach immer neuen Flop-Rekorden überhaupt sein muss.

Schließlich haben die ausufernden Anforderungen an die Rechenleistung des AI-Algorithmen-Trainings, aber auch die hohen Lizenzgebühren etabliert Prozessorbauer die Entstehung ganz neuer Prozessorvarianten inspiriert und tun es noch. Inzwischen gibt es mit GPUs, hochleistungsfähigen General-Purpose-Prozessoren wie Tachyum, FPGAs, speziellen AI-Prozessoren und -Beschleunigern, Quantenmodulen und auf RISC-V basierenden Architekturen vielfältige Alternativen.

Die frühere Vielfalt der HPC-Architekturen (links) ist zugunsten Intel-Dominanz (blau) verschwunden, aber das soll sich wieder ändern.(Bild:  Rüdiger)
Die frühere Vielfalt der HPC-Architekturen (links) ist zugunsten Intel-Dominanz (blau) verschwunden, aber das soll sich wieder ändern.
(Bild: Rüdiger)

Das alles bedeute für die gesamte HPC-Branche einschließlich der Unternehmen, die die grundlegende Hardware dafür bereitstellen, viel Unsicherheit, aber auch neue Chancen, war oft zu hören. Zumal einige der Technologien die Einsatzreife noch nicht wirklich erreicht haben.

RISC-V: Ökosystem fehlt noch

Beispielsweise RISC-V-Hardware. Für die Open-Source-Technologie gibt der Standard einen rudimentären Befehlssatz vor. Der Rest ist Sache der Implementierung oder Spezialisierung. Neue Befehle dürfen entwickelt und in die RISC-V-Standardisierung eingebracht werden, die einen modulares Konzept verfolgt.

Das bedeutet: Einerseits erlaubt RISC-V sehr viel Varianz und Optimierung für Spezialzwecke. Andererseits weiß niemand, ob und welche Designs eine für ökonomischen Erfolg ausreichende kritische Masse erreichen werden.

Das lockt am ehesten risikofreudige Naturen an oder Akteure, die keine Marktmacht zu verlieren haben. Sprich: Newcomer oder staatliche Akteure. Besonders letztere erhoffen sich von lizenzfreien Designs ein Abschied von der aktuellen Lizenz-Fron durch Intel, AMD und Nvidia.

Zwei Designs, an denen die Europäische Prozessor-Initiative (EPI) im Rahmen von EuroHPC arbeitet: Links ein General-Purpose-Prozessor, voraussichtlich 2025 verfügbar, rechts ein RISC-V-AI-Beschleuniger.(Bild:  Rüdiger)
Zwei Designs, an denen die Europäische Prozessor-Initiative (EPI) im Rahmen von EuroHPC arbeitet: Links ein General-Purpose-Prozessor, voraussichtlich 2025 verfügbar, rechts ein RISC-V-AI-Beschleuniger.
(Bild: Rüdiger)

So soll auch im Rahmen der Europäischen Prozessorinitiative (EPI) ein maßgeblich auf RISC-V basierender Beschleuniger gebaut werden. Doch der Zeitplan für diesen Chip reicht weit in die Zukunft. Von Hardware noch keine Spur.

111 RISC-V-Chipdesigns

Trotzdem: Die RISC-V-Organisation berichtete auf einer einschlägigen Diskussionsveranstaltung auf der ISC von schon 111 unterschiedlichen RISC-V-Chipdesigns. Für HPC gibt es die besondere Interessengruppe (SIG) HPC RISC-V. Insgesamt sollen mittlerweile rund 4.000 Personen für RISC-V entwickeln.

An der Universität Edinburgh gibt es ein RISC-V-Testbed, wie Nick Brown, dort Research Fellow, bei der Veranstaltung berichtete. Man halte 23 RISC-V-Compute-Nodes bereit, um Software darauf laufen zu lassen.

Erster RISC-V-Cluster

Danielle Grigori vom italienischen Integrator E4, der sich auf neue Hardwaredesigns spezialisiert hat, verwies stolz auf einen ersten RISC-V-HPC-Cluster aus vier Knoten mit je zwei RISC-V-bestückten Blades. Zudem entwickelt das Unternehmen Integrationen für den RISC-V-Beschleuniger des US-Startup Esperanto.ai.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Auch Wie-Han Lien, Chief CPU Architect von Tenstorrent berichtete von zwei ML-Chips, dem HPC-RISC-Prozessor und einem Chipsatz, die bereits fertig oder weit in der Entwicklung fortgeschritten seien.

Gehört modularen HPC-Designs die Zukunft?

Doch bei den Integratoren und Herstellern, die heute für den Markt produzieren, herrscht Skepsis. Viele gehen von minimal fünf bis zehn Jahren aus, bis die Technologie ihre Marktreife erreicht. Dann aber, so hört man immer wieder, habe sie viel Potential.

Wie soll nun aber – RISC-V hin oder her – die Lösung der oben beschriebenen Probleme aussehen? Ein Weg könnte, so Epp, darin bestehen, dass Supercomputer mehrere Prozessortechnologien neben- oder hintereinander nutzen, um Aufgaben zu lösen.

Zehn unterschiedliche Blades für Bull Sequana XH3000

Dieses hybride Konzept verfolgt unter anderem Atos, das jetzt als Eviden firmiert. Umgesetzt ist es in dem 2022 angekündigten und auf der ISC ausgestellten Exascale-Superrechner „Bull Sequana XH3000“, für den es zehn unterschiedliche Blade-Designs gibt.

Der Exascale-Supercomputer „Bull Sequana XH3000“ von Atos/Eviden kommt mit hybridem Design und einer Direktwasserkühlung.(Bild:  Rüdiger)
Der Exascale-Supercomputer „Bull Sequana XH3000“ von Atos/Eviden kommt mit hybridem Design und einer Direktwasserkühlung.
(Bild: Rüdiger)

In solchen Systemen werden Algorithmen von Verarbeitungsschritt zu Verarbeitungsschritt durch eine Prozessorpipeline innerhalb des Systems geschleust, die an die heutigen AI-Pipelines erinnert. Jeder Schritt zur Bewältigung einer Aufgabe liefe auf der dafür optimal geeigneten Hardware. Dafür können die einzelnen Knoten weniger performant sein und somit beispielsweise Energie sparen, ohne dass die Leistung insgesamt litte.

Wirtschaftliche Spezialsysteme statt teure HPC-Allroundmaschinen

Reed setzt vor allem auf mehr Spezialsysteme unterschiedlichen Designs. Man müsse sich Sinn, Zweck und Budget des geplanten Rechners vorher genau überlegen und dann die jeweils passende Hardware und Prozessorarchitektur wählen. Das Ganze müsse sich auch noch rechnen. Am Ende komme zwangsläufig mehr Vielfalt heraus.

Beim Abschied von der Intel/AMD-Dominanz ist man im HPC-Softwarebereich schon weit gediehen. Mehr als 100.000 Downloads monatlich verzeichnet OpenHPC. Beispielsweise arbeitet das Leibniz-Rechenzentrum in München mit dem Stack. Universitäten können ihn kostenlos nutzen. Viele große Hersteller verwenden ihn bei der Entwicklung ihrer kommerziellen Designs.

Basis von OpenHPC ist Linux. So besteht eine der wichtigsten Aufgaben bei der Weiterentwicklung darin, mit den jeweiligen neuen Releases der führenden Linux-Distributionen mitzuhalten. Inzwischen treten mehr und mehr große Hersteller der Organisation bei, beispielsweise gehören Samsung und Fujitsu dazu.

Jülichs ExaFlop-Rechner im Zeitplan

„Jupiter“, der geplante ExaFlop-Rechner des Forschungszentrum Jülich, wird modular designt. Er soll bereits im Juli 2024 fertiggestellt werden. Das System wird unter anderem GPUs, CPUs, neuromorphes Computing und irgendwann Quantencomputing integrieren.

RISC-V ist – kaum anders zu erwarten – nicht dabei. Immerhin ist für die Zukunft auch ein Modul vorgesehen, das auf den im Europaverbund entwickelten Prozessortechnologien basieren soll.

Das Jupiter-Projekt befindet sich im Zeitplan. Derzeit werden die Testalgorithmen an die Hersteller verschickt, die sich an dem Projekt beteiligen möchten. Dabei, so ein Vertreter des Forschungszentrums am Messestand, handele es sich keinesfalls nur um Intel.

(ID:49502943)