:quality(80)/images.vogel.de/vogelonline/bdb/1785100/1785152/original.jpg)
Das Biest für kommende Supercomputer Das Leibniz-Rechenzentrum erforscht die kommende IT-Grundlage für die Wissenschaft
Was morgen die Grundlage der Wissenschaft sein kann, spielt sich n Hochleistungsrechenzentren ab. Am LRZ machen sich Experten daher bereits heute Gedanken über die kommende Generation von Supercomputern, um auch auf künftige Anforderungen und Bedürfnisse vorbereitet zu sein. Dazu wurde das Programm „Beast“ (zu Deutsch: Biest) - Bavarian Energy-, Architecture- and Software-Testbed - initiiert.
Firmen zum Thema

An Rechenleistung herrscht am Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften (LRZ) kein Mangel. Alleine „SuperMUC-NG“, aktuell unter den 15 schnellsten Supercomputern der Welt, bringt es mit über 300.000 Rechenkernen auf mehr als 26 PetaFlops Peak Performance.
:quality(80)/images.vogel.de/vogelonline/bdb/1770500/1770584/original.jpg)
Die Top500 2020, die Zweite
Auf dem Gipfel: Fugaku überragt andere Supercomputer gleich mehrfach
Doch die Anforderungen von Forschern ändern sich, ihre Fragestellungen werden komplexer, die Datenmengen werden größer. Immer mehr Forschungsbereiche nutzen Supercomputing-Ressourcen. Die IT als Hilfsmittel muss dies widerspiegeln.
Die Bandbreite an Technologien im HPC-Umfeld ist so groß wie nie. CPUs, GPUs, und FPGAs – alle haben ihre Vor- und Nachteile. Auch ARM-Prozessoren, den meisten Anwendern vor allem aus Smartphones und Automotive-Systemen bekannt, haben im HPC Fuß gefasst. Immerhin ist der derzeit schnellste Supercomputer der Welt, Fugaku in Japan, mit ARM-Technologie ausgestattet. Aber welche Technologie mit welchem Ansatz den Ansprüchen der Forschung am besten gerecht wird, ist nicht immer eindeutig zu sagen.
:quality(80)/images.vogel.de/vogelonline/bdb/1734000/1734065/original.jpg)
Die Nr. 1 der Supercomputer
Mit Beast baut das LRZ eine Testumgebung auf, die die Antworten darauf liefern soll. Laut LRZ immer dabei im Blick: Die Energie-Effizienz.
Die verschiedenen Technologien werden nicht als ein heterogenes System betrieben, sondern sollen vielmehr nebeneinander den Vergleich der Ansätze in derselben Umgebung und mit den gleichen Benchmarks ermöglichen. Diese Benchmarks hat das LRZ aus den Anwendungen entwickelt, die aktuell auf SuperMUC-NG laufen. Dazu wurden aus den über 100 Projekten, die derzeit Rechenzeit verwenden, typische Beispiele ausgewählt und zusammengestellt.
Bereits installiert sind drei unterschiedliche Teilsysteme: Zum einen wurden Knoten auf Basis aktueller „AMD-Rome“-Prozessoren mit „MI50“-GPUs des gleichen Herstellers installiert. Zudem sind Knoten mit den auf ARM basierenden Prozessoren „Marvell ThunderX2“ implementiert, die durch Nvidia-GPUs vom Typ „Tesla V-100“ unterstützt werden. Der jüngste Zugang: Der ebenfalls auf ARM-basierende Fujitsu-Prozessor „A64FX“. Diese CPU kommt auch bei Fugaku zum Einsatz.
:quality(80)/images.vogel.de/vogelonline/bdb/1717500/1717598/original.jpg)
Ein HPE-Supercomputer mit Fujitsu A64FX-Prozessoren
Das Leibniz-Rechenzentrum probiert das Cray-System CS500 von HPE aus
:quality(80)/images.vogel.de/vogelonline/bdb/1769000/1769045/original.jpg)
Die GPU für das KI-Supercomputing
:quality(80)/images.vogel.de/vogelonline/bdb/1769200/1769282/original.jpg)
HPC-Beschleuniger für wissenschaftliche Forschung
AMD stellt einen dedizierten Grafikprozessor für High-Performance- und KI-Lasten vor
:quality(80)/images.vogel.de/vogelonline/bdb/1688800/1688831/original.jpg)
Es donnert schon: ThunderX3 kündigt sich an
Der weitere Ausbau von Beast ist aber schon geplant. So sollen kurzfristig Intel-CPUs der aktuellen „Xeon“-Reihen „Cooper Lake“ und „Ice Lake“ in Dienst gestellt werden. Hier sind laut Josef Weidendorfer, der am LRZ das Thema Future Computing leitet, einige neue Merkmale wie 16-Bit-Float (Bfloat16) für Gleitkommaoperationen implementiert, mit dem KI-Anwendungen signifikant beschleunigt werden können.
:quality(80)/images.vogel.de/vogelonline/bdb/1771500/1771537/original.jpg)
Vom Quanten-Chip bis zu One API
Mittelfristig ist auch die Evaluierung von exotischeren Architekturen, wie FPGAs oder neuromorphen Ansätzen, geplant.
:quality(80)/images.vogel.de/vogelonline/bdb/1689100/1689174/original.jpg)
Rechner mit Intel Loihi
„Das ist aber sehr komplex. FPGAs beispielsweise werden auf den jeweiligen Einsatzzweck und Workload konfiguriert, womit es sich sehr von der klassischen Software-Entwicklung unterscheidet. Hier ist eine besondere Expertise gefragt“, so Weidendorfer. Welches Potenzial FPGAs im HPC-Umfeld haben, wird derzeit in einigen Forschungsprojekten und auch am LRZ untersucht.
Darüber hinaus wird der Zugang zum Beast-Programm auch ausgewählten LRZ-Partnern aus der Wissenschaft gewährt. „Gemeinsam mit unseren Partnern sind wir in der Lage, moderne Hardware und Software für Anwendungen und Workloads zu erforschen und zu evaluieren“, so Weidendorfer. „Dies gibt uns wertvolles Feedback und Verständnis dafür, was unsere Nutzer:innen von zukünftigen Systemen erwarten, während unsere Partner gleichzeitig einen besseren Einblick in zukünftige Technologien erhalten.“
Das Beast-Programm soll auch bei der Ausbildung und Schulung der heutigen Studierenden und zu-künftigen Experten helfen. Mit Praktika an den Münchner Universitäten können sich angehende Informatiker in diese Technologien einarbeiten und Kontakte zu Forschung und Industrie knüpfen.
(ID:47006581)