Suchen

Unter den Leistungsfähigsten der Top 500 Deutschlands schnellster Supercomputer werkelt nun in Stuttgart

| Autor / Redakteur: Michael Matzer / Ulrike Ostler

Kürzlich ist Deutschlands schnellster Supercomputer am Höchstleistungsrechenzentrum Stuttgart in Betrieb genommen worden: Nicht mehr die Rechner von Jülich und Garching haben die Nase vorn, sondern „Hawk“, eine „Apollo 9000“-Installationvon HPE. Sie leistet mit 11.264 „AMD-Epyc“-Prozessoren bis zu 26 PetaFLOPS und landet damit auf Platz 10 der Top-500-Rechner.

Firmen zum Thema

„Hawk“ ist eine „Apollo 9000“-Maschine von HPE, leistet mit 11.264 „AMD-Epyc“-Prozessoren bis zu 26 PetaFLOPS und ist damit die Nummer 10 unter den Top-500-Rechnern.
„Hawk“ ist eine „Apollo 9000“-Maschine von HPE, leistet mit 11.264 „AMD-Epyc“-Prozessoren bis zu 26 PetaFLOPS und ist damit die Nummer 10 unter den Top-500-Rechnern.
(Bild: HLRS)

HAWK ist damit rund vier Mal so schnell wie der bisher schnellste HLRS-Rechner „Hazel Hen“ von Cray. Mit dem verbreiteten, aber für moderne Zwecke ungeeigneten „LINPACK“-Benchmark erzielt Hawk im „RPeak“ 26 PetaFLOPS, wobei die „Rmax“ auf 18-19 PetaFLOPS geschätzt wird. Obwohl schneller als „Juwels Module1“ in Jülich und „SuperMUC-NG“ in Garching, ergänzt er diese beiden Rechner durch seine spezielle Architektur.

Professor Michael Resch, der Leiter des Höchstleistungsrechenzentrums Stuttgart (HLRS), weiß seine Zuhörer stets zu begeistern.
Professor Michael Resch, der Leiter des Höchstleistungsrechenzentrums Stuttgart (HLRS), weiß seine Zuhörer stets zu begeistern.
(Bild: HLRS)

11.264 AMD-Epyc-Prozessoren der neuen „Rome-7742“-Serie werkeln in den 44 Kabinen mit 5.632 Rechenknoten. „Diese Prozessoren sind nicht nur sehr Energie-effizient“, erläutert Michael Resch, der Leiter des HLRS, „sondern verfügen auch über einen großen Arbeitsspeicher." Mario Silveira von AMD bestätigte, dass die CPUs eine um 10 bis 15 Prozent höhere Energie-Effizienz als vergleichbare Prozessoren böten.

Die 11.264 CPUs mit ihren 720.896 Kernen und 1.441.792 Threads werden von 1,44 Petabyte RAM unterstützt. Hinzu kommen 2.400 HPC-Speicherlösungen vom Typ „DDN EXAScaler“ mit „DDN Infinite Memory Engine“ (IME) und je 14 Terabyte (TB) RAM, was in der Summe rund 25 PB Speicherplatz ergibt. Als Interconnect der Nodes dient Infiniband HDR 200 mit 200 Gigabit pro Sekunde (Gbps) Bandbreite, als BetriebssystemRed Hat Enterprise Linux“ in der Version 8.

Was die von Resch angesprochene Energie-Effizienz anbelangt, so verbraucht Hawk im Normalbetrieb bis zu 3,1 Megawatt (MW), unter Maximalbelastung 4,1 MW. Die Kühlflüssigkeit ist in die Gebäudeheizung des Instituts integriert. Kostenpunkt insgesamt: 44 Millionen Euro, an denen sich der Bund (BMBF) und das Land Baden-Württemberg beteiligt haben.

Die Anwendungsfälle

Die angeführte große Memory-Kapazität, die HAWK von den anderen Superrechnern im GCS-Verbund (GCS: Gauss Centre for Supercomputing unterscheidet, dient in erster Linie Simulationen, Visualisierungen, Datenanalysen und der Anwendung von Deep und Machine Learning auf komplexe Probleme.

Diese recht aufwendigen Verfahren sollen nach den Worten Reschs zunächst vor allem den „Berechnungsingenieuren“ zugutekommen. Diese arbeiten nicht nur in der Fahrzeugindustrie, für die die Region Stuttgart bekannt ist, sondern in der Materialwissenschaft an der Uni Stuttgart, beispielsweise in der Strömungsdynamik. Wirtschaftspartner nutzen etwa zehn Prozent der Kapazität.

Die Simulationen dienen aber auch dazu, „die mittelfristigen Effekte des Klimawandels (in der Forschung) zu berechnen und Wettervorhersagen zu verbessern“, so Resch. „Das Deutsche Klima-Rechenzentrum in Hamburg, das unter anderem den Feinstaub in der Region Stuttgart misst, führt Simulationen am HLRS durch.“

Alle Sprecher bei der Einweihung des Hawk-Rechners unterstrichen, dass sich mit dem System die großen globalen Herausforderungen anpacken lassen: Energie-Effizienz, personalisierte Medizin und E-Mobilität, Molekularbiologie, Green Tech. Ziel ist es nicht nur, an dieser Forschung zu partizipieren, sondern sie mitzuprägen, wie Winfried Kretschmann, der Ministerpräsident von Baden-Württemberg betonte.

11.264 „AMD-Epyc“-Prozessoren der neuen „Rome-7742“-Serie werkeln in den 44 Kabinen mit 5632 Rechenknoten.
11.264 „AMD-Epyc“-Prozessoren der neuen „Rome-7742“-Serie werkeln in den 44 Kabinen mit 5632 Rechenknoten.
(Bild: HLRS)

Um diese Anforderungen zu erfüllen, ist der Hawk-Rechner vielseitig verwendbar. „Seit drei Jahren befasst sich das HLRS mit Global Challenges“, sagte Resch. Dazu gehören nicht nur Pandemien, die Klimaforschung und mittelfristige Wettervorhersagen, sondern auch die Analyse von Fake News und die Auswertung von Medienarchiven.

Techniklieferant HPE

Der Hersteller des Superrechners geht in Sachen Forschung auch nicht leer aus. HPE hat ja bereits Cray und SGI gekauft und verfügt über Expertenwissen im Supercomputing. „Wir haben eine enge Kooperation mit HPE“, berichtet Resch: „Zwölf HPE-Mitarbeiter sowie Mitarbeiter vom HLRS forschen hinsichtlich Energie-Effizienz, Machine Learning & KI sowie Simulationen.“

Das sei auch für HPE interessant, so etwa um neue Anwendungen zu entwickeln. „Hier findet Ko-Entwicklung statt“, so Heiko Meyer, der Chief Sales Officer von HPE, der CEO Antonio Neri vertrat. „Bis 2021 werden vier Exascale-Rechner von HPE in Betrieb gehen“, stellt er in Aussicht. Entsprechendes Know-how sucht man offenbar überall in der Welt. „Hawk ist für uns ein Leuchtturmprojekt", sagt Meyer.

Neuen Code braucht das Land

Sie alle müssen mit neuem Programmcode versorgt werden, um sowohl ihre Leistung, als auch ihre Energie-Effizienz zu optimieren. Darauf weist Mike Parsons hin. Der Leiter des Edinburgh Parallel Computing Centres EPCC zeigt auf, dass auf vielen Rechnern und selbst in größten Transportmitteln Quellcode laufe, der 30 bis 40 Jahre alt sei, meist in der Programmiersprache Fortrun. „Dieser Code muss für moderne Rechnerarchitekturen umgeschrieben werden“, forderte er. Ein Beispiel: Der durchschnittliche Rechen-Job verwende um die 8.000 Rechenkerne, doch das Ziel müssten 50.000 Rechenkerne sein.

In der Tat benötigt man für die Entwicklung und Implementierung effektiver und effizienter Codes für HPC-Systeme ein Spezialwissen, doch das muss entwickelt, gefördert und verbreitet werden. An der Supercomputing-Akademie, die von zwei Baden-Württembergischen Ministerien gefördert wird, können nicht nur Experten lernen und Entwickeln, sondern auch `ganz normale` Bürger.

Die 11.264 CPUs mit ihren 720.896 Kernen und 1.441.792 Threads werden von 1,44 Petabyte RAM unterstützt. Hinzu kommen 2400 HPC-Speicherlösungen vom Typ DDN EXAScaler mit DDN Infinite Memory Engine (IME) und je 14 TB RAM, was in der Summe rund 25 PB Speicherplatz ergibt.
Die 11.264 CPUs mit ihren 720.896 Kernen und 1.441.792 Threads werden von 1,44 Petabyte RAM unterstützt. Hinzu kommen 2400 HPC-Speicherlösungen vom Typ DDN EXAScaler mit DDN Infinite Memory Engine (IME) und je 14 TB RAM, was in der Summe rund 25 PB Speicherplatz ergibt.
(Bild: HLRS)

Das Excellerat ist als European Center of Excellence for Engineering Applications eine Schnittstelle zwischen HPC und Ingenieurs-Community. Hier soll Technologietransfer stattfinden. Neben diesem Forschungsprogramm gibt es in Baden-Württemberg das Automotive Solution Center und das Media Solution Center. Sie verknüpfen die Hochschulen, Forschungsinstitute und die Wirtschaft miteinander.

Hawk ist nur eine Zwischenstation. Eine weitere Konsequenz aus dem immensen Bedarf an vielseitig nutzbarer Rechenleistung lautet: „Um das Jahr 2024 wird am HLRS die nächste Maschine gekauft, diesmal aber mit in die Hardware eingebauter KI!“, kündigt Resch an.

* Michael Matzer ist freier Autor und wohnt in Stuttgart.

Artikelfiles und Artikellinks

(ID:46379200)

Über den Autor