Das US-Energieministerium erhält ein neues Computer-Superhirn

HPE baut weltgrößten ARM-Supercomuter

| Redakteur: Ulrike Ostler

Ein CAD-Modell des „Astra“-Supercomputers der Sandia National Laboratories, in dem der Doppelboden sowie die Rechner-, Kühl-, Netzwerk- und Storage-Racks erkennbar sind.
Ein CAD-Modell des „Astra“-Supercomputers der Sandia National Laboratories, in dem der Doppelboden sowie die Rechner-, Kühl-, Netzwerk- und Storage-Racks erkennbar sind. (Bild: HPE)

Die National Nuclear Security Administration des Department of Energy (DOE) der USA soll mithilfe des Supercomputers, beziehungsweise theoretischer 2,3 Petaflops im Peak, in die Lage versetzt werden, komplexe Analysen sowie wissenschaftliche Simulationen noch besser auszuführen. Das System liefert eine 33 Prozent höhere Speicherleistung als „herkömmliche Marktangebote“, Energie-Effizienz und basiert auf ARM-Prozessoren.

Hewlett Packard Enterprise (HPE) wird in Zusammenarbeit mit den Sandia National Laboratories und dem U.S. Department of Energy (DOE) den weltweit größten ARM-Supercomputer erstellen. Als Teil des „Vanguard“-Programms wird „Astra“, das System von der National Nuclear Security Administration (NNSA) verwenden, um Modellierungs- und Simulationsaufgaben für Bereiche wie nationale Sicherheit, Energie und Wissenschaft auszuführen.

Vanguard 1 Satellit (NASA). Zusammengesetzte Darstellung aus statischer Darstellung des Satelliten, der Erde aus der Umlaufbahn und einer Teleskopaufnahme der Sterne.
Vanguard 1 Satellit (NASA). Zusammengesetzte Darstellung aus statischer Darstellung des Satelliten, der Erde aus der Umlaufbahn und einer Teleskopaufnahme der Sterne. (Bild: Hydrargyrum - National Space Science Data Center / CC BY 2.0)

Forschungsintensive Aufgaben, die die Verarbeitung und Analyse großer Datenmengen erfordern, um die Herausforderungen in den Bereichen Medizin, Klimawandel, Raumfahrt und Öl- und Gasexploration zu bewältigen haben einen schier unersättlichen Bedarf an höherer Rechenleistung. Das mündet für die IT-Lieferanten und Forschungsorganisationen in einem globalen Wettlauf um den nächsten Sprung im Supercomputing: ein System der Exascale-Klasse, das zehnmal größer wäre als die heutigen Systeme.

Exascale im Visier

Auf der Website des „Exascale-Projekts“ steht etwa, dass die schnellsten Supercomputer heute bereits Probleme im Petascale-Bereich lösen – das sind eine Billiarde (1015) Berechnungen pro Sekunde. Das ist zwar schon beachtlich, doch im Exasclae-Bereich stehen noch ganz andere Erkenntnisse an.

Unter anderem werden bei einer Quintillion-Berechnung pro Sekunde ((1018) wird es möglich werden, Prozesse der Präzisionsmedizin, des regionalen Klimas, der additiven Herstellung, der Umwandlung von Pflanzen in Biokraftstoffe, der Beziehung zwischen Energie und Wasserverbrauch, der unsichtbaren Physik in der Materialforschung und -entwicklung, der fundamentalen Kräfte des Universums und vielem mehr realistischer zu simulieren.

Das US-Energieministerium gilt als starker Kandidat in diesem Rennen. Dennoch hat es seinen Zeitplan für die Intsallation des ersten Exascale-Systems bis 2021 nach hinten verschoben, auch um verschiedenen IT-Optionen zu testen.

HPE stellt eine neue Architektur mit einem speicherzentrierten Design für Supercomputing vor

Durch die Einführung neuer Prozessoren wie Arm in das HPC-Ökosystem, das in der jüngeren Vergangenheit von x86-basierten Technologien dominiert wurde, baut HPE ein Netzwerk auf, das wettbewerbsfähigere Optionen für die Stromversorgung von Supercomputern der nächsten Generation bietet und gleichzeitig den Weg zur Exascale beschleunigt. HPE liefert etwa ein speicherzentriertes Designs, um schnell wachsende datenintensive HPC-Workloads zu unterstützen und gleichzeitig eine höhere Dichte mit leistungsfähigeren Servern zu ermöglichen, indem es robuste, Arm-basierte HPC-Technologien für den Astra-Supercomputer und zukünftige Systeme bereitstellt.

„Durch die Einführung von Arm-Prozessoren mit der HPC-Architektur von `HPE Apollo 70´, bringen wir leistungsstarke Elemente wie optimale Speicherleistung und höhere Dichte in Supercomputer, die mit den auf dem Markt vorhandenen Technologien nicht mithalten können", sagte Mike Vildibill, Vice President, Advanced Technologies Group, HPE. Die HPC-Plattform basiert auf dem Arm-Prozessor „Cavium Thunder X2“. „Dies ist ein historischer Moment für die Industrie, da wir auf dem Weg zu einem Exascale Computing sind.“

Mit Astra liefert HPE nun über 2,3 theoretische Peak-Petaflops an Leistung und eine höhere Systemdichte. Der Cluster besteht aus über 145.000 Kernen in 2.592 Dual-Prozessor-Servern mit je vier Rechenknoten in einem 2U-Formfaktor. Die NNSA, eine Agentur innerhalb des DOE, die für das Management und die Sicherheit der Kernwaffen, der Nichtverbreitung von Kernwaffen und der Marinereaktoren zuständig ist, wird Astra nutzen, um Modellierungs- und Simulationswerkzeuge zur Verbesserung der Analyse datenintensiver wissenschaftlicher Experimente zu entwickeln.

  • Zu den weiteren HPE-Features gehören
  • das „Message Passing Interface“ (MPI): Eine leistungsstarke MPI-Bibliothek, ergänzt durch Werkzeuge zur Profilerstellung und Laufzeitoptimierung, die die Leistung bestehender MPI-Anwendungen steigern, ohne dass eine Neukompilierung erforderlich ist.
  • das Kühlgerät „HPE MCS-300“: Ein Flüssigkeitskühlsystem, das Systeme mit hoher Dichte unterstützt, ohne Kompromisse beim Energieverbrauch einzugehen. Die Verwendung einer flüssigkeitsgekühlten Infrastruktur ermöglicht eine höhere Dichte, verbessert die Betriebsumgebung für HPC-Systeme und spart Kosten im Vergleich zu herkömmlichen luftgekühlten Lösungen.
  • die Software „HPE Performance Cluster Manager“: eine integrierte Systemverwaltungssoftware für HPC-Cluster, die eine schnelle Systemeinrichtung ermöglicht und die Gesamtbetriebskosten senkt, die Produktivität erhöht und einen besseren Return on Hardware-Investitionen ermöglicht.
  • das Storage-System „HPE Apollo 4520“: Ein Speicher, der ein blitzschnelles „Lustre“-Dateisystem für extreme Bandbreite und reduzierte Latenzzeiten beim Datenzugriff bietet. Die Software erhöht die Anwendungsleistung und ermöglicht mehr Berechnungen auf dem System.

Veranstaltungshinweis: HPE wird mit der Plattform HPE Apollo 70 auf der Internatinal Supercomputing Conference, die vom 24. bis 28. Juni in Frankfurt am Main stattfindet, am Stand E1030 präsent sein.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45358917 / Server)