IT-Awards 2020 Die beliebtesten Anbieter vonTechnik für das High-Performance Computing

Autor / Redakteur: Martin Hensel / Ulrike Ostler

Wenn es um besonders komplexe Anwendungen oder Analysen geht, stoßen herkömmliche Systeme an ihre Grenzen. In Forschung und Entwicklung wird in solchen Fällen auf High-Performance Computing (HPC) zurückgegriffen.

Firma zum Thema

Im Frühjahr 2020 haben Fujitsu und Kunde Riken Center for Computational Science, die Welt mit dem leistungsfähigsten Supercomputer überrascht: „Fugaku“. Er basiert auf dem „A64FX“ SoC, ein von Fujitsu speziell optimierter ARM v8-A-Chip, die bisher einzige Implementierung der ISA v8.2-A SVE von ARM mit Unterstützung für skalierbare Vektorerweiterungen (SVE). Auch in der zweiten Top500-Liste darf das Cluster seine Krone behalten.
Im Frühjahr 2020 haben Fujitsu und Kunde Riken Center for Computational Science, die Welt mit dem leistungsfähigsten Supercomputer überrascht: „Fugaku“. Er basiert auf dem „A64FX“ SoC, ein von Fujitsu speziell optimierter ARM v8-A-Chip, die bisher einzige Implementierung der ISA v8.2-A SVE von ARM mit Unterstützung für skalierbare Vektorerweiterungen (SVE). Auch in der zweiten Top500-Liste darf das Cluster seine Krone behalten.
(Bild: © Riken)

Der Begriff HPC ist nicht ganz eindeutig definiert. Grundlegend kann man davon ausgehen, dass alle für Standardsysteme zu komplexen oder aufwendigen Anwendungen in den Bereich des Hochleistungsrechnens fallen. Die Grenzen sind hierbei fließend. Besonders häufig sind derartige Fälle beispielsweise in Forschung, Wissenschaft und Engineering, bei detaillierten Simulationen, bei KI oder Machine Learning sowie in umfangreichen Business-Intelligence-Szenarien zu finden.

Bei den entsprechenden HPC-Systemen gibt es dennoch zwei wichtige Merkmale, die sie von regulären Lösungen unterscheiden: Zum einen ist ihre Architektur auf die parallele Verarbeitung von Aufgaben ausgelegt, zum anderen erreichen die Systeme im Vergleich mit herkömmlichen Umgebungen weitaus höhere Leistungs- und Speicherkapazitätswerte.

Extreme Leistungsfähigkeit

HPC-Systeme stellen meist mehrere TeraFlops (Gleitkommaoperationen pro Sekunde, „Floating Point Operations Per Second“) bis hinein in den PetaFlops-Bereich an Rechenleistung bereit. Dies wird durch die Parallelisierung von Rechenaufgaben sowie die Aggregation mehrerer Systeme zu Clustern erreicht. Grid Computing wird ebenfalls genutzt – hierbei werden unter zentraler Verwaltung und Koordination verschiedene Rechner und Server miteinander vernetzt.

Gängig sind HPC-Umgebungen, die in eigenen professionellen Rechenzentren betrieben werden. Dabei kommt spezialisierte und hochleistungsfähige Hardware zum Einsatz, darunter Mehrkern-Prozessoren, GPUs, schnelle Netzwerke und Storage-Umgebungen mit geringer Latenz.

Bildergalerie

Endkunden können zum Beispiel über die Cloud auf HPC-Umgebungen zugreifen. Die jeweiligen Angebote sind flexibel skalierbar und lassen sich auf individuelle Anforderungen anpassen. Damit entfällt der ansonsten notwendige teure und aufwendige Aufbau einer HPC-Infrastruktur im eigenen Unternehmen. Für Wartung und Betrieb der HPC-Angebote aus der Cloud sind die jeweiligen Provider zuständig. Abgerechnet wird in aller Regel nutzungsbasiert und damit transparent.

Blick in den Markt

Der HPC-Markt verzeichnet laut den Marktforschern von Mordor Intelligence ein stabiles Wachstum. Bis 2025 wird eine jährliche Zuwachsrate („Compound Annual Growth Rate“, CAGR) von 6,13 Prozent erwartet. Das größte HPC-Marktsegment findet sich laut den Markforschern derzeit in Nordamerika, am schnellsten wächst dagegen der asiatisch-pazifische Raum.

Als wichtige Treiber gelten zunehmende Investitionen in Bereiche wie das industrielle Internet der Dinge (IIoT) und KI. Zudem spielt das Engineering eine wichtige Rolle, da verstärkt Nachfrage nach Electronic Design Automation (EDA) sowie hochdetaillierten Modellsimulationen besteht. Ähnlich sieht es bei Life Sciences und im Gesundheitswesen aus: Auch hier steigt der Bedarf an zeitnahen Analysen großer strukturierter und unstrukturierter Datenmengen rapide an.

Langfristig stabile Entwicklung

Die Daten von Intersect360 Research zeichnen ein ähnliches Bild: Die Marktforscher beziffern das HPC-Marktvolumen auf 39 Milliarden US-Dollar für das vergangene Jahr. Dies entspricht einem Plus von 8,2 Prozent gegenüber 2018. Vor allem das Segment an Cloud- und Cloud-ähnlichen Angeboten konnte hierbei ein besonders starkes Wachstum aufweisen. Laut den Experten wird dies auch künftig so bleiben – jährliche Zuwachsraten von 20 Prozent sind in diesem Teilbereich möglich.

In der Gesamtbetrachtung kommen die Marktforscher zu dem Schluss, dass HPC auf einen langfristig stabilen Wachstumsmarkt bauen kann. Diese Entwicklung ließ sich auch nicht von der Corona-Krise beeindrucken: Ganz im Gegenteil beschleunigte die Pandemie unter anderem den Trend zu Cloud-basierten HPC-Angeboten sogar. Dennoch warnt Intersect360 Research vor voreiligen Schlüssen: Die ökonomischen Auswirkungen einer anhaltenden COVID-19-Pandemie und ihre Folgen auf Hersteller und Anbieter bleiben auch im HPC-Markt unkalkulierbar.

Artikelfiles und Artikellinks

(ID:46995380)