Hyperion HPC Market Update 2021 HPC befindet sich in der Cloud auf der Überholspur
Auf der International Supercomputing Conference (ISC) 2021 hat die Marktforschungs- und Beratungsfirma Hyperion Research ihre halbjährliche Studie „HPC Market Update“ vorgestellt. Wie zu erwarten, verursachte die Pandemie eine Delle in den weltweiten Umsätzen, wenngleich die HPC-Projekte vorangetrieben wurden. So kann der japanische „Fugaku“-Supercomputer die Delle ausgleichen.
Anbieter zum Thema

Dank Fugaku, zum dritten Mal ganz oben auf der Topp500-Liste, verzeichnete der Gesamtmarkt für On-premises-HPC-Server ein Umsatzplus von 1,1 Prozent und umfasst nun einen Jahresumsatz von 13,7 Milliarden Dollar (Vorjahr: knapp 13,6 Milliarden Dollar). Das Segment der Supercomputer hat Hyperion Research weiter aufgeschlüsselt.
Rechenboliden, die einen Wert von über einer halben Million Dollar darstellen, bilden nun mit 5,9 Milliarden Dollar den Löwenanteil des HPC-Marktes. Der Rest verteilt sich auf Divisions-, Abteilungs- und Workgroup-Rechner.
Exascale-Systeme
Die oberste Preis- und Leistungsklasse hat Hyperion erstmals weiter analysiert. So wurden auch Exascale-System als solche erfasst. Da Vertreter dieser Top-Klasse 2019 noch nicht existierte, ist 2020 das erste Jahr, in dem sie auftaucht. Bis 2024 sagt Hyperion diesem Segment ein exorbitantes Jahreswachstum von 23,2 Prozent voraus.
In einer gesonderten Präsentation berichtete Hyperion Vice President Bob Sorensen vom Stand der Dinge im exklusiven Exascale-Marktsegment. Demnach befinden sich sowohl in den USA als auch in China drei Exascale-Systeme in der Konstruktion, und als erster wird wohl „Project Frontier“ (Oak Ridge) Ende 2021 durchs Ziel gehen, also in Betrieb genommen werden.
Der Grund: Beim „Aurora“-System (Argonne National Laboratory) gab es erhebliche Verzögerungen. „El Capitan“ (Livermore) soll ebenfalls Ende 2022 als dritter fertig sein. Das Trio verschlingt laut Sorensen schlappe 1,8 Milliarden Dollar. Bis zur tatsächlichen Produktionsphase veranschlagt Sorensen noch einmal ein Jahr.
Lokale Investitionen
Unter den Serverherstellern haben HPE (33 Prozent) und Dell (20,5 Prozent) weiterhin die Nase vorn. Bei der Verteilung des HPC-Marktes nach Regionen sticht Japan heraus: Als einzige Region konnte es seine Investitionen signifikant erhöhen, nämlich von 754 Millionen Dollar auf 1.710 Millionen Dollar. Das sei auf den erwähnten Fugaku-Faktor zurückzuführen, so Sorensen. Den Investitionswert von Fugaku gibt Hyperion mit rund 1 Milliarde Dollar an.
:quality(80)/images.vogel.de/vogelonline/bdb/1734000/1734065/original.jpg)
Die Nr. 1 der Supercomputer
Von Petascale zu Exascale: Fugaku
:quality(80)/images.vogel.de/vogelonline/bdb/1770500/1770584/original.jpg)
Die Top500 2020, die Zweite
Auf dem Gipfel: Fugaku überragt andere Supercomputer gleich mehrfach
Was globale Investitionen anbetrifft, so hat Hyperion unter Ausschluss von Cloud Computing knapp 28 Mrd. USD errechnet. Diese Zahl berücksichtigt Server, Storage, Middleware, Service und Applikationen. Der Grund für den Ausschluss von HPC in der Cloud: Dort ist das Wachstum derart hoch, dass es die Statistik verzerren würde. Während die On-prem-Server bis 2024 nämlich jährlich nur mit 6,9 Prozent „wachsen“, werden sie von den HPC-Investitionen in die Public Cloud mit 17,6 Prozent weit hinter sich gelassen.
Cloud auf der Überholspur
Da ist aber noch viel Luft nach oben. Im Jahr 2024 soll der Marktumfang für HPC in Public Cloud rund 8,8 Milliarden betragen, doch der für On-prem-Server im HPC-Markt liege dann bei knapp 19 Milliarden Dollar, sagte Hyperion-CEO Earl Joseph. Seine Mitarbeiter Alex Norton und Mark Nossokoff analysierten den Cloud-Einsatz genauer. Schon 2021 mache der HPC-Cloud-Marktanteil zirka 16 Prozent des HPC-Server-Marktes aus, der on-premises betrieben wird, und dürfte bis 2024 auf 19 Prozent steigen. (siehe: Abbildung 5).
Die überraschende Erkenntnis der beiden Analysten lautet demnach, dass bereits fast jeder zweite HPC-Nutzer in den nächsten zwölf Monaten seine HPC-Workloads, die er bislang on-premises betreibt, auf die Public Cloud umstellen werde. Der primäre Nutzen liege in den Burst-Fähigkeiten (zeitweilige Skalierung) der Public Cloud. D
as bedeutet, dass Cloud-Workloads bereits jetzt einen festen Bestandteil von HPC-Anwendungen darstellen. Die Migration erfordere jedoch neue Kenntnisse bei Rechenzentrumsbetreibern und Forschern. (Slide 30) Die wichtigsten Hürden für die Einführung sind die Kosten, die Datensicherheit (inkl. Compliance) und das Datenmanagement selbst: Das Bewegen großer Datenmengen ist ein Kostenfaktor.
Akzeleratoren und Storage
Im Gange ist also eine Aufholjagd der Public-Cloud Investitionen gegenüber dem On-prem-Markt. Diese Aufholjagd wird vor allem vom hohen Bedarf an Storage (siehe unten), Machine Learning (Anteil ca. 70 Prozent) und Deep Learning (rund 61 Prozent) angetrieben. Der hohe Bedarf an KI-Workloads erzeugt nach Darstellung der Analysten eine Nachfrage nach Akzeleratoren, die quasi durch die Decke geht. Lag der Einsatz von GPUs, FPGAs und anderen Beschleunigern im Sommer 2020 noch bei etwa 170.000 Karten oder Prozessoren, so dürfte der Pegel anno 2024 bei etwa 470.000 liegen. (siehe: Abbildung 6) Das entspricht fast einer Verdreifachung des Markts binnen vier Jahren.
Weil beim Einsatz von KI enorme Datenmengen verarbeitet werden müssen, um verlässliche Modelle trainieren zu können, steigt der Storage-Bedarf entsprechend stark an. In der Cloud verzeichnet Storage ein Umsatzplus bis 2024 von 17,3 Prozent, on-premises jedoch nur von 8,5 Prozent (siehe: Abbildung 7). Verteilt auf die einzelnen Branchen und Anwendungsfälle weisen Wetter- und Klimavorhersage, Biowissenschaften (inklusive Pharma, Genomik), CAE sowie Digital Content Creation & Distribution (zum Beispiel: Streaming-TV) sehr hohe Zuwachsraten von bis zu 39 Prozent (Wetter) auf.
Die Herausforderungen
Der CO2-Preis von KI- und HPC-Workloads macht den Forschern zunehmend Sorgen, denn es ist ein Kostenfaktor, der die Budgets mit Sicherheit zunehmend belasten wird – es sei denn, ein Rechenzentrumsbetreiber weicht auf die zunehmende Zahl von emissionsfreien Energieerzeugern plus Datacenter-Betreibern wie etwa Green Mountain aus.
Da HPC und KI bereits seit Jahren synonym gebraucht werden, spielen Machine Learning- und Deep-Learning-Workloads eine große Rolle (60 beziehungsweise 70 Prozent) in der HPC-Nutzung. Die dafür benötigte Rechenleistung kann erstaunliche Dimensionen annehmen. Wie Alex Norton sagte, wurde 2020 von der Zeitschrift „Nature“ ein relevanter Artikel veröffentlicht, in dem die CO2-Kosten für das Training eines großen NLP-Modells berechnet wurden. Die CO2-Emissionen entsprachen annähernd denen von 125 Rundflügen von New York City nach Peking und zurück, also mehrere Tonnen.
Eine mögliche Lösung des Problems, so Norton, liege in der Entwicklung Energie-effizienterer Prozessoren, die bereits begonnen habe. Der Carbon Footprint des Modelltrainings werde von manchen Mitgliedern der KI-Nutzergemeinde bereits als Maßeinheit angesehen, die mit der Dauer zu vergleichen sei, bis ein Modelltraining abgeschlossen ist. Weitere Herausforderungen bei KI-Modellen sind die Voreingenommenheit der Datenauswahl beziehungsweise -interpretation („bias“) sowie die Erklärbarkeit des Modells und seines Algorithmus (Explainability oder XAI).
(ID:47488724)