IT-Awards 2021 Die beliebtesten Anbieter von HPC- und KI-Hardware 2021

Von Martin Hensel |

Anbieter zum Thema

Ob datengetriebene Unternehmen, Wissenschaft und Forschung oder detaillierte Simulationen komplexer Sachverhalte: Irgendwann stoßen herkömmliche Systeme unweigerlich an ihre Grenzen. In solchen Fällen kommt spezialisierte Technik für High-Performance Computing (HPC) und Künstliche Intelligenz (KI) zum Einsatz.

Die Spitze des High Performance Computing (HPC) ist das Supercomputing. Die Top-500-Liste führt bereits das dritte Mal der Rechner „Fugaku“ an, in dem Fujitsu-Technik steckt. Mehr und mehr haben HPC-Rechner Anwendungen der Künstlichen Intelligenz (KI) zu bewältigen, so dass sich die Anforderungen von KI- und HPC-Rechnern ähneln.
Die Spitze des High Performance Computing (HPC) ist das Supercomputing. Die Top-500-Liste führt bereits das dritte Mal der Rechner „Fugaku“ an, in dem Fujitsu-Technik steckt. Mehr und mehr haben HPC-Rechner Anwendungen der Künstlichen Intelligenz (KI) zu bewältigen, so dass sich die Anforderungen von KI- und HPC-Rechnern ähneln.
(Bild: Riken)

Hochleistungssysteme sind immer dann notwendig, wenn besonders komplexe oder aufwendige Anwendungen von Standardarchitekturen nicht mehr oder nur sehr langsam zu bewältigen sind. Beispiele dafür sind häufig in der Wissenschaft, in Forschungsprojekten oder im Engineering zu finden. Besonders detailreiche und umfangreiche Simulationen, KI- oder Machine-Learning-Umgebungen oder Business-Intelligence-Szenarien benötigen ebenfalls gerne mehr Rechenleistung als üblich. In der HPC-Nutzung entfallen bereits jetzt große Teile der Workloads auf KI (60 Prozent) oder Deep Learning (70 Prozent).

Zur Unterscheidung von herkömmlichen Umgebungen lassen sich zwei Merkmale heranziehen: HPC-Systeme sind meist auf die parallele Verarbeitung von Aufgaben ausgelegt. Zudem erreichen sie weitaus höhere Leistungs- und Speicherkapazitätswerte als gängige Systeme, indem beispielsweise die Rechenleistung mehrerer Cluster oder Grids aggregiert wird. Letztere werden unter zentraler Verwaltung und Koordination miteinander vernetzt.

Komplexe Probleme lösen

Durch die grundlegende Auslegung auf besonders komplexe Anwendungen erreichen HPC-Systeme meist mehrere TeraFlops (Gleitkommaoperationen pro Sekunde, „Floating Point Operations Per Second“) und reichen bis in den PetaFlops-Bereich. Aktuell gilt der Fugaku-Supercomputer in Japan als leistungsfähigstes HPC-System. Er erreicht 442 PetaFlops an Rechenleistung und kommt unter anderem in der Medikamentenentwicklung, bei Big-Data-Analysen und für KI-Anwendungen zum Einsatz.

HPC-Umgebungen werden in der Regel in eigenen professionellen Rechenzentren oder On-Premises in Unternehmen und Organisationen betrieben. Sie basieren auf spezialisierter und hochleistungsfähiger Hardware, darunter etwa Mehrkern-Prozessoren, GPUs, Hochgeschwindigkeitsnetzwerke und Storage-Umgebungen mit besonders niedriger Latenz.

Die Leser von DataCenter-Insider haben abgestimmt. Beim Klick auf die nachfolgenden Bilder finden sich die drei Gewinner der Kategorie „HPC- und KI-Hardware“:

Bildergalerie

Kommerzielle Anbieter ermöglichen Endkunden beispielsweise per Cloud den unkomplizierten Zugriff auf die Fähigkeiten ihrer HPC-Umgebung. Derartige Angebote sind skalierbar und lassen sich an individuelle Anforderungen anpassen. Sie sind schnell einsatzfähig und ermöglichen damit zeitnahe Ergebnisse. Ihre Nutzung ist zudem meist deutlich kostengünstiger als der langwierige und komplexe Aufbau einer vergleichbar leistungsfähigen Infrastruktur im eigenen Unternehmen. Wartung und Betrieb der HPC-Umgebungen aus der Cloud übernehmen die jeweiligen Provider. Die Abrechnung erfolgt überwiegend nutzungsbasiert auf Basis der tatsächlich in Anspruch genommenen Ressourcen.

HPC per Cloud auf der Überholspur

Laut dem „HPC Market Update“ von Hyperion Research traf die COVID-19-Pandemie auch das HPC-Segment. Dennoch konnte der Gesamtmarkt für On-Premises-HPC-Server ein Umsatzplus von 1,1 Prozent auf insgesamt 13,7 Milliarden US-Dollar verzeichnen. Den größten Anteil bilden mit 5,9 Milliarden Dollar Systeme, die jeweils mindestens eine halbe Million Dollar kosten.

Exascale-Systemen, also Supercomputern im ExaFlops-Bereich, prognostizieren die Marktforscher bis 2024 ein jährliches Wachstum von 23,2 Prozent. Noch existieren keine derartigen HPC-Installationen, zum Jahreswechsel wird mit „Project Frontier“ aber die Inbetriebnahme des ersten derartigen Systems erwartet.

Ein regelrechter Boom zeichnet sich im Cloud-Bereich ab. Hier erwarten die Marktforscher ein jährliches Wachstum bei den entsprechenden Investitionen um 17,6 Prozent jährlich. Bis zum Jahr 2024 soll der Marktumfang von HPC in Public Clouds bei 8,8 Milliarden US-Dollar liegen. Zudem geht Hyperion davon aus, dass knapp jeder zweite HPC-Nutzer in den kommenden zwölf Monaten seine HPC-Workloads von On-Premises in die Public Cloud verlagern wird. Wesentlicher Grund dafür ist die Fähigkeit der HPC-Cloud-Dienste zur kurzfristigen Skalierung („Burst“).

Artikelfiles und Artikellinks

(ID:47755832)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung