„KI-SuperCluster“ mit Nvidia-Blackwell-GPUs Supermicro sorgt für höhere Inferenzleistung bei geringerem Energieverbrauch

Von Martin Hensel 4 min Lesedauer

Anbieter zum Thema

Serverhersteller Supermicro hat neue flüssigkeitsgekühlte „KI-SuperCluster“ angekündigt. Der Clou: Die Systeme auf Basis von Nvidias Blackwell-GPUs sorgen im Vergleich zu bisherigen Servern für 30-fach höhere Inferenzleistung bei 40 Prozent geringerem Stromverbrauch.

Supermicro baut sein Portfolio an „KI-Super Cluster“ auf Nvidia-Basis weiter aus, das neben flüssigkeits- auch luftgekühlte Systeme umfasst.(Bild:  Supermicro)
Supermicro baut sein Portfolio an „KI-Super Cluster“ auf Nvidia-Basis weiter aus, das neben flüssigkeits- auch luftgekühlte Systeme umfasst.
(Bild: Supermicro)

Die sofort einsatzbereiten „KI-SuperCluster“ wurden speziell für Cloud-native Lösungen entwickelt. Mit ihrer Hilfe sollen Unternehmen die Vorteile von Cloud- und On-Premises-Systemen vereinen und ein betriebsfertiges KI-Rechenzentrum mit umfangreicher Software-Umgebung erhalten können.

In den flüssigkeitsgekühlten 4HE-Systemen lassen sich die Blackwell-GPUs von Nvidia einsetzen. (siehe: Kasten) Laut Supermicro erreichen sie 20 PetaFlops an KI-Leistung auf einer einzigen GPU. Die KI-Trainingsleistung liegt um den Faktor 4, die Inferenzleistung um den Faktor 30 über den bisher eingesetzten GPUs.

Entsprechend seiner „First to Market“-Strategie wird Supermicro eine komplette Produktlinie auf Basis der Blackwell-Architektur anbieten. Diese wird die GPUs der Serien „HGX B100“, „B200“ und „GB200“ umfassen.

KI-Super Cluster erhalten leistungsfähigen Zuwachs

Supermicro bietet bereits verschiedene Super-Cluster-Varianten an: Dazu zählen flüssigkeitsgekühlte „HGX H100 SuperCluster“ und „HGX H200 SuperCluster“ mit je 256 „H100“- oder „H200“-GPUs als skalierbare Recheneinheit in fünf Racks, einschließlich eines dedizierten Netzwerk-Racks. Diese Bestückung ist auch als luftgekühltes System in neun Racks erhältlich.

Ebenfalls neun Racks umfasst der Super Cluster mit 256 „GH200-Superchips“ („Grace Hopper“). Systeme mit „HGX B100/B200“- sowie „GB200 HVL36“- oder „GB200 NVL72“-GPUs sollen in Kürze folgen und wurden bereits im Rahmen der Messe „Computex“ präsentiert.

Alle „KI-SuperCluster“ sind „Nvidia AI Enterprise ready“ und unterstützen Nvidia NIM Microservices sowie die „Nemo“-Plattform für durchgängige generative KI-Anpassung. Die Systeme sind für „Nvidia-Quantum-2“-Infiniband sowie die „Spectrum-X“-Ethernet-Plattform optimiert. Letztere ermöglicht Datenraten von bis zu 400 Gigabit pro Sekunde und GPU. Als mögliche Anwendungsgebiete der „SuperCluster“ nennt Supermicro etwa LLM-Training („Large Language Models“), Deep Learning und Inferenz mit hohem Volumen und hoher Stapelgröße.

Branchenübergreifend einsetzbar, schnell geliefert

„Unsere Lösungen sind mit der Nvidia AI Enterprise Software für Kunden in allen Branchen optimiert und wir bieten globale Fertigungskapazitäten mit Spitzeneffizienz“, nennt Supermicro-CEO Charles Liang weitere Vorzüge des „SuperCluster“-Portfolios. Man könne dadurch die Lieferzeiten für schlüsselfertige Cluster verkürzen. Dies wird durch die vor kurzem durchgeführte Eröffnung von drei zusätzlichen Fertigungsstandorten im kalifornischen Silicon Valley unterstrichen.

„Von Cold Plates über CDUs („Coolant Distribution Units“) bis hin zu Kühltürmen - unsere Rack-Komplettlösungen für die Flüssigkeitskühlung können den Stromverbrauch von Rechenzentren um bis zu 40 Prozent senken“, so Liang. Neue Rechenzentren würden effizienter betrieben, was ihren CO2-Fußabdruck verringere. „Sie können im Vergleich zu luftgekühlten Rechenzentren praktisch kostenlos sein, was im Laufe der Zeit zu erheblichen betrieblichen Einsparungen durch geringeren Stromverbrauch führt“, so der Supermicro-CEO.

Supermicro eröffnet drei neue Produktionsstätten

Mit den geplanten drei neuen Produktionsstätten soll sich die weltweite Kapazität an flüssigkeitsgekühlten Racks von Supermicro auf mehr als das Doppelte der heutigen 1.000 pro Monat ausgelieferten „KI Super Cluster“ erhöhen. Damit reagiert der Hardwarelieferant auf die steigende Nachfrage nach flüssigkeitsgekühlten Rechenzentren. Mit neuen Anlagen und Standorten im Silicon Valley wierde der Schwerpunkt auf die Lieferung kompletter flüssigkeitsgekühlter Plug-and-Play-Lösungen – von Systemen über Racks bis hin zu Wassertürmen – liegen, teilt das Unternehmen mit.

Unter anderem sollen sich die Lieferzeiten für Kunden weltweit verkürzen. Denn die zunehmende Etablierung von KI-Fabriken mache flüssigkeitsgekühlte Rechenzentren unabdingbar, weil die flüssigkeitsgekühlten Rechenzentren die KI-Rechenleistung pro Watt erhöhen, was wiederum zu einer höheren Leistung pro Rechenzentrum führt. Darüber hinaus werden der Stromverbrauch und die Umweltbelastung reduziert, und die Betriebskostenlassen sich im Vergleich zu herkömmlichen, luftgekühlten Rechenzentren um bis zu 40 Prozent senken.

Supermicro verfüge über die leistungsstärkste generative Deep-Learning- und Inferencing-KI-Plattformen und Cluster, die von flüssigkeitsgekühlten Technologien profitieren, führt Charles Liang, Präsident und CEO von Supermicro aus. Da tfee ses sich gut, dass viele Betreiber von Rechenzentren auf der Suche nach stromsparenden Direct Liquid-Cooled-Lösungen seien.

„Supermicro entwickelt flüssigkeitsgekühlte Bausteine für KI-Fabriken und den HPC-Markt. Wir gehen davon aus, dass flüssigkeitsgekühlte Rechenzentren in den nächsten zwei Jahren von bisher weniger als 1 Prozent auf voraussichtlich 15 Prozent und bis zu 30 Prozent aller Rechenzentrumsinstallationen ansteigen werden“ sagt Liang.

Nicht nur Server

Supermicro liefert alle Komponenten, die für eine flüssigkeitsgekühlte Rechenzentren benötigt werden. Von den Kühlplatten über die Kühlmittelverteiler (CDMs) bis hin zu den redundanten Kühlmittelverteilern (CDUs) und sogar externen Kühltürmen wird die gesamte End-to-End-Lösung von Supermicro-Ingenieuren entwickelt und getestet.

Nach eignen Angaben arbeitet Supermicro arbeitet eng mit Rechenzentrumsbetreibern zusammen, um die optimale Servertechnologie für die anspruchsvollen Arbeitslasten zu finden, die für jedes Unternehmen und jeden Cloud-Service-Anbieter einzigartig sind. Viele der anwendungsoptimierten Server des Herstellers seien sind für die Flüssigkeitskühlung ausgelegt.

Die meisten Kunden hätten jedoch nur geringe Erfahrung im Umgang mit Flüssigkeiten in Rechenzentren, so dass die Anbieter die Installation und Abnahmeprüfung sowie die künftige Wartung und den Garantieservice übernehmen müssten. So sei der Vor-Ort-Support ist von entscheidender Bedeutung, und die Service-Organisation von Supermicro für den Einsatz von Flüssigkeitskühlung bestens ausgebildet.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:50071475)