Zu Besuch beim Serverhersteller in den Niederlanden Supermicro: Neue Server für Europa
Anbieter zum Thema
Der Serverhersteller Supermicro ist auf Expansionskurs und will mit einer starken Präsenz in Europa näher am Kunden sein.

Auf der „EMEA Factory Tour“ von Supermicro im niederländischen s’Hertogenbosch stellte der Serverhersteller sein Konzept vor, um europäische Kunden besser zu erreichen. Das holländische Werk ist vor allem für die Endfertigung und Fehlertests ausgelegt, die Komponenten werden aus anderen Fabriken in den USA und Asien angeliefert.
Auf diese Weise behält Supermicro die Kontrolle über die gesamte Lieferkette und kann nach eigenen Angaben schneller und zuverlässiger liefern als einige Wettbewerber. Die lokale Produktion verbessert Time-to-Market, Flexibilität und Logistik.
Nachhaltigkeit spielt bei der Produktion eine große Rolle und so setzt der Hersteller unter anderem konsequent auf Flüssigkühlung (Liquid Cooling). Die Systems ermöglichen den Kunden nach Unternehmensangaben eine bessere Kostenkontrolle bei On-Premises-, Hybrid- und Cloud-Computing.
Das gesamte Portfolio basiert auf einer einheitlichen Basis, was die Interoperabilität und die Herstellung erleichtert. In den Niederlanden beschäftigt der Anbieter 450 Mitarbeiterinnen und Mitarbeiter, die europäischen Kunden maßgeschneiderte Systeme als Build to Order anbieten können. Das Konzept geht auf und das Unternehmen peilt für das Fiskaljahr 2024 ein Umsatzwachstum von 40 Prozent auf ein Gesamtvolumen von zehn Milliarden Dollar an.
Jerry Dien Product, Manager und Director, System Solutions at Supermicro, sieht als derzeitiges Trendthema das hardware-basierte Training von KI-Modellen. „Neuronale Netzwerke sind eine neue Stufe der Technologie und der Markt stellt sich darauf ein. Unser neues System Supermicro NVIDIA MGX Platform auf der Basis von NVIDIA Grace Hopper ist vor allem geeignet für das Training von Large Language Models (LLMs). Es ist bereits lieferbar.“
Supermicro NVIDIA MGX
„Supermicro Nvidia MGX“ beruht auf „Nvidia GH200“, Grace Hopper, und „Nvidia Grace“-CPU Superchips. Die neue modulare Architektur wurde entwickelt, um KI-Infrastruktur und beschleunigtes Computing in Formfaktoren für ein oder zwei Höheneinheiten (1U- und 2U) zu standardisieren.
Sie sind modulare Bausteine und können beliebig kombiniert und erweitert werden. Supermicro kann Tausende von KI-Servern im Rack-Scale-Format pro Monat aus Einrichtungen auf der ganzen Welt und insbesondere aus Holland liefern und gewährleistet Plug-and-Play-Kompatibilität.
Mit dem 1U 2-Knoten-Design mit 2 GH200 können die Direct-to-Chip-Flüssigkeitskühlungssysteme von Supermicro die Betriebskosten um mehr als 40 Prozent senken, während die Rechendichte erhöht und die Rack-Scale-Implementierung für Large Language Model (LLM) Cluster und HPC-Anwendungen vereinfacht wird. Die Nvidia Grace Superchip CPUs verfügen über 144 Kerne und liefern bis zu zweimal mehr Leistung pro Watt im Vergleich zu den heutigen Industriestandard-x86-CPUs.
Charles Liang, Präsident und CEO von Supermicro, sagt: „Supermicro treibt die heutige KI-Revolution voran, um das Versprechen von KI für viele Workloads zu erfüllen. Für uns ist es entscheidend, Systeme anzubieten, die hochgradig modular, skalierbar und universell für sich schnell entwickelnde KI-Technologien sind.“
Die Nvidia MGX-basierten Lösungen von Supermicro zeigten, dass die Bausteinstrategie es ermögliche, die neuesten Systeme schnell auf den Markt zu bringen und die Workload-optimiertesten in der Branche zu sein. Er fährt fort: „Durch die Zusammenarbeit mit Nvidia tragen wir dazu bei, dass Unternehmen neue KI-fähige Anwendungen schneller auf den Markt bringen, die Bereitstellung vereinfachen und die Umweltbelastung reduzieren können. Die neuen Server sind mit der neuesten, für KI optimierten Technologie ausgestattet, darunter Nvidia GH200 Grace Hopper Superchips, „Bluefield“ und PCIe 5.0 EDSFF-Steckplätze.“
Die jüngste MGX-Serverreihe umfasst folgende Modelle:
- ARS-111GL-NHR - 1 NVIDIA GH200 Grace Hopper Superchip, luftgekühlt
- ARS-111GL-NHR-LCC - 1 NVIDIA GH200 Grace Hopper Superchip, flüssigkeitsgekühlt
- ARS-111GL-DHNR-LCC - 2 NVIDIA GH200 Grace Hopper Superchips, 2 Nodes, flüssigkeitsgekühlt
- ARS-121L-DNR - 2 NVIDIA Grace CPU Superchips in jedem von 2 Nodes, insgesamt 288 Kerne
- ARS-221GL-NR - 1 NVIDIA Grace-CPU-Superchip in 2U
- SYS-221GE-NR - Dual-Sockel Intel Xeon Scalable Prozessoren der 4. Generation mit bis zu 4 NVIDIA H100 Tensor Core oder 4 NVIDIA PCIe GPUs
Jede MGX-Plattform kann mit Nvidia Bluefield-3 DPU und/oder „Nvidia ConnectX-7“ Interconnects für Infiniband- oder Ethernet-Netzwerke erweitert werden.
Die 1U Nvidia MGX Systeme haben bis zu 2 GH200 mit 2 H100 GPUs und 2 Grace CPUs. Jedes System ist mit 480 Gigabyte (GB) LPDDR5X Speicher für die CPU und 96 GB HBM3 oder 144 GB HBM3e Speicher für die GPU ausgestattet.
Das speicherkohärente Nvidia-C2C-Interconnect mit hoher Bandbreite und niedriger Latenz verbindet CPU, GPU und Speicher mit 900 GB/s - siebenmal schneller als PCIe 5.0. Die modulare Architektur bietet mehrere PCIe 5.0 x16 FHFL-Steckplätze zur Aufnahme von DPUs für Cloud- und Datenmanagement sowie Erweiterungsmöglichkeiten für zusätzliche GPUs, Netzwerke und Speicher.
Die 2U Supermicro MGX Plattform unterstützt sowohl Nvidia Grace als auch x86 CPUs mit bis zu 4 Full-Size-GPUs für Rechenzentren, wie den Nvidia H100 PCIe, H100 NVL oder L40S. Es bietet außerdem drei zusätzliche PCIe 5.0 x16-Steckplätze für I/O-Konnektivität und acht Hot-Swap EDSFF-Speicherschächte.
Supermicros 1U Nvidia MGX Systeme haben bis zu 2 Nvidia GH200 Grace Hopper Superchips mit 2 NVIDIA H100 GPUs und 2 NVIDIA Grace CPUs. Jedes System ist mit 480 GB LPDDR5X Speicher für die CPU und 96 GB HBM3 oder 144 GB HBM3e Speicher für die GPU ausgestattet.
Das speicherkohärente NVIDIA-C2C-Interconnect mit hoher Bandbreite und niedriger Latenz verbindet CPU, GPU und Speicher mit 900 GB/s - siebenmal schneller als PCIe 5.0. Die modulare Architektur bietet mehrere PCIe 5.0 x16 FHFL-Steckplätze zur Aufnahme von DPUs für Cloud- und Datenmanagement sowie Erweiterungsmöglichkeiten für zusätzliche GPUs, Netzwerke und Speicher.
(ID:49765005)