Hot Chips 2025 AWS setzt bei Nvidia-GPU-Racks auf eigene Netzwerkkarten

Von Paula Breukel 1 min Lesedauer

Anbieter zum Thema

Auf der Hot-Chips-Konferenz hat Nvidia seine offene „MGX Compute Tray“-Architektur“ vorgestellt. Sie erlaubt Hyperscalern, an der Vorderseite des Trays eigene Komponenten wie spezielle Netzwerkkarten einzubauen.

Die modularen Nvidia MGX-Server sind an die Kundenanforderungen anpassbar. Auf der Hot Chip 2025 Konferenz zeigte AWS, wie hier die MGX-Server zusammengestellt wurden.(Bild:  Nvidia)
Die modularen Nvidia MGX-Server sind an die Kundenanforderungen anpassbar. Auf der Hot Chip 2025 Konferenz zeigte AWS, wie hier die MGX-Server zusammengestellt wurden.
(Bild: Nvidia)

Anstelle der standardmäßig vorgesehenen vier „Connect X 7/8“-Netzwerkkarten (Network Interface Cards, NICs) verbaut Amazon Web Services (AWS) in den Trays neun Netzwerkkarten mit 200 Gigabit Ethernet (GbE). Eine davon dient der Frontend-Anbindung, die übrigen acht verbinden die vier im Tray verbauten „GB200“-Grafikprozessoren mit dem Backend. Die Verbindung erfolgt über spezielle Switches, die den Datenaustausch zwischen den Beschleunigern koordinieren.

AWS ist aktuell der einzige Hyperscaler, der die Backend-NICs so weitgehend anpasst. Diese Individualisierung führt allerdings zu einer längeren Zeit bis zur Marktreife, da die Anpassungen zusätzliche Entwicklungs- und Validierungsprozesse erfordern.

Einordnung in die Rack-Scale-Strategien

Nvidia verfolgt mit den Rack-Scale-Systemen „GB200 NVL72“ und „GB300 NVL72“ das Ziel, bis zu 144 „Blackwell“-GPUs mit Grace-CPUs in einem System zu kombinieren. Die Leistungsdichte liegt dabei zwischen 120 und 150 Kilowatt (kW) pro Rack und stellt Betreiber vor Herausforderungen in Bezug auf Stromversorgung, Kühlung und Traglast bestehender Rechenzentren.

Meta hat ein „GB200-NVL36x2“-Design vorgestellt, das mit einer angepassten Kühlungsarchitektur auch in Rechenzentren mit 20 kW pro Rack betrieben werden kann. Google setzt bei seinen Tensor Processing Units (TPU) auf ein komplexes „3D-Torus“-Design und eine etablierte Wasserkühlungsinfrastruktur.

Nvidia öffnet mit MGX also Spielräume für Partner, und Hyperscaler wie AWS passen die Architektur durch Modifikationen an ihre Anforderungen an.

(ID:50540934)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung