Neue GPU-Server, integrierter RDHx, KI-Modelle On-Prem Dell baut „AI Factory“ aus

Von Daniel Schrader 3 min Lesedauer

Anbieter zum Thema

Dell erweitert seine „AI Factory“ mit luft- und flüssigkeitsgekühlten GPU-Servern für KI-Training (mit „Nvidia B300“) und Inferenz sowie einem Rear Door Heat Exchanger mit vollintegrierter Luftzirkulation. Hinzu kommen 800G-Switches und ein umfassendes Softwarepaket – auch für den On-Prem-Einsatz.

Der flüssigkeitsgekühlte GPU-Server „Dell Power Edge XE9785L“ auf der „Dell Technologies World 2025“-Konferenz in Las Vegas. (Bild:  Ulrike Ostler / Vogel IT-Medien)
Der flüssigkeitsgekühlte GPU-Server „Dell Power Edge XE9785L“ auf der „Dell Technologies World 2025“-Konferenz in Las Vegas.
(Bild: Ulrike Ostler / Vogel IT-Medien)

Im Rahmen der „Dell Technologies World“ 2025 in Las Vegas hat Dell umfassende Hard- und Softwareneuerungen für die „Dell AI Factory“, angekündigt, sein KI-Ökosystem mit Infrastruktur, Diensten und Tools.

Luft- und Flüssigkeitsgekühlte Server für „Nvidia B300“ GPUs

Für das Trainieren von Large Language Models mit „Nvidia Blackwell“-GPUs hat der Hardwarehersteller die „Power Edge XE9780“ und „XE9785“-Server entwickelt, jeweils in luft- und flüssigkeitsgekühlten („XE9780L“ und „XE9785L“) Ausführungen.

Angetrieben von „Intel Xeon 6“- oder „AMD Epyc 5“-CPUs im Dual Socket-Einsatz ermöglichen die neue Server einen GPU-zu-GPU-Datenaustausch mit bis zu 8 Terabyte pro Sekunde und bieten acht 800-Gigabit/s-Netzwerkschnittstellen für die externe Anbindung. Der neueste „B300“-Chip beschleunige dabei das Training von Large Language Models um bis zu vier Mal im Vergleich zu den seit Ende 2022 erhältlichen „H100“-GPUs, so Dell und Nvidia.

Die luftgekühlten Ausführungen sollen das Trainieren von KI-Modellen auch in Bestandsrechenzentren ohne große Kühlungsoptimierungen ermöglichen. Die flüssigkeitsgekühlten Server-Fassungen bieten mit Direct-to-Chip-Kühlung (DTC) hingegen höhere Leistungsdichten. Die „XE9780L“- und „XE9785L“-Server erlauben so (bei einem 3U-Formfaktor) den Einsatz von 192 „B300“-GPUs in einem Rack.

256 GPUs pro Rack sollen mit dem „Dell IR7000“-System möglich sein. Auf Rack-Ebene wird Dell zudem auf Grundlage der „Nvidia GB300 NVL72“-Plattform das integrierte System „Power Edge XE9712“ anbieten.

Inferenz-Server mit AMD- und Nvidia-GPUs

Stärker auf die KI-Anwendung und auf Inferenz-Workloads ausgelegt ist der „Power Edge XE7745“-Server im 4U-Formfaktor mit bis zu acht „Nvidia RTX Pro 6000 Blackwell“-GPUs. Ein konventioneller PCIe-Anschluss soll dabei die Adoption von KI-Hardware in On-Premises- und Colocation-Rechenzentren erleichtern. Dell hat den Server im März 2025 angekündigt. Nun steht mit dem Juli 2025 auch ein konkreter Erscheinungszeitraum fest.

Als Alternative wird Dell zudem Server für „AMD MI350“-GPUs jeweils in luft- („Power Edge XE9785“) und flüssigkeitsgekühlten („XE9785L“) Konfigurationen anbieten.

Ein integrierter Rear Door Heat Exchanger

Ein „Enclosed Rear Door Heat Exchanger” mit integriertem Luftstromsystem und hohen Wassertemperaturen gehört zu den angekündigten Erweiterungen der „Dell AI Factory“. (Bild:  Dell)
Ein „Enclosed Rear Door Heat Exchanger” mit integriertem Luftstromsystem und hohen Wassertemperaturen gehört zu den angekündigten Erweiterungen der „Dell AI Factory“.
(Bild: Dell)

Deutliche Effizienzzugewinne bei dem Einsatz von Flüssigkeitskühlung verspricht Dell mit dem neuen „PowerCool Enclosed Rear Door Heat Exchanger“ in Kombination mit dem „Integrated Rack Controller“. Der Wärmetauscher an der Rack-Rückseite zeichnet sich durch ein vollständig integriertes Luftstromsystem aus, das 100 Prozent der produzierten Hardware-Wärme auffangen soll.

Zudem soll der Wärmetauscher mit hohen Wassertemperaturen von 32 bis 36 Grad Celsius operieren und so den Bedarf an Kältemaschinen erheblich reduzieren können. Im Vergleich zu marktgängigen Wärmetauschern sollen damit bis zu 60 Prozent geringere Kühlkosten möglich sein.

Zum erweiterten Hardwareportfolio zählen schließlich auch neue Netzwerk-Switches mit Übertragungsraten von 800 Gigabit/s – die Ethernet-Switches „Power Switch SN5600“ und „SN2201“ sowie der InfiniBand-Switch „Nvidia Quantum-X800“.

Mehr Funktionen für die KI-Entwicklung, auch On-Premises

Mehrere Ankündigungen betreffen die Software-Seite der Entwicklung und des Einsatzes von KI. Das parallele Dateisystem „Project Lightning“ soll Teil der „Dell AI Data Plattform“ werden und das Modelltraining deutlich beschleunigen. Neue Funktionen der Datenanalyse- und Managementplattform „Data Lakehouse“ sollen die Datenaufbereitung für KI-Workloads vereinfachen.

Zugleich will Dell KI-Modelle von Partnern wie „Google Gemini“, „Meta LLama 4“ und „Mistral AI“ sowie die KI-Plattformen „Cohere North“ und „Glean“ jenseits der Public Cloud direkt bei Kunden (On-Premises) bereitstellen. Zudem sollen Kunden den umfangreichen Softwarestack der „Nvidia AI Enterprise“-Plattform direkt über Dell beziehen können.

(ID:50426642)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung