14.05.2026

Wie Vertiv und CoreWeave gemeinsam KI-Innovation vorantreiben

Mit steigenden Leistungsdichten und immer komplexeren KI-Workloads wird die enge Abstimmung von Compute, Stromversorgung und Kühlung zum entscheidenden Erfolgsfaktor. Vertiv und CoreWeave zeigen, wie integrierte Infrastrukturkonzepte und partnerschaftliche Zusammenarbeit den Weg für skalierbare, leistungsstarke KI-Umgebungen ebnen. 

CoreWeave und seine Partner haben die weltweit erste Cloud-Implementierung von NVIDIAs GB300 NVL72-System realisiert – und damit schnelleres Training, geringere Latenzen und eine effizientere Infrastruktur für Echtzeit-KI ermöglicht.

Ein renommiertes Orchester ist nicht bloß eine Ansammlung exzellenter Musiker. Es ist eine Einheit, in der jedes Instrument und jede Sektion – Blechbläser, Streicher, Schlagwerk – präzise aufeinander abgestimmt sind, um eine makellose Performance zu liefern.

Für KI-Infrastrukturen gelten dieselben Prinzipien. Leistungsfähigkeit in mission-kritischen KI-Umgebungen entsteht nicht allein durch zusätzliche GPUs. Entscheidend ist die enge Abstimmung von Compute, Stromversorgung, Kühlung und Netzwerk – als integriertes Gesamtsystem.

Genau diesen Ansatz verfolgen Vertiv, CoreWeave und ihre Partner mit dem NVIDIA GB300 NVL72-System. Es handelt sich nicht um ein Konzept oder eine einmalige Sonderlösung, sondern um eine einheitliche, skalierbare Infrastruktur für KI im großen Maßstab.

Ein neuer Maßstab für KI-Infrastruktur

CoreWeave, AI-Hyperscaler für GPU- und Cloud-Computing, realisiert die erste Implementierung des NVIDIA GB300 NVL72 in Dells integriertem Racksystem.

CoreWeave gehört seit Jahren zu den Vorreitern im Bereich KI-Cloud-Infrastruktur und hat zuvor bereits NVIDIA HGX H100- und H200-Plattformen implementiert. Die Einführung des NVIDIA GB300 NVL72 setzt diese Entwicklung fort.

Die Leistungssteigerungen sind signifikant:

  • Bis zu 50-fache Steigerung der Inferenzleistung für Reasoning-Workloads gegenüber Hopper

  • 10-fache Verbesserung der Nutzerreaktionszeit

  • 5-fach höherer Durchsatz pro Watt

  • 1,5-fache FP4-(4-Bit-Floating-Point)-Performance gegenüber Blackwell

  • 1,5-facher Speicherausbau auf bis zu 21 TB GPU-Speicher pro Rack gegenüber Blackwell

  • Doppelte NVIDIA Quantum InfiniBand-Bandbreite pro GPU im Vergleich zur Vorgängergeneration

Infrastruktur, die mit dem Silizium skaliert

Um Systeme in dieser Größenordnung zu betreiben, müssen Kühlung und Stromversorgung ebenso präzise konzipiert sein wie die Compute-Plattform selbst.

Ein vollständig ausgelastetes NVIDIA GB300 NVL72-Rack benötigt rund 140 kW Leistungsaufnahme und wird flüssigkeitsgekühlt. Hier kommt Vertiv ins Spiel.

Die Vertiv™ CoolChip Cooling Distribution Units (CDUs) sind speziell für diese Anforderungen ausgelegt und bieten:

  • 121 kW Flüssig-zu-Flüssig-Wärmeabfuhr, optimiert für das NVIDIA GB300 NVL72-Gehäuse

  • Kompatibilität mit ASHRAE-W5-Vorlauftemperaturen

  • Redundante Pumpen und doppelte Wärmetauscher zur Erhöhung der Ausfallsicherheit

  • Automatisierte Kreislaufregelung für stabilen Dauerbetrieb

Darüber hinaus unterstützt Vertiv die Implementierung durch zusätzliche Services:

  • CFD-Modellierung (Computational Fluid Dynamics) und thermische Simulation zur Optimierung der Luftführung und Vermeidung später Designanpassungen

  • White-Space- und Integrationsplanung zur Abstimmung von Kühlung, Stromversorgung und Kreislaufregelung auf das Rack-Layout

  • Echtzeit-Monitoring und Loop-Control zur Stabilisierung der Performance bei dynamischen GPU-Lasten

  • Referenzdesigns und SimReady-Assets für NVIDIA GB200- und GB300-Systeme zur digitalen Validierung vor der physischen Umsetzung

KI mit hoher Geschwindigkeit realisieren – gemeinsam

Die Bereitstellung von KI-Infrastruktur der nächsten Generation hängt nicht nur von der Hardware im Rack ab. Entscheidend ist die Geschwindigkeit vom Design bis zur Inbetriebnahme – und wie eng die Partner entlang dieses Prozesses zusammenarbeiten.

Der Rollout des NVIDIA GB300 NVL72 durch CoreWeave verdeutlicht diesen Ansatz: eine koordinierte Zusammenarbeit zur Inbetriebnahme einer Rack-basierten KI-Plattform für rund 140 kW Last, flüssigkeitsgekühlt, ausgelegt für hochverdichtete, dauerhaft aktive Inferenz-Workloads.

CoreWeave beschreibt es mit einer sportlichen Analogie:

„Die Zukunft der KI-Infrastruktur zu gestalten ist Teamsport. Unsere gemeinsame Zusammenarbeit mit Dell, Switch und Vertiv bei der Implementierung des NVIDIA GB300 NVL72 ist entscheidend für unsere Geschwindigkeit und Agilität. Sie liefert die notwendige Unterstützung, um bahnbrechende Technologie in Rekordzeit für unsere Kunden Realität werden zu lassen.“

Vertiv unterstützte die Implementierung mit vorvalidierten Flüssigkeitskühlsystemen und Engineering-Expertise – und stellte so sicher, dass CoreWeave und Dell die Infrastruktur in hoher Geschwindigkeit ausrollen konnten.

Wohin sich Infrastruktur entwickelt

Die Implementierung des NVIDIA GB300 NVL72 durch CoreWeave und Dell mit Unterstützung von Vertiv markiert einen Wendepunkt in der Entwicklung und Bereitstellung von KI-Infrastruktur.

Angesichts der rasanten Dynamik im KI-Bereich wäre vielleicht elektronische Musik ein treffenderer Vergleich als klassische Sinfonie. Doch unabhängig von der Analogie bleibt eines klar: Erfolgreiche KI-Infrastruktur entsteht nicht durch Einzelakteure, sondern durch ein abgestimmtes Zusammenspiel.

Echte Integration, enge Kooperation und gemeinsame Entwicklung sind die Grundlage für eine leistungsfähige „Symphonie“ im KI-Zeitalter.