KI-Hardware mit Vera-Rubin-Techniken Mehr Nvidia in Dell-Servern

Quelle: Pressemitteilung Dell Technologies 3 min Lesedauer

Anbieter zum Thema

Die „Dell AI Factory“ kommt mit weiteren Nvidia-Techniken daher, darunter auch die Plattform „Vera Rubin“, eine speziell für KI-Workloads entwickelte, skalierbare Systemplattform bestehend aus GPU-, CPU- und Netzwerkarchitektur.

Dell Technologies stattet unter anderem seine „Poweredge“-Server mit jüngster Nvidia-Technik aus. (Bild:  Dell Technologies)
Dell Technologies stattet unter anderem seine „Poweredge“-Server mit jüngster Nvidia-Technik aus.
(Bild: Dell Technologies)

Die Neuerungen der integrierten End-to-End-Infrastruktur für die Planung, Bereitstellung und den Betrieb von KI-Workloads hat Dell Technologies kürzlich auf der Computermesse „CES 2026“ präsentiert. Die Technik soll insbesondere für Agentic AI und KI-basiertes Reasoning taugen.

Die Dell-Poweredge-Server

Die kommenden „Dell Poweredge“-Server mit „Vera Rubin NVL72“ liefern KI-Rechenleistung von bis zu 3,6 ExaFlops, integrieren 75 Terabyte Hochleistungsspeicher und sollen Resilienz innerhalb der Rack-Scale-Infrastruktur von Dell Technologies bieten. Unterstützt wird das durch eine „Vera“ CPU auf ARM-Basis von Nvidia mit 88 „Custom-Olympus“-Rechenkernen, die 176 Threads parallel mit Spatial Multithreading verarbeiten. Die Speicherbandbreite von 1,2 Terabit pro Sekunde (TB/s) ermöglicht laut Hersteller eine skalierbare sowie effiziente Bereitstellung von Daten für Enterprise-KI-Anwendungen.

Dell Technologies erweitert zudem sein KI-Serverportfolio um Systeme mit „Nvidia HGX Rubin NVL8“ und stellt damit eine KI-Rechenleistung von bis zu 400 PetaFlops bereit. Die Plattformen sind mit 2,3 Terabyte HBM4-Speicher, einer Speicherbandbreite von 176 TB/s sowie „ConnectX-9-SuperNICs“ mit 800 GB/s und „Bluefield-4“-DPUs von Nvidia ausgestattet.

Vera Rubin von Nvidia n Kürze

Nach der Astronomin Vera Rubin benannt, hat Nvidia auf der in der zweiten Januarwoche stattgefundenen Computermesse CES in Las Vegas seine jüngste Generation von KI-Plattformen vorgestellt. Die Nachfolgerin von „Blackwell“ soll Ende 2026 auf den Markt kommen. Sie bau baut auf „Rubin“-GPUs und der „Vera“-CPUs auf und soll neben der KI-Eignung auch robusterer Confidential Computing-Funktionen mitbringen.

Nach Nvidia-Angaben ist die Plattform für das 'Zeitalter der agentischen KI'und des logischen Schlussfolgerns entwickelt und ist darauf ausgelegt, mehrstufige Problemlösungsprozesse und umfangreiche Workflows mit langen Kontexten im großen Maßstab zu bewältigen. Durch die Beseitigung kritischer Engpässe bei der Kommunikation und Speicherbewegung beschleunige die Rubin-Plattform die Inferenz; sie liefere mehr Token pro Watt und senke die Kosten pro Token im Vergleich zur Blackwell-Generation.

Immerhin müssten dir künftigen KI-Fabriken Hunderttausende von Eingabe-Token verarbeiten, um den für agentenbasiertes Denken, komplexe Workflows und multimodale Pipelines erforderlichen langen Kontext bereitzustellen und gleichzeitig Echtzeit-Inferenz unter Einschränkungen hinsichtlich Leistung, Zuverlässigkeit, Sicherheit, Bereitstellungsgeschwindigkeit und Kosten aufrechtzuerhalten, heißt es bei Nvidia.

Kompatibilität

So verfügt die Plattform über eine neue Transformer-Engine mit hardwarebeschleunigter adaptiver Komprimierung, um die NVFP4-Leistung bei gleichbleibender Genauigkeit zu steigern und eine NVFP4-Inferenz von bis zu 50 PetaFlops zu ermöglichen. Trotzdem soll die Transformer-Engine vollständig kompatibel mit Blackwell sein, so dass zuvor optimierte Codes auf die Rubin-Plattform übergehen können.

Zugleich Co-Design ist der Rubin-Plattform, GPUs, CPUs, Netzwerke, Sicherheit, Software, Stromversorgung und Kühlung sind als ein einziges System konzipiert und nicht isoliert voneinander optimiert, dafür sorgen, dass ganze das Rechenzentren und nicht einen einzelnen GPU-Server als Recheneinheit behandelt werden können. Der Ansatz stelle sicher, so Nvidia, dass Leistung und Effizienz nicht nur in isolierten Komponenten-Benchmarks, sondern auch in Produktionsumgebungen erhalten bleiben.

Zur Supercomuting-KI-Plattform „Vera Rubin“ gehören im Kern sechs neue Nvidia-Chips. (Bild:  Nvidia)
Zur Supercomuting-KI-Plattform „Vera Rubin“ gehören im Kern sechs neue Nvidia-Chips.
(Bild: Nvidia)

Den kern des Systems bilden insgesamt sechs neue Chips:

  • „Vera“-CPU: 88 von Nvidia entwickelte „Olympus“-Kerne mit vollständiger Arm-Kompatibilität.
  • „Rubin“- GPU: Grafikprozessoren mit HBM4 und der neuen Transformer Engine.
  • „NVLink 6“-Switch: Scale-up-Fabric der sechsten Generation mit einer GPU-zu-GPU-Bandbreite von 3,6 TB/s.
  • „ConnectX-9“: Netzwerk-Schnittstelle mit hohem Durchsatz und geringer Latenz am Endpunkt für Scale-out-KI.
  • „BlueField-4“-Datenverarbeitungseinheit (DPU) - ein Dual-Die-Paket, das Folgendes kombiniert:


- eine 64-Kern-„Grace“-CPU für Infrastruktur-Offload und Sicherheit
- einen integrierten ConnectX-9-Hochgeschwindigkeits-Netzwerkchip für eng gekoppelte Datenbewegungen.

  • „Spectrum-6“-Ethernet-Switch für Scale-out-Konnektivität mit gemeinsam verpackten Optiken

Sie bilden somit eine zentrale technische Grundlage für die nächste Generation von AI Factories, die es Unternehmen soll, leistungsfähige KI-Infrastruktur in bestehende Rechenzentrumsumgebungen zu integrieren, ohne umfangreiche bauliche oder infrastrukturelle Anpassungen vornehmen zu müssen.

Networking für leistungshungrige KI-Workloads

Auch das „Dell Powerswitch“-Portfolio wird erweitert. So kommt in aktuellen Geräten „Spectrum-6“-Ethernet von Nvidia mit einer Switching-Kapazität von 102,4 TB/s zum Einsatz. Unterstützt werden bis zu 512 Ports mit 800G-Konnektivität über Co-Packaged Optics (COP), was bedeutet, dass für die Datenübertragung sowohl optische als auch elektrische Komponenten im Verbund arbeiten.

In Kombination mit der Integration des Daten- und Speicherprozessors „Nvidia Bluefield-4“ in die „Dell AI Data Platform“ verbessert dies die Energie-Effizienz, Zuverlässigkeit und Betriebszeit im Vergleich zu Vorgängersystemen deutlich. Der Chip bietet nach Nvidia-Angaben so eine Netzwerkleistung von 800 Gb/s sowie eine doppelt so hohe Netzwerk- und Kryptografie-Beschleunigung wie „Bluefield-3.1“.

Parallel dazu integriert Dell Technologies die Familie offener KI-Modelle „Nvidia Nemotron“ mit bis zu 500 Milliarden Parametern in die Dell AI Factory. Die auf hybrider Mixture-of-Experts-Architektur basierenden Modelle steigern die Effizienz und Leistungsfähigkeit von Reasoning- und Inference-Workloads und stellen Entwicklern eine Plattform zur Entwicklung und Bereitstellung von Agentic-AI-Anwendungen zur Verfügung.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:50683788)