Die Intel-CPU und Nvidia-GPU für Inferenzsysteme Xeon 6 fungiert als Host-CPU in Nvidia DGX Rubin NVL8-Systemen

Quelle: Pressemitteilung Intel 2 min Lesedauer

Anbieter zum Thema

Auf der Nvidia-Konferenz „GTC 2026“ hat Prozessor-Lieferant Intel bekannt gegeben, dass der „Xeon 6“ als Prozessor für die „Nvidia DGX Rubin NVL8“-Systeme zum Einsatz kommt.

Der Prozessor „Intel Xeon 6“ kann als Host-CPU in „DGX Rubin NVL8“-Systemen von Nvidia zum Einsatz kommen. (Bild:  Intel)
Der Prozessor „Intel Xeon 6“ kann als Host-CPU in „DGX Rubin NVL8“-Systemen von Nvidia zum Einsatz kommen.
(Bild: Intel)

Dies unterstreicht laut Intel die Bedeutung der Xeon-CPU für die architektonische Kontinuität und Skalierbarkeit von GPU-beschleunigten KI-Systemen. Das gilt insbesondere für die Arbeitslasten in den zunehmend umfangreichen Echtzeit-Inferenzsystemen. Denn die die Host-CPU beeinflusst die Gesamteffizienz des Clusters und die Gesamtbetriebskosten

Die CPU ist für kritische Funktionen wie Speicherverwaltung, Aufgabenkoordination und Workload-Verteilung verantwortlich und gewährleistet gleichzeitig die Sicherheit, Zuverlässigkeit und Betriebskontinuität, die auch für eine moderne KI-Infrastruktur unerlässlich sind. Nach Herstellerangaben kommen die Xeon-Prozessoen deshalb zum Einsatz, weil sie hohe Speichergeschwindigkeiten, eine ausgewogene Leistung über eine Vielzahl von Workloads hinweg, niedrigere langfristige Gesamtbetriebskosten (TCO) sowie ein ausgereiftes, im Unternehmensbereich bewährtes Software-Ökosystem bieten. Darüber hinaus stärkten die robusten PCIe- und I/O-Fähigkeiten aus dem Hause Intel die Rolle von Xeon als Plattform mit hoher Bandbreite und geringer Latenz für vielfältige Workloads.

Schema der Intel-CPU-Nvidia-GPU-Integration(Bild:  Intel)
Schema der Intel-CPU-Nvidia-GPU-Integration
(Bild: Intel)

Jeff McVeigh, Corporate Vice President und General Manager für strategische Rechenzentrumsprogramme bei Intel, hebt heraus, dass sich weg vom groß angelegten Training durch agentische KI und Schlussfolgerungssysteme hin zu Echtzeit-Inferenz entwickle: „In dieser neuen Ära ist die Host-CPU von entscheidender Bedeutung. Sie steuert die Orchestrierung, den Speicherzugriff, die Modellsicherheit und den Durchsatz in GPU-beschleunigten Systemen.“

Es geht also um:

  • effiziente Leistung pro Watt
  • optimierte Unterstützung im gesamten AI-Software-Stack des Ökosystems, einschließlich der Unterstützung für „Nvidia Dynamo“, um heterogene Inferenz über CPU und künftige GPUs hinweg zu ermöglichen
  • Orchestrierung von GPU-beschleunigten, heterogenen Systemen
  • Zuverlässigkeit in unternehmenskritischen Umgebungen und
  • Vertraulichkeit. Denn mit zunehmendem Umfang der KI-Inferenz wird durchgängiges vertrauliches Rechnen unerlässlich – von den Datenpfaden der CPU bis hin zu denen der GPU. „Intel Trust Domain Extensions“ (TDX) bieten eine hardwarebasierte Isolierung und Authentifizierung.

Intel und Vera Rubin

Die „Nvidia DGX Rubin NVL8“-Systeme integrieren also „Intel Xeon 6“-Prozessoren und bauen auf der architektonischen Grundlage auf, die mit dem „Intel Xeon 6776P“ in aktuellen „Nvidia Blackwell“-basierten Plattformen, einschließlich der „DGX B300“-Systeme, geschaffen wurde.

Intel hat den Xeon so entwickelt, dass diese Systeme das Beste aus ihren GPUs herausholen können. Dabei kommen Funktionen wie „Priority Core Turbo“ zum Einsatz, um den Datenfluss zu den GPUs aufrechtzuerhalten. Dank der Single-Thread-Leistung bei der Orchestrierung, Planung und Datenübertragung, so Intel trage Xeon dazu bei, dass alles reibungslos und effizient laufen kann, selbst wenn die Inferenz-Workloads immer komplexer werden.

Zu den wichtigsten Merkmalen des von Xeon 6 gehören:

  • bis zu 8 Terabyte (TB) Systemspeicher zur Unterstützung großer Modelle und wachsender KV-Caches
  • dank MRDIMM eine dreimal höhere Speicherbandbreite im Vergleich zur Vorgängergeneration, wodurch die Datenübertragungsraten zu GPUs verbessert werden
  • PCIe 5.0-Lanes zur Unterstützung von KI-Beschleunigern und anderen Geräten
  • mithilfe von „Encrypted Bounce Buffer“ vertrauliches Rechnen über CPU-GPU-Datenpfade hinweg sowie
  • Hardware-basierte Isolierung, die KI-Daten und -Modelle während der Nutzung schützt.

(ID:50788711)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung