Die GPU Technology Conference 2025 sprengt erneut Leistungsgrenzen Nvidia stellt DIE Infra­struktur fürs AI-Zeitalter in Aussicht

Von lic.rer.publ. Ariane Rüdiger 6 min Lesedauer

Anbieter zum Thema

In San José hat Nvidia anlässlich der Konferenz „GTC 25“ aufgetrumpft: Thema war nicht weniger als die Nvidia-Vision für neue, aufs Datenzeitalter zugeschnittene Infrastrukturen nebst entsprechender Roadmaps. Mit im Spiel: die Robotik.

Die Vision einer nahezu kompletten Nvidia-Infrastruktur für das AI-Zeitalter hat der Hersteller auf seiner Veranstaltung „GTC 1025“ ausgebreitet. (Bild:  Nvidia)
Die Vision einer nahezu kompletten Nvidia-Infrastruktur für das AI-Zeitalter hat der Hersteller auf seiner Veranstaltung „GTC 1025“ ausgebreitet.
(Bild: Nvidia)

Beim „Superbowl der AI“, so O-Ton von Nvidia-CEO Jensen Huang, stellt der Manager des derzeit führenden Anbieters in Sachen AI-Infrastruktur Produkte und Visionen für die Hard- und Software-Infrastruktur der Zukunft vor. Dazu präsentiert Huang wichtige, zum Teil neue Kundenbeziehungen und Partnerschaften.

Huang will nichts weniger als die Infrastrukturen für Cloud, Enterprise und Robotik von Grund auf erneuern. Sollte ihm das gelingen, wird es für Intel schwer werden, seine alte dominante Rolle zurückzuerobern.

Viele Daten, schnelle Modelle, Skalierbarkeit

Drei Aufgaben müssten für erfolgreiche AI gelöst werden: genügend Daten herbeischaffen, Modelle ohne Menschen in Echtzeit trainieren und die Skalierbarkeit aller Systeme.

Alles zusammen soll sich in den jetzt aufkommenden, analytisch 'denkenden' und logisch schließenden AI-Anwendungen in der Rolle selbständiger Software-Agenten (Agentic AI) wiederfinden. Solche 'Algos' dokumentieren ihren 'Denkweg' und 'verstehen' Kontexte.

Wie groß wird der Rechenzentrums-Markt?

Das alles, so Huang, generiere um Dimensionen mehr Tokens, die dann entsprechend zu verarbeiten sind. „Der Computing-Bedarf [unter anderem durch diese 'Tokenisierung'] erhöht sich auf das Hundertfache und mehr“, sagte Huang. Der Rechenzentrumsmarkt werde dadurch zu einem Billionen-Geschäft werden.

Auf dem Weg dazu setzt Huang einerseits auf seine Softwarewelt rund um „CUDA“, die ständig um neue Bibliotheken erweitert wird. Es gibt sie inzwischen beispielsweise für numerische Verarbeitung mit Python, CAE, CAD, Quantencomputing, Optimierungsaufgaben und vieles mehr.

Was plant Nvidia?

Andererseits baut Nvidia nach wie vor auf neue Hardware mit neuen Produkten und Architekturen in kurzer Folge. Gerade in die Produktion gegangen ist die aktuelle „Blackwell“-Generation.

Die damit ausgestatteten Racks der unterschiedlichen Hersteller sind auf der Veranstaltung in einer Reihe auf der Bühne präsentiert worden: Lenovo, Dell, HPE, Gigabyte, Asus, Oracle sowie alle vier Hyperscaler waren dabei.

Die für die zweite Jahreshälfte angekündigte „Blackwell Ultra NVL 72“, leistet 40mal so viel wie die „Hopper“-Chips. Blackwell Ultra NVL 72 vereinigt zwei GPUs auf einem Chip und hat die doppelte Bandbreite und 1,5mal das Speichervolumen des nun aktuellen Vorläufers. Dieser Baustein und seine Nachfolger sollen den CSPs und 'AI-Factories' den Aufbau von hochleistungsfähigen GPU-Clouds ermöglichen.

Was bringt Nvidia in den kommenden Jahren?

In der zweiten Hälfte des Jahres 2026 soll die nächste GPU-Generation unter der Bezeichnung „Vera Rubin NVL144“ (benamt nach der Astrophysikerin Vera Rubin, die die Dunkle Materie entdeckte) folgen. Der Chip integriert 144 GPUs. Die Zahl der verbauten GPUs soll laut Huang zukünftig immer in die Bezeichnung der jeweiligen Serie eingehen.

DIe Leistung der GPU „Blackwell Ultra NVL72„“ im Vergleich zu den Vorläufern.(Bild:  Rüdiger/Nvidia)
DIe Leistung der GPU „Blackwell Ultra NVL72„“ im Vergleich zu den Vorläufern.
(Bild: Rüdiger/Nvidia)

Dazu passt das neue „Nvidia Dynamo“, „das Betriebssystem für die AI Factory“. Es übernimmt die flexible Ressourcenzuweisung des gesamten disaggregierten AI-Ressourcenpools und ist jetzt von Nvidia unter Open-Source-Lizenzen gestellt worden. Dazu gibt es nun eine „Distributed Inference Service Library“.

Durchsatz im Petabyte-Bereich

In der zweiten Hälfte des Jahres 2027 plant Nvidia die Folgegeneration „Rubin NVL 576“. Der Chip soll 15mal mehr Durchsatz bringen als die Vorgeneration und wird 4,6 Petabyte Scale-up-Bandbreite besitzen.

Hier werden bereits vier GPUs in ein Prozessorboard gepackt. Gleichzeitig sinken die leistungsbezogenen Kosten gegenüber Hopper auf drei Prozent. Die letzte Produktgeneration, die Huang angesprochen hat, ist der Nachfolger von Rubin, „Feynman“ (nach dem Physiker Richard Feynman). Feynmann-Produkte sind 2028 zu erwarten.

Vernetzung: Immer schneller

Neuigkeiten gibt es auch bei der Vernetzung. Mit „Spectrum-X“ hat Nvidia Ethernet mit Echtzeit- und anderen Fähigkeiten ausgerüstet, die man von Infiniband kennt. Kupfer soll nur noch innerhalb des Racks, also für Strecken von maximal zwei Metern eingesetzt werden. Danach kommt Glasfaser.

Um die Einbindung von Glasfaser endlich technisch nahtlos zu gestalten, arbeitet die Branche schon lange an Silizium-Photonik. Das ist die direkte Übergabe von digitalen Signalen an Glasfasern ohne die Zwischenschaltung teurer und schwerer Transceiver.

Quantum-X: Der erste Switch mit Photonik-Option

Nun stellt Nvidia mit „Quantum-X“ seinen ersten Switch mit Photonik-Option vor. Er nutzt statt der üblichen Umsetzungstechnik ein optoelektronisches Bauelement mit der Bezeichnung „Micro Ring Modulator“ (MRM) zur Ein- und Auskopplung der optischen Signale.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Das optische Subsystem eines Switch mit Photonik-Option.(Bild:  Rüdiger/Nvidia)
Das optische Subsystem eines Switch mit Photonik-Option.
(Bild: Rüdiger/Nvidia)

Quantum-X ist ab der 2. Hälfte 2025, das SiPho-Modul ab der 2. Hälfte 2026 erhältlich. Das Gerät bietet 144 800-G-Ports oder 576 200-G-Ports. Von dem Umstieg verspricht sich Nvidia erhebliche Skalierungsvorteile, weil Energie gespart wird, die sonst in die Umsetzung optischer in digitale Signale durch Transceiver gesteckt werden müsste.

Weitere Switches folgen - bis 2000 Ports geplant

Weitere Switches mit Optoelektronik-Option mit kleineren und größeren Leistungen sollen in der zweiten Jahreshälfte 2026 folgen: ein Spectrum-X mit 128 800-G-Ports respektive 512 200-G-Ports und ein weiterer mit 576 800-G- und rund 2000 200-G-Ports. Die Switches sollen die Basis hochvernetzter, verteilter KI-Umgebungen für komplexe Reasoning-Algorithmen bilden.

Aber mit Geräten fürs Rechenzentrum gibt sich Nvidia nicht zufrieden. Zusammen mit Cisco, T-Mobile und Server ODC wird ein vollständiger Stack für ein intelligentes, funkbasiertes Edge-Netzwerk (AI-RAN) in den USA entwickelt. Dabei kommt auch eine entsprechende CUDA-Library von Nvidia zum Einsatz.

Enterprise-Hardware für AI mit Nvidia-Prozessor

Und auch im Enterprise will Nvidia noch größere Fußstapfen hinterlassen. Huang zeigt auf der Messe, die in der vergangenen Messe im kalifornischen San José stattgefunden hat, das Basisboard einer „DGX Station“. Daraus sollen Computer für AI-Anwendungen, insbesondere für Entwickler, gebaut werden, die 20 PetaFlops leisten.

Huang präsentiert ein „DGX“-Motherboard, wie es in der Dell-AI-Rechnerserie fürs Enterprise eingebaut werden soll.(Bild:  Rüdiger/Nvidia)
Huang präsentiert ein „DGX“-Motherboard, wie es in der Dell-AI-Rechnerserie fürs Enterprise eingebaut werden soll.
(Bild: Rüdiger/Nvidia)

Huang verkündete, Dell arbeite bereits an einer kompletten Produktlinie vom Tischrechner bis zur anspruchsvollen Workstation. Tatsächlich kündigte Dell auch schon entsprechende Geräte an. Auf entsprechenden Systemen sollen mit „Llama Nematron“ ein Open-Source-basiertes plattformunabhängiges Modell von Nvidia laufen.

Die nächste Herausforderung: Robotik

Das letzte Themenfeld, das Huang im Rahmen seiner begeistert aufgenommenen Präsentation vorgestellt hat, ist die Robotik. So hat jetzt anlässlich der GTC der Hersteller verkündet, dass „Nvidia Isaac Groot N1“, ein Basismodell für physikalische Umgebungen und damit die Robotik, als Open Source zur Verfügung gestellt wird.

Für seinen Robotik-Ansatz verwendet Nvidia bereits bekannte Softwarekomponenten: „Omniverse “als eine Art Betriebssystem und „Cosmos“, das mit Hilfe der eingespeisten physikalischen Daten unterschiedliche, realitätsbasierende Modellwelten simuliert.

Ein Beispiel aus dem autonomen Fahren zeigt, wie diese Zusammenspielen: Dieselbe Kurve soll bei gleißendem Sonnenschein, Schneeregen, Glatteis, Sturm, Stau und vielen anderen Konditionen simuliert werden um die Software autonomer Fahrzeuge zu trainieren. Während Omniverse realitätsbasiert synthetische Daten generiert, setzt Cosmos sie basierend auf diesen Daten in die unterschiedlichen Detailsituationen um.

Huang spricht mit Roboter - Roboter freut sich

Ziel der Robotik-Bemühungen ist es letztlich, neben autonomen Fahrzeugen auch generell verwendbare, universell lernfähige Roboter zu entwickeln. Sie sollen Kontext, physische Umgebung und Semantik bei der Kommunikation gut genug verstehen, um kooperativ mit dem Menschen arbeiten zu können.

Jensen Huang begrüßt den Roboter auf der Bühne; der simuliert Freude.(Bild:  Rüdiger/Nvidia)
Jensen Huang begrüßt den Roboter auf der Bühne; der simuliert Freude.
(Bild: Rüdiger/Nvidia)

Einen Prototypen hat Huang zum Gaudium der Konferenzbesucher während seiner Keynote (s.o.) präsentiert. Der Robi gehorcht aufs Wort und reagierte zudem mit scheinbar freudiger Erregung auf die humane. Kommunikation.

Autonome GM-Fahrzeuge mit Software von Nvidia

Nvidias Ansatz im so genannten Physical Computing, also bei Lösungen für die physische Welt, scheint zu überzeugen. Das zeigt sich beispielsweise daran, das Huang ein Kooperationsabkommen mit General Motors /GM) bezüglich der KI-Ausstattung autonomer Fahrzeuge präsentiert hat.

Und eine weitere Kooperation für neue Dimensionen in der KI-Bildverarbeitung hat Huang ebenfalls bekannt gegeben: Mit Deep Mind und Disney Research arbeitet man unter dem Projektnamen „Newton“ an entsprechenden Lösungen für die Robotik.

Modularer AI-Pod von HPE

Einige Unternehmen, darunter HPE, präsentierten schon vor der Veranstaltung ihre GTC-News. So bringt HPE einen „AI Modular Pod“, ein AI-Datacenter in der Box mit Skaliermöglichkeit.

Das Unternehmen liefert zudem Kunden, die das wünschen, eine „Greenlake“-Variante der „HPE Private Cloud AI“ ins Haus, die zusammen mit Nvidia entwickelt wurde. Das Ganze soll sich für Inferenz, Integration zusätzlicher, kundenspezifischer Daten (RAG, Retrieval Augmented Generation) und Feinanpassung von Modellen eignen.

Automatische Datenprävalidierung mit Crew AI

Mit „Crew AI“, einem Software-Tool, soll es möglich sein, Daten automatisiert zu prävalidieren. Außerdemhat HPE das gemeinsam mit Deloitte entwickelte „Zora AI for Finance“ vorgestellt, das die Entscheidungsfindung im Finanzbereich erleichtern soll und dynamische Berichte generiert.

Das Innenleben eines „Quantum-X“-Switch. kupferfarben scheint die Wasserkühlung hervor. (Bild:  Rüdiger/Nvidia)
Das Innenleben eines „Quantum-X“-Switch. kupferfarben scheint die Wasserkühlung hervor.
(Bild: Rüdiger/Nvidia)

Auch in der Storage-Abteilung gibt es von HPE Neuerungen: Die „Data Fabric“ als übergreifenden Namensraum für von AI genutzten Daten hat es schon länger gegeben. Nun umfasst dieser auch das Edge.

Außerdem hat der Hersteller in die „MPX 10000“ Intelligenz für automatische Inline-Datenverarbeitung und damit RAG eingebaut. Geplant ist bald auch die Realisierung von RDMA über „S3“.

(ID:50361062)