In San José hat Nvidia anlässlich der Konferenz „GTC 25“ aufgetrumpft: Thema war nicht weniger als die Nvidia-Vision für neue, aufs Datenzeitalter zugeschnittene Infrastrukturen nebst entsprechender Roadmaps. Mit im Spiel: die Robotik.
Die Vision einer nahezu kompletten Nvidia-Infrastruktur für das AI-Zeitalter hat der Hersteller auf seiner Veranstaltung „GTC 1025“ ausgebreitet.
(Bild: Nvidia)
Beim „Superbowl der AI“, so O-Ton von Nvidia-CEO Jensen Huang, stellt der Manager des derzeit führenden Anbieters in Sachen AI-Infrastruktur Produkte und Visionen für die Hard- und Software-Infrastruktur der Zukunft vor. Dazu präsentiert Huang wichtige, zum Teil neue Kundenbeziehungen und Partnerschaften.
Huang will nichts weniger als die Infrastrukturen für Cloud, Enterprise und Robotik von Grund auf erneuern. Sollte ihm das gelingen, wird es für Intel schwer werden, seine alte dominante Rolle zurückzuerobern.
Viele Daten, schnelle Modelle, Skalierbarkeit
Drei Aufgaben müssten für erfolgreiche AI gelöst werden: genügend Daten herbeischaffen, Modelle ohne Menschen in Echtzeit trainieren und die Skalierbarkeit aller Systeme.
Alles zusammen soll sich in den jetzt aufkommenden, analytisch 'denkenden' und logisch schließenden AI-Anwendungen in der Rolle selbständiger Software-Agenten (Agentic AI) wiederfinden. Solche 'Algos' dokumentieren ihren 'Denkweg' und 'verstehen' Kontexte.
Wie groß wird der Rechenzentrums-Markt?
Das alles, so Huang, generiere um Dimensionen mehr Tokens, die dann entsprechend zu verarbeiten sind. „Der Computing-Bedarf [unter anderem durch diese 'Tokenisierung'] erhöht sich auf das Hundertfache und mehr“, sagte Huang. Der Rechenzentrumsmarkt werde dadurch zu einem Billionen-Geschäft werden.
Auf dem Weg dazu setzt Huang einerseits auf seine Softwarewelt rund um „CUDA“, die ständig um neue Bibliotheken erweitert wird. Es gibt sie inzwischen beispielsweise für numerische Verarbeitung mit Python, CAE, CAD, Quantencomputing, Optimierungsaufgaben und vieles mehr.
Was plant Nvidia?
Andererseits baut Nvidia nach wie vor auf neue Hardware mit neuen Produkten und Architekturen in kurzer Folge. Gerade in die Produktion gegangen ist die aktuelle „Blackwell“-Generation.
Die damit ausgestatteten Racks der unterschiedlichen Hersteller sind auf der Veranstaltung in einer Reihe auf der Bühne präsentiert worden: Lenovo, Dell, HPE, Gigabyte, Asus, Oracle sowie alle vier Hyperscaler waren dabei.
Die für die zweite Jahreshälfte angekündigte „Blackwell Ultra NVL 72“, leistet 40mal so viel wie die „Hopper“-Chips. Blackwell Ultra NVL 72 vereinigt zwei GPUs auf einem Chip und hat die doppelte Bandbreite und 1,5mal das Speichervolumen des nun aktuellen Vorläufers. Dieser Baustein und seine Nachfolger sollen den CSPs und 'AI-Factories' den Aufbau von hochleistungsfähigen GPU-Clouds ermöglichen.
Was bringt Nvidia in den kommenden Jahren?
In der zweiten Hälfte des Jahres 2026 soll die nächste GPU-Generation unter der Bezeichnung „Vera Rubin NVL144“ (benamt nach der Astrophysikerin Vera Rubin, die die Dunkle Materie entdeckte) folgen. Der Chip integriert 144 GPUs. Die Zahl der verbauten GPUs soll laut Huang zukünftig immer in die Bezeichnung der jeweiligen Serie eingehen.
DIe Leistung der GPU „Blackwell Ultra NVL72„“ im Vergleich zu den Vorläufern.
(Bild: Rüdiger/Nvidia)
Dazu passt das neue „Nvidia Dynamo“, „das Betriebssystem für die AI Factory“. Es übernimmt die flexible Ressourcenzuweisung des gesamten disaggregierten AI-Ressourcenpools und ist jetzt von Nvidia unter Open-Source-Lizenzen gestellt worden. Dazu gibt es nun eine „Distributed Inference Service Library“.
Durchsatz im Petabyte-Bereich
In der zweiten Hälfte des Jahres 2027 plant Nvidia die Folgegeneration „Rubin NVL 576“. Der Chip soll 15mal mehr Durchsatz bringen als die Vorgeneration und wird 4,6 Petabyte Scale-up-Bandbreite besitzen.
Hier werden bereits vier GPUs in ein Prozessorboard gepackt. Gleichzeitig sinken die leistungsbezogenen Kosten gegenüber Hopper auf drei Prozent. Die letzte Produktgeneration, die Huang angesprochen hat, ist der Nachfolger von Rubin, „Feynman“ (nach dem Physiker Richard Feynman). Feynmann-Produkte sind 2028 zu erwarten.
Vernetzung: Immer schneller
Neuigkeiten gibt es auch bei der Vernetzung. Mit „Spectrum-X“ hat Nvidia Ethernet mit Echtzeit- und anderen Fähigkeiten ausgerüstet, die man von Infiniband kennt. Kupfer soll nur noch innerhalb des Racks, also für Strecken von maximal zwei Metern eingesetzt werden. Danach kommt Glasfaser.
Um die Einbindung von Glasfaser endlich technisch nahtlos zu gestalten, arbeitet die Branche schon lange an Silizium-Photonik. Das ist die direkte Übergabe von digitalen Signalen an Glasfasern ohne die Zwischenschaltung teurer und schwerer Transceiver.
Nun stellt Nvidia mit „Quantum-X“ seinen ersten Switch mit Photonik-Option vor. Er nutzt statt der üblichen Umsetzungstechnik ein optoelektronisches Bauelement mit der Bezeichnung „Micro Ring Modulator“ (MRM) zur Ein- und Auskopplung der optischen Signale.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Das optische Subsystem eines Switch mit Photonik-Option.
(Bild: Rüdiger/Nvidia)
Quantum-X ist ab der 2. Hälfte 2025, das SiPho-Modul ab der 2. Hälfte 2026 erhältlich. Das Gerät bietet 144 800-G-Ports oder 576 200-G-Ports. Von dem Umstieg verspricht sich Nvidia erhebliche Skalierungsvorteile, weil Energie gespart wird, die sonst in die Umsetzung optischer in digitale Signale durch Transceiver gesteckt werden müsste.
Weitere Switches folgen - bis 2000 Ports geplant
Weitere Switches mit Optoelektronik-Option mit kleineren und größeren Leistungen sollen in der zweiten Jahreshälfte 2026 folgen: ein Spectrum-X mit 128 800-G-Ports respektive 512 200-G-Ports und ein weiterer mit 576 800-G- und rund 2000 200-G-Ports. Die Switches sollen die Basis hochvernetzter, verteilter KI-Umgebungen für komplexe Reasoning-Algorithmen bilden.
Aber mit Geräten fürs Rechenzentrum gibt sich Nvidia nicht zufrieden. Zusammen mit Cisco, T-Mobile und Server ODC wird ein vollständiger Stack für ein intelligentes, funkbasiertes Edge-Netzwerk (AI-RAN) in den USA entwickelt. Dabei kommt auch eine entsprechende CUDA-Library von Nvidia zum Einsatz.
Enterprise-Hardware für AI mit Nvidia-Prozessor
Und auch im Enterprise will Nvidia noch größere Fußstapfen hinterlassen. Huang zeigt auf der Messe, die in der vergangenen Messe im kalifornischen San José stattgefunden hat, das Basisboard einer „DGX Station“. Daraus sollen Computer für AI-Anwendungen, insbesondere für Entwickler, gebaut werden, die 20 PetaFlops leisten.
Huang präsentiert ein „DGX“-Motherboard, wie es in der Dell-AI-Rechnerserie fürs Enterprise eingebaut werden soll.
(Bild: Rüdiger/Nvidia)
Huang verkündete, Dell arbeite bereits an einer kompletten Produktlinie vom Tischrechner bis zur anspruchsvollen Workstation. Tatsächlich kündigte Dell auch schon entsprechende Geräte an. Auf entsprechenden Systemen sollen mit „Llama Nematron“ ein Open-Source-basiertes plattformunabhängiges Modell von Nvidia laufen.
Die nächste Herausforderung: Robotik
Das letzte Themenfeld, das Huang im Rahmen seiner begeistert aufgenommenen Präsentation vorgestellt hat, ist die Robotik. So hat jetzt anlässlich der GTC der Hersteller verkündet, dass „Nvidia Isaac Groot N1“, ein Basismodell für physikalische Umgebungen und damit die Robotik, als Open Source zur Verfügung gestellt wird.
Für seinen Robotik-Ansatz verwendet Nvidia bereits bekannte Softwarekomponenten: „Omniverse “als eine Art Betriebssystem und „Cosmos“, das mit Hilfe der eingespeisten physikalischen Daten unterschiedliche, realitätsbasierende Modellwelten simuliert.
Ein Beispiel aus dem autonomen Fahren zeigt, wie diese Zusammenspielen: Dieselbe Kurve soll bei gleißendem Sonnenschein, Schneeregen, Glatteis, Sturm, Stau und vielen anderen Konditionen simuliert werden um die Software autonomer Fahrzeuge zu trainieren. Während Omniverse realitätsbasiert synthetische Daten generiert, setzt Cosmos sie basierend auf diesen Daten in die unterschiedlichen Detailsituationen um.
Huang spricht mit Roboter - Roboter freut sich
Ziel der Robotik-Bemühungen ist es letztlich, neben autonomen Fahrzeugen auch generell verwendbare, universell lernfähige Roboter zu entwickeln. Sie sollen Kontext, physische Umgebung und Semantik bei der Kommunikation gut genug verstehen, um kooperativ mit dem Menschen arbeiten zu können.
Jensen Huang begrüßt den Roboter auf der Bühne; der simuliert Freude.
(Bild: Rüdiger/Nvidia)
Einen Prototypen hat Huang zum Gaudium der Konferenzbesucher während seiner Keynote (s.o.) präsentiert. Der Robi gehorcht aufs Wort und reagierte zudem mit scheinbar freudiger Erregung auf die humane. Kommunikation.
Autonome GM-Fahrzeuge mit Software von Nvidia
Nvidias Ansatz im so genannten Physical Computing, also bei Lösungen für die physische Welt, scheint zu überzeugen. Das zeigt sich beispielsweise daran, das Huang ein Kooperationsabkommen mit General Motors /GM) bezüglich der KI-Ausstattung autonomer Fahrzeuge präsentiert hat.
Und eine weitere Kooperation für neue Dimensionen in der KI-Bildverarbeitung hat Huang ebenfalls bekannt gegeben: Mit Deep Mind und Disney Research arbeitet man unter dem Projektnamen „Newton“ an entsprechenden Lösungen für die Robotik.
Modularer AI-Pod von HPE
Einige Unternehmen, darunter HPE, präsentierten schon vor der Veranstaltung ihre GTC-News. So bringt HPE einen „AI Modular Pod“, ein AI-Datacenter in der Box mit Skaliermöglichkeit.
Das Unternehmen liefert zudem Kunden, die das wünschen, eine „Greenlake“-Variante der „HPE Private Cloud AI“ ins Haus, die zusammen mit Nvidia entwickelt wurde. Das Ganze soll sich für Inferenz, Integration zusätzlicher, kundenspezifischer Daten (RAG, Retrieval Augmented Generation) und Feinanpassung von Modellen eignen.
Automatische Datenprävalidierung mit Crew AI
Mit „Crew AI“, einem Software-Tool, soll es möglich sein, Daten automatisiert zu prävalidieren. Außerdemhat HPE das gemeinsam mit Deloitte entwickelte „Zora AI for Finance“ vorgestellt, das die Entscheidungsfindung im Finanzbereich erleichtern soll und dynamische Berichte generiert.
Das Innenleben eines „Quantum-X“-Switch. kupferfarben scheint die Wasserkühlung hervor.
(Bild: Rüdiger/Nvidia)
Auch in der Storage-Abteilung gibt es von HPE Neuerungen: Die „Data Fabric“ als übergreifenden Namensraum für von AI genutzten Daten hat es schon länger gegeben. Nun umfasst dieser auch das Edge.
Außerdem hat der Hersteller in die „MPX 10000“ Intelligenz für automatische Inline-Datenverarbeitung und damit RAG eingebaut. Geplant ist bald auch die Realisierung von RDMA über „S3“.