Nvidia verstärkt seine Kooperation mit „Microsoft Azure“, wie auf Microsofts Tagung „Ignite“ verkündet wurde. Außerdem hat der Chip- und Hardwarehersteller Neuigkeiten im Bereich Supercomputing.
Mit vielen Neuigkeiten präsentierte sich Nvidia auf der Microsoft-Konferenz Ignite und auf einer US-Supercomputing-Konferenz.
(Bild: Nvidia)
Das nennt man 'Koopetion', wenn Microsoft auf derselben Veranstaltung, eben Ignite, einen eigenen KI-Chip vorstellt (siehe: „Microsoft macht eigene KI-Chips“). Während einige Medien darüber aus dem Häuschen geraten, bleibt Gartner-Analyst Alan Priestley eher gelassen.
Er kommentiert die Ankündigung mit den folgenden Worten: „Viele aktuelle KI-Entwicklungen nutzen Grafikprozessoren (GPUs). Diese sind gute Chips für allgemeine Anwendungen, die sich für die Entwicklung großer Sprachmodelle eignen. Für Cloud-Anbieter wie Microsoft, die eine kosteneffiziente Bereitstellung in großem Umfang anstreben, ist die Entwicklung eigener Chips zwar kostspielig, kann aber eine kostengünstigere Lösung darstellen, insbesondere wenn sie die Kosten pro Transaktion senken müssen.“
Er verweist zudem darauf, dass auch andere Hyperscaler bereits ihre eigenen Chips für KI-Workloads entwickeln, und es liege nahe, dass Microsoft dies ebenfalls möchte; denn: „Die Bereitstellung einer groß angelegten Infrastruktur zum Hosten von LLMs (Large Language Models) wie ChatGPT ist teuer. Hyperscaler wie Microsoft können ihre eigenen, für diese Anwendungen optimierten Chips nutzen, um die Betriebskosten zu senken - und damit die Kosten für Verbraucher und Unternehmen, zu reduzieren, welche diese LLMs nutzen möchten.“
In jedem Fall aber können Azure-User demnächst auf erheblich erweiterte, Nvidia-basierte AI-Services zugreifen: Nvidias „AI Foundry“ steht jetzt auf Microsoft Azure bereit. Dazu gehören Nvidia AI-Basismodelle (Foundation Models), das Framework und die Tools von „Nvidia Nemo“ und die Supercomputing-Services sowie Hardware „Nvidia DGX Cloud AI“.
Damit können Anwender auf Azure individuell angepasste Modelle entwickeln. Über „Nvidia AI Enterprise“ können sie mittels so genannter Retrieval Augmented Generation (RAG) diese Modelle mit eigenen Firmendaten verbinden.
Zu den ersten Nutzern gehören SAP SE und Amdocs. SAP will seinen eigenen Generative-AI-'Copiloten' „Joule“ kundenspezifisch anpassen.
Der langjährige MS-Partner Amdocs ist spezialisiert auf Software und Services für die Telekommunikationsindustrie. Nun plant das Unternehmen eine für Telekom- und Medienindustrie-angepasste LLM-Variante. Sie soll die mit Hilfe des neuen Azure-Nvidia-Angebots realisiert werden und zum Amdocs-Framework „Amalz“ gehören.
Preisgekrönte COVID-19-Simulation
Weitere Anwendungen für LLM kommen aus dem Bereich der Biowissenschaften. „GenSLMs“ ist ein auf Genomik spezialisiertes LLM, das im vergangenen Jahr mit einem Preis für HPC-basierte COVID-19-Forschung ausgezeichnet wurde.
Dieses Modell wurde am Aragon National Laboratory, USA, mit Nukleotid-Sequenzen aus COVID-Varianten des ersten Pandemiejahres trainiert. Aus solchen Sequenzen setzen sich RNA und DNA zusammen. Die durch das Modell nach dem Training generierten Sequenzen ähnelten stark denen zweier späterer COVID-Varianten.
Virtuelle Factory für Autobauer
Nvidia selbst stellt die „Omniverse Cloud Factory“, eine Virtual Factory Simulation Engine für die Automobilindustrie auf Azure bereit. Dazu kommt mit der „AV Simulation Engine“ eine Simulationsumgebung für autonome Fahrzeuge.
Die Virtual Factory Simulation Engine aus der Azure-Cloud umfasst diverse individualisierbare Applikationen und Services für Entwickler und Planungsteams. Damit können sie große Datensätze in Echtzeit verbinden, sich darin bewegen, sie abfragen und gemeinsam nutzen.
Ziel ist es, komplette existierende oder geplante Fabriken in 3D zu simulieren. Das soll letztlich Durchsatz und Produktionsqualität in den realen Fabriken steigern und die Kosten senken. Branchenübliche Applikationen wie „Autodesk Factory Planning“ lassen sich einbeziehen.
Nvidia stellt eine Simulationsumgebung für digitale Zwillinge von Automobilfabriken auf Azure online, die deren Planung und Betrieb optimieren soll.
(Bild: Nvidia)
Microsoft-Partner T-Systems baut auf Basis der Omniverse-Cloud eine eigene virtuelle Fabrik auf. Mit ihr können die Kunden des Telekommunikations-Providers dann dort arbeiten.
Die „AV Simulation Engine“ bietet auf physikalischen Daten basierende Sensorsimulationen. Damit können AV- und Robotik-Entwickler autonome Systeme in einer geschlossenen virtuellen Umgebung laufen lassen (AV = Augmented Virtuality). Bislang fehlte es bei solchen Simulationen an realistischen Inputs aus der physischen Welt.
Neue Nvidia-Modellfamilie
Der zu Nvidia AI Foundation gehörende Modellkatalog wird um „Nvidia Nemotron-3 8B“-Modelle erweitert, die jetzt im Azure-AI-Modellkatalog stehen. Sie wurden mit acht Milliarden Parametern trainiert und sind mehrsprachig. Nvidia hat Varianten davon für verschiedene Anwendunsszenarien entwickelt. Sie eignen sich als Grundlage für kundenspezifische generative AI-Applkationen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Mit Nvidia DGX Cloud AI können Azure-Nutzer jetzt die nötigen Supercomputing-Ressourcen für AI-Zwecke anmieten. Dadurch sparen sie den Hardware-Invest für Tausende „Tensor-Core“-CPUs für die Anpassung ihrer Modelle.
Mehr AI-Hardware-Auswahl bei Azure
Gleichzeitig bietet Azure zwei neue „Nvidia H-100“-basierte virtuelle Maschinen an, um AI-Workloads zu beschleunigen. Die „NC H100 v5“-VM-Serie verwendet die neuen „Nvidia H100 NVL“- GPUs. Dabei werden zwei H100-GPUs durch ein „Nvidia NVMlink“ verbunden. Die Gesamtleistung liegt bei 4 PFlops, es stehen 188 Gigabyte schneller HBM3-Speicher zur Verfügung. Die Verarbeitung des LLM GPT-3 läuft damit zwölfmal schneller.
Im nächsten Jahr soll für bessere Inferenzleistung ohne Latenz auf Azure auch die noch leistungsfähigere „Nvidia H200Tensor Core“-GPU auf Azure angeboten werden. Sie hat 141 GB HBM3e-Speicher und erreicht einen Spitzenwert von 4,8 Terabyte bei der Speicherbandbreite. Schließlich wird auf Azure die NCC H100 v5 als besonders geschützte Confidential VM bereitgehalten.
HBM3e (e steht für Extension) heißt die neueste HBM-Generation. Sie besteht aus DRAM-Stapeln und erreicht Geschwindigkeiten von über 1 Terabit pro Sekunde (Tbit/s. Angeboten werden die Speicher von Micron und SK Hynix.
AI-Verarbeitung auf Windows-Hardware
PC-User mit „Windows 11“ und „RTX“-GPUs können sich freuen: „TensorRT“-LLM, eine Nvidia-Entwicklungsumgebung zur Beschleunigung von Hochleistungs-Inferenzanwendungen, soll demnächst weitere LLMs (Large Language Models) unterstützen. Die Software läuft auf Systemen mit Windows 11 und RTX-GPUs ab 8 GByte VRAM.
LLMs laufen auf Windows-11-Computern mit RTX-GPU lstark beschleunigt.
(Bild: Nvidia)
Außerdem erhält die Software einen neuen Wrapper, um Kompatibilität mit dem Chat-API von OpenAI herzustellen. Dann können laut Nvidia viele Entwicklungsprojekte direkt auf dem RTX-PC statt in der Cloud laufen.
Verbesserte Highend-Prozessoren
Weitere Nvidia-News gibt es auf dem Feld des Supercomputing. Bei der in Denver stattfindenden Supercomputing-Konferenz „SC23“ in Denver stellte Nvidia mit „HGX H200“ eine Hopper-basierte und leistungsfähigere Architektur vor. Sie kombiniert eine „H200-Tensor-Core“-GPU als erster Baustein dieser Art mit schnellem HBM3e-Speicher, um große Datenmengen bewegen zu können.
Nvidias Grace Hopper (GH)-Prozessoren integrieren eine CPU mit einer GPU mittels eines schnellen Interconnect.
(Bild: Nvidia)
Nvidia fasst zum ersten Mal vier „GH200 Grace Hopper Superchips“ zusammen. Insgesamt sind das 288 „ARM-Neoverse“-Cores mit bis zu 16 PFlops AI-Leistung.
Die Cores können auf 2,3 TByte gemeinsamen Hochleistungsspeicher zugreifen. Vernetzt sind die vier GH200 untereinander mittels Nvidia NVLink, einer Hochgeschwindigkeitsverbindung.
Jülich setzt auf Nvidia GH200
Genutzt wird diese Konstellation etwa von „Jupiter“, dem Höchstleistungsrechner im Forschungszentrum Jülich. Er gehört der gemeinsamen europäischen Initiative EuroHPC. Neben Nvidia arbeiten auch Partec, Eviden und Sipearl an dem Projekt mit.
Basis des Systems ist die flüssig gekühlte Architektur „Bull Sequana XH3000“ von Eviden. Sie enthält ein Beschleunigermodul mit etwa 24.000 Nvidia-GH200-Superchips. Verbunden werden sie über ein „Nvidia Quantum-2-Infiniband“-Netzwerk.
Der neue Supercomputer in Jülich setzt für den Beschleuniger Jupiter Konfigurationen aus vier aus Nvidia GH200-Prozessoren ein und vervielfacht damit die Leistung gegenüber dem Vorgänger.
(Bild: Nvidia)
Das System schafft beim AI-Training eine Leistung von 90 ExaFlops – etwa 45 mal mehr als der Jülicher Vorläufer-Booster „Juwels“. Dazu kommt ein ExaFlops für HPC-Anwendungen. Der Stromverbrauch liegt bei nur 18,2 Megawatt.
Hauptanwendungsgebiete werden Klima- und Wetterprognosen, das Finden neuer medikamententauglicher chemischer Verbindungen (Drug Discovery), Industrie-Anwendungen wie digitale Zwillinge und die Weiterentwicklung von Quantencomputing sein.
Quantensimulation mit Nvidia
Die Nvidia-Hardware eignet sich zur Simulation von Quantenrechnern. Mit seiner Plattform „Cuda Quantum“ kann Nvidia GPUs, CPUs und Quantencomputerprogrammieren Das nutzt beispielsweise der Chemieriese BASF zur Identifikation umweltschädlicher Stoffe.
Auf dem GH200, einer Kombination auf H200 (GPU) und G200 (Prozessor), basiert auch der neue, auf der SC23 vorgestellter Supercomputer „HPE Cray EX2500“. Dabei werden jeweils vier der GH200-Prozessoren zusammengeschaltet. Am Ende ergeben sich Architekturen mit mehreren Zehntausend Rechenknoten.
In Japan, Großbritannien und den USA entstehen weitere Supercomputer mit dem Chip. Insgesamt ist er in mehr als 40 derartige Systeme integriert.