Künstliche Intelligenz puscht die Hardware und Cloud-Angebote Nvidia mit Microsoft und viel mehr Supercomputing

Von lic.rer.publ. Ariane Rüdiger Lesedauer: 6 min |

Anbieter zum Thema

Nvidia verstärkt seine Kooperation mit „Microsoft Azure“, wie auf Microsofts Tagung „Ignite“ verkündet wurde. Außerdem hat der Chip- und Hardwarehersteller Neuigkeiten im Bereich Supercomputing.

Mit vielen Neuigkeiten präsentierte sich Nvidia auf der Microsoft-Konferenz Ignite und auf einer US-Supercomputing-Konferenz.
Mit vielen Neuigkeiten präsentierte sich Nvidia auf der Microsoft-Konferenz Ignite und auf einer US-Supercomputing-Konferenz.
(Bild: Nvidia)

Das nennt man 'Koopetion', wenn Microsoft auf derselben Veranstaltung, eben Ignite, einen eigenen KI-Chip vorstellt (siehe: „Microsoft macht eigene KI-Chips“). Während einige Medien darüber aus dem Häuschen geraten, bleibt Gartner-Analyst Alan Priestley eher gelassen.

Er kommentiert die Ankündigung mit den folgenden Worten: „Viele aktuelle KI-Entwicklungen nutzen Grafikprozessoren (GPUs). Diese sind gute Chips für allgemeine Anwendungen, die sich für die Entwicklung großer Sprachmodelle eignen. Für Cloud-Anbieter wie Microsoft, die eine kosteneffiziente Bereitstellung in großem Umfang anstreben, ist die Entwicklung eigener Chips zwar kostspielig, kann aber eine kostengünstigere Lösung darstellen, insbesondere wenn sie die Kosten pro Transaktion senken müssen.“

Er verweist zudem darauf, dass auch andere Hyperscaler bereits ihre eigenen Chips für KI-Workloads entwickeln, und es liege nahe, dass Microsoft dies ebenfalls möchte; denn: „Die Bereitstellung einer groß angelegten Infrastruktur zum Hosten von LLMs (Large Language Models) wie ChatGPT ist teuer. Hyperscaler wie Microsoft können ihre eigenen, für diese Anwendungen optimierten Chips nutzen, um die Betriebskosten zu senken - und damit die Kosten für Verbraucher und Unternehmen, zu reduzieren, welche diese LLMs nutzen möchten.“

In jedem Fall aber können Azure-User demnächst auf erheblich erweiterte, Nvidia-basierte AI-Services zugreifen: Nvidias „AI Foundry“ steht jetzt auf Microsoft Azure bereit. Dazu gehören Nvidia AI-Basismodelle (Foundation Models), das Framework und die Tools von „Nvidia Nemo“ und die Supercomputing-Services sowie Hardware „Nvidia DGX Cloud AI“.

Damit können Anwender auf Azure individuell angepasste Modelle entwickeln. Über „Nvidia AI Enterprise“ können sie mittels so genannter Retrieval Augmented Generation (RAG) diese Modelle mit eigenen Firmendaten verbinden.

Zu den ersten Nutzern gehören SAP SE und Amdocs. SAP will seinen eigenen Generative-AI-'Copiloten' „Joule“ kundenspezifisch anpassen.

Der langjährige MS-Partner Amdocs ist spezialisiert auf Software und Services für die Telekommunikationsindustrie. Nun plant das Unternehmen eine für Telekom- und Medienindustrie-angepasste LLM-Variante. Sie soll die mit Hilfe des neuen Azure-Nvidia-Angebots realisiert werden und zum Amdocs-Framework „Amalz“ gehören.

Preisgekrönte COVID-19-Simulation

Weitere Anwendungen für LLM kommen aus dem Bereich der Biowissenschaften. „GenSLMs“ ist ein auf Genomik spezialisiertes LLM, das im vergangenen Jahr mit einem Preis für HPC-basierte COVID-19-Forschung ausgezeichnet wurde.

Dieses Modell wurde am Aragon National Laboratory, USA, mit Nukleotid-Sequenzen aus COVID-Varianten des ersten Pandemiejahres trainiert. Aus solchen Sequenzen setzen sich RNA und DNA zusammen. Die durch das Modell nach dem Training generierten Sequenzen ähnelten stark denen zweier späterer COVID-Varianten.

Virtuelle Factory für Autobauer

Nvidia selbst stellt die „Omniverse Cloud Factory“, eine Virtual Factory Simulation Engine für die Automobilindustrie auf Azure bereit. Dazu kommt mit der „AV Simulation Engine“ eine Simulationsumgebung für autonome Fahrzeuge.

Die Virtual Factory Simulation Engine aus der Azure-Cloud umfasst diverse individualisierbare Applikationen und Services für Entwickler und Planungsteams. Damit können sie große Datensätze in Echtzeit verbinden, sich darin bewegen, sie abfragen und gemeinsam nutzen.

Ziel ist es, komplette existierende oder geplante Fabriken in 3D zu simulieren. Das soll letztlich Durchsatz und Produktionsqualität in den realen Fabriken steigern und die Kosten senken. Branchenübliche Applikationen wie „Autodesk Factory Planning“ lassen sich einbeziehen.

Nvidia stellt eine Simulationsumgebung für digitale Zwillinge von Automobilfabriken auf Azure online, die deren Planung und Betrieb optimieren soll.
Nvidia stellt eine Simulationsumgebung für digitale Zwillinge von Automobilfabriken auf Azure online, die deren Planung und Betrieb optimieren soll.
(Bild: Nvidia)

Microsoft-Partner T-Systems baut auf Basis der Omniverse-Cloud eine eigene virtuelle Fabrik auf. Mit ihr können die Kunden des Telekommunikations-Providers dann dort arbeiten.

Die „AV Simulation Engine“ bietet auf physikalischen Daten basierende Sensorsimulationen. Damit können AV- und Robotik-Entwickler autonome Systeme in einer geschlossenen virtuellen Umgebung laufen lassen (AV = Augmented Virtuality). Bislang fehlte es bei solchen Simulationen an realistischen Inputs aus der physischen Welt.

Neue Nvidia-Modellfamilie

Der zu Nvidia AI Foundation gehörende Modellkatalog wird um „Nvidia Nemotron-3 8B“-Modelle erweitert, die jetzt im Azure-AI-Modellkatalog stehen. Sie wurden mit acht Milliarden Parametern trainiert und sind mehrsprachig. Nvidia hat Varianten davon für verschiedene Anwendunsszenarien entwickelt. Sie eignen sich als Grundlage für kundenspezifische generative AI-Applkationen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Mit Nvidia DGX Cloud AI können Azure-Nutzer jetzt die nötigen Supercomputing-Ressourcen für AI-Zwecke anmieten. Dadurch sparen sie den Hardware-Invest für Tausende „Tensor-Core“-CPUs für die Anpassung ihrer Modelle.

Mehr AI-Hardware-Auswahl bei Azure

Gleichzeitig bietet Azure zwei neue „Nvidia H-100“-basierte virtuelle Maschinen an, um AI-Workloads zu beschleunigen. Die „NC H100 v5“-VM-Serie verwendet die neuen „Nvidia H100 NVL“- GPUs. Dabei werden zwei H100-GPUs durch ein „Nvidia NVMlink“ verbunden. Die Gesamtleistung liegt bei 4 PFlops, es stehen 188 Gigabyte schneller HBM3-Speicher zur Verfügung. Die Verarbeitung des LLM GPT-3 läuft damit zwölfmal schneller.

Im nächsten Jahr soll für bessere Inferenzleistung ohne Latenz auf Azure auch die noch leistungsfähigere „Nvidia H200Tensor Core“-GPU auf Azure angeboten werden. Sie hat 141 GB HBM3e-Speicher und erreicht einen Spitzenwert von 4,8 Terabyte bei der Speicherbandbreite. Schließlich wird auf Azure die NCC H100 v5 als besonders geschützte Confidential VM bereitgehalten.

HBM3e (e steht für Extension) heißt die neueste HBM-Generation. Sie besteht aus DRAM-Stapeln und erreicht Geschwindigkeiten von über 1 Terabit pro Sekunde (Tbit/s. Angeboten werden die Speicher von Micron und SK Hynix.

AI-Verarbeitung auf Windows-Hardware

PC-User mit „Windows 11“ und „RTX“-GPUs können sich freuen: „TensorRT“-LLM, eine Nvidia-Entwicklungsumgebung zur Beschleunigung von Hochleistungs-Inferenzanwendungen, soll demnächst weitere LLMs (Large Language Models) unterstützen. Die Software läuft auf Systemen mit Windows 11 und RTX-GPUs ab 8 GByte VRAM.

LLMs laufen auf Windows-11-Computern mit RTX-GPU lstark beschleunigt.
LLMs laufen auf Windows-11-Computern mit RTX-GPU lstark beschleunigt.
(Bild: Nvidia)

Außerdem erhält die Software einen neuen Wrapper, um Kompatibilität mit dem Chat-API von OpenAI herzustellen. Dann können laut Nvidia viele Entwicklungsprojekte direkt auf dem RTX-PC statt in der Cloud laufen.

Verbesserte Highend-Prozessoren

Weitere Nvidia-News gibt es auf dem Feld des Supercomputing. Bei der in Denver stattfindenden Supercomputing-Konferenz „SC23“ in Denver stellte Nvidia mit „HGX H200“ eine Hopper-basierte und leistungsfähigere Architektur vor. Sie kombiniert eine „H200-Tensor-Core“-GPU als erster Baustein dieser Art mit schnellem HBM3e-Speicher, um große Datenmengen bewegen zu können.

Nvidias Grace Hopper (GH)-Prozessoren integrieren eine CPU mit einer GPU mittels eines schnellen Interconnect.
Nvidias Grace Hopper (GH)-Prozessoren integrieren eine CPU mit einer GPU mittels eines schnellen Interconnect.
(Bild: Nvidia)

Nvidia fasst zum ersten Mal vier „GH200 Grace Hopper Superchips“ zusammen. Insgesamt sind das 288 „ARM-Neoverse“-Cores mit bis zu 16 PFlops AI-Leistung.

Die Cores können auf 2,3 TByte gemeinsamen Hochleistungsspeicher zugreifen. Vernetzt sind die vier GH200 untereinander mittels Nvidia NVLink, einer Hochgeschwindigkeitsverbindung.

Jülich setzt auf Nvidia GH200

Genutzt wird diese Konstellation etwa von „Jupiter“, dem Höchstleistungsrechner im Forschungszentrum Jülich. Er gehört der gemeinsamen europäischen Initiative EuroHPC. Neben Nvidia arbeiten auch Partec, Eviden und Sipearl an dem Projekt mit.

Basis des Systems ist die flüssig gekühlte Architektur „Bull Sequana XH3000“ von Eviden. Sie enthält ein Beschleunigermodul mit etwa 24.000 Nvidia-GH200-Superchips. Verbunden werden sie über ein „Nvidia Quantum-2-Infiniband“-Netzwerk.

Der neue Supercomputer in Jülich setzt für den Beschleuniger Jupiter Konfigurationen aus vier aus Nvidia GH200-Prozessoren ein und vervielfacht damit die Leistung gegenüber dem Vorgänger.
Der neue Supercomputer in Jülich setzt für den Beschleuniger Jupiter Konfigurationen aus vier aus Nvidia GH200-Prozessoren ein und vervielfacht damit die Leistung gegenüber dem Vorgänger.
(Bild: Nvidia)

Das System schafft beim AI-Training eine Leistung von 90 ExaFlops – etwa 45 mal mehr als der Jülicher Vorläufer-Booster „Juwels“. Dazu kommt ein ExaFlops für HPC-Anwendungen. Der Stromverbrauch liegt bei nur 18,2 Megawatt.

Hauptanwendungsgebiete werden Klima- und Wetterprognosen, das Finden neuer medikamententauglicher chemischer Verbindungen (Drug Discovery), Industrie-Anwendungen wie digitale Zwillinge und die Weiterentwicklung von Quantencomputing sein.

Quantensimulation mit Nvidia

Die Nvidia-Hardware eignet sich zur Simulation von Quantenrechnern. Mit seiner Plattform „Cuda Quantum“ kann Nvidia GPUs, CPUs und Quantencomputer programmieren Das nutzt beispielsweise der Chemieriese BASF zur Identifikation umweltschädlicher Stoffe.

Auf dem GH200, einer Kombination auf H200 (GPU) und G200 (Prozessor), basiert auch der neue, auf der SC23 vorgestellter Supercomputer „HPE Cray EX2500“. Dabei werden jeweils vier der GH200-Prozessoren zusammengeschaltet. Am Ende ergeben sich Architekturen mit mehreren Zehntausend Rechenknoten.

In Japan, Großbritannien und den USA entstehen weitere Supercomputer mit dem Chip. Insgesamt ist er in mehr als 40 derartige Systeme integriert.

(ID:49794439)