Künstliche Intelligenz puscht die Hardware und Cloud-Angebote Nvidia mit Microsoft und viel mehr Supercomputing
Anbieter zum Thema
Nvidia verstärkt seine Kooperation mit „Microsoft Azure“, wie auf Microsofts Tagung „Ignite“ verkündet wurde. Außerdem hat der Chip- und Hardwarehersteller Neuigkeiten im Bereich Supercomputing.

Das nennt man 'Koopetion', wenn Microsoft auf derselben Veranstaltung, eben Ignite, einen eigenen KI-Chip vorstellt (siehe: „Microsoft macht eigene KI-Chips“). Während einige Medien darüber aus dem Häuschen geraten, bleibt Gartner-Analyst Alan Priestley eher gelassen.
Er kommentiert die Ankündigung mit den folgenden Worten: „Viele aktuelle KI-Entwicklungen nutzen Grafikprozessoren (GPUs). Diese sind gute Chips für allgemeine Anwendungen, die sich für die Entwicklung großer Sprachmodelle eignen. Für Cloud-Anbieter wie Microsoft, die eine kosteneffiziente Bereitstellung in großem Umfang anstreben, ist die Entwicklung eigener Chips zwar kostspielig, kann aber eine kostengünstigere Lösung darstellen, insbesondere wenn sie die Kosten pro Transaktion senken müssen.“
Er verweist zudem darauf, dass auch andere Hyperscaler bereits ihre eigenen Chips für KI-Workloads entwickeln, und es liege nahe, dass Microsoft dies ebenfalls möchte; denn: „Die Bereitstellung einer groß angelegten Infrastruktur zum Hosten von LLMs (Large Language Models) wie ChatGPT ist teuer. Hyperscaler wie Microsoft können ihre eigenen, für diese Anwendungen optimierten Chips nutzen, um die Betriebskosten zu senken - und damit die Kosten für Verbraucher und Unternehmen, zu reduzieren, welche diese LLMs nutzen möchten.“
:quality(80)/p7i.vogel.de/wcms/98/19/9819c32e5a32100b2f30eaf05ca5b368/0110419023.jpeg)
Die Hardware-Komponenten hinter der OpenAI-Intelligenz
Die Microsoft-Azure-Infrastruktur für ChatGPT
In jedem Fall aber können Azure-User demnächst auf erheblich erweiterte, Nvidia-basierte AI-Services zugreifen: Nvidias „AI Foundry“ steht jetzt auf Microsoft Azure bereit. Dazu gehören Nvidia AI-Basismodelle (Foundation Models), das Framework und die Tools von „Nvidia Nemo“ und die Supercomputing-Services sowie Hardware „Nvidia DGX Cloud AI“.
Damit können Anwender auf Azure individuell angepasste Modelle entwickeln. Über „Nvidia AI Enterprise“ können sie mittels so genannter Retrieval Augmented Generation (RAG) diese Modelle mit eigenen Firmendaten verbinden.
Zu den ersten Nutzern gehören SAP SE und Amdocs. SAP will seinen eigenen Generative-AI-'Copiloten' „Joule“ kundenspezifisch anpassen.
:quality(80)/p7i.vogel.de/wcms/3b/6c/3b6c2b232b3ab5977d789e08cbd6caf8/0114329554.jpeg)
Joule soll Geschäftsabläufe neu definieren
SAPs Assistent nutzt generative Künstliche Intelligenz
:quality(80)/p7i.vogel.de/wcms/50/b7/50b71fc57e604bef6cfec7fef627aa80/0115047034.jpeg)
Podcast und Artikel: Die SAP-Vision eines Netzwerks intelligenter Unternehmen
SAP-SVP Herzig: „Intelligente Systeme laufen bei uns in der Cloud“
Der langjährige MS-Partner Amdocs ist spezialisiert auf Software und Services für die Telekommunikationsindustrie. Nun plant das Unternehmen eine für Telekom- und Medienindustrie-angepasste LLM-Variante. Sie soll die mit Hilfe des neuen Azure-Nvidia-Angebots realisiert werden und zum Amdocs-Framework „Amalz“ gehören.
Preisgekrönte COVID-19-Simulation
Weitere Anwendungen für LLM kommen aus dem Bereich der Biowissenschaften. „GenSLMs“ ist ein auf Genomik spezialisiertes LLM, das im vergangenen Jahr mit einem Preis für HPC-basierte COVID-19-Forschung ausgezeichnet wurde.
Dieses Modell wurde am Aragon National Laboratory, USA, mit Nukleotid-Sequenzen aus COVID-Varianten des ersten Pandemiejahres trainiert. Aus solchen Sequenzen setzen sich RNA und DNA zusammen. Die durch das Modell nach dem Training generierten Sequenzen ähnelten stark denen zweier späterer COVID-Varianten.
Virtuelle Factory für Autobauer
Nvidia selbst stellt die „Omniverse Cloud Factory“, eine Virtual Factory Simulation Engine für die Automobilindustrie auf Azure bereit. Dazu kommt mit der „AV Simulation Engine“ eine Simulationsumgebung für autonome Fahrzeuge.
Die Virtual Factory Simulation Engine aus der Azure-Cloud umfasst diverse individualisierbare Applikationen und Services für Entwickler und Planungsteams. Damit können sie große Datensätze in Echtzeit verbinden, sich darin bewegen, sie abfragen und gemeinsam nutzen.
Ziel ist es, komplette existierende oder geplante Fabriken in 3D zu simulieren. Das soll letztlich Durchsatz und Produktionsqualität in den realen Fabriken steigern und die Kosten senken. Branchenübliche Applikationen wie „Autodesk Factory Planning“ lassen sich einbeziehen.
Microsoft-Partner T-Systems baut auf Basis der Omniverse-Cloud eine eigene virtuelle Fabrik auf. Mit ihr können die Kunden des Telekommunikations-Providers dann dort arbeiten.
Die „AV Simulation Engine“ bietet auf physikalischen Daten basierende Sensorsimulationen. Damit können AV- und Robotik-Entwickler autonome Systeme in einer geschlossenen virtuellen Umgebung laufen lassen (AV = Augmented Virtuality). Bislang fehlte es bei solchen Simulationen an realistischen Inputs aus der physischen Welt.
Neue Nvidia-Modellfamilie
Der zu Nvidia AI Foundation gehörende Modellkatalog wird um „Nvidia Nemotron-3 8B“-Modelle erweitert, die jetzt im Azure-AI-Modellkatalog stehen. Sie wurden mit acht Milliarden Parametern trainiert und sind mehrsprachig. Nvidia hat Varianten davon für verschiedene Anwendunsszenarien entwickelt. Sie eignen sich als Grundlage für kundenspezifische generative AI-Applkationen.
Mit Nvidia DGX Cloud AI können Azure-Nutzer jetzt die nötigen Supercomputing-Ressourcen für AI-Zwecke anmieten. Dadurch sparen sie den Hardware-Invest für Tausende „Tensor-Core“-CPUs für die Anpassung ihrer Modelle.
Mehr AI-Hardware-Auswahl bei Azure
Gleichzeitig bietet Azure zwei neue „Nvidia H-100“-basierte virtuelle Maschinen an, um AI-Workloads zu beschleunigen. Die „NC H100 v5“-VM-Serie verwendet die neuen „Nvidia H100 NVL“- GPUs. Dabei werden zwei H100-GPUs durch ein „Nvidia NVMlink“ verbunden. Die Gesamtleistung liegt bei 4 PFlops, es stehen 188 Gigabyte schneller HBM3-Speicher zur Verfügung. Die Verarbeitung des LLM GPT-3 läuft damit zwölfmal schneller.
Im nächsten Jahr soll für bessere Inferenzleistung ohne Latenz auf Azure auch die noch leistungsfähigere „Nvidia H200Tensor Core“-GPU auf Azure angeboten werden. Sie hat 141 GB HBM3e-Speicher und erreicht einen Spitzenwert von 4,8 Terabyte bei der Speicherbandbreite. Schließlich wird auf Azure die NCC H100 v5 als besonders geschützte Confidential VM bereitgehalten.
HBM3e (e steht für Extension) heißt die neueste HBM-Generation. Sie besteht aus DRAM-Stapeln und erreicht Geschwindigkeiten von über 1 Terabit pro Sekunde (Tbit/s. Angeboten werden die Speicher von Micron und SK Hynix.
AI-Verarbeitung auf Windows-Hardware
PC-User mit „Windows 11“ und „RTX“-GPUs können sich freuen: „TensorRT“-LLM, eine Nvidia-Entwicklungsumgebung zur Beschleunigung von Hochleistungs-Inferenzanwendungen, soll demnächst weitere LLMs (Large Language Models) unterstützen. Die Software läuft auf Systemen mit Windows 11 und RTX-GPUs ab 8 GByte VRAM.
Außerdem erhält die Software einen neuen Wrapper, um Kompatibilität mit dem Chat-API von OpenAI herzustellen. Dann können laut Nvidia viele Entwicklungsprojekte direkt auf dem RTX-PC statt in der Cloud laufen.
Verbesserte Highend-Prozessoren
Weitere Nvidia-News gibt es auf dem Feld des Supercomputing. Bei der in Denver stattfindenden Supercomputing-Konferenz „SC23“ in Denver stellte Nvidia mit „HGX H200“ eine Hopper-basierte und leistungsfähigere Architektur vor. Sie kombiniert eine „H200-Tensor-Core“-GPU als erster Baustein dieser Art mit schnellem HBM3e-Speicher, um große Datenmengen bewegen zu können.
Nvidia fasst zum ersten Mal vier „GH200 Grace Hopper Superchips“ zusammen. Insgesamt sind das 288 „ARM-Neoverse“-Cores mit bis zu 16 PFlops AI-Leistung.
Die Cores können auf 2,3 TByte gemeinsamen Hochleistungsspeicher zugreifen. Vernetzt sind die vier GH200 untereinander mittels Nvidia NVLink, einer Hochgeschwindigkeitsverbindung.
Jülich setzt auf Nvidia GH200
Genutzt wird diese Konstellation etwa von „Jupiter“, dem Höchstleistungsrechner im Forschungszentrum Jülich. Er gehört der gemeinsamen europäischen Initiative EuroHPC. Neben Nvidia arbeiten auch Partec, Eviden und Sipearl an dem Projekt mit.
Basis des Systems ist die flüssig gekühlte Architektur „Bull Sequana XH3000“ von Eviden. Sie enthält ein Beschleunigermodul mit etwa 24.000 Nvidia-GH200-Superchips. Verbunden werden sie über ein „Nvidia Quantum-2-Infiniband“-Netzwerk.
Das System schafft beim AI-Training eine Leistung von 90 ExaFlops – etwa 45 mal mehr als der Jülicher Vorläufer-Booster „Juwels“. Dazu kommt ein ExaFlops für HPC-Anwendungen. Der Stromverbrauch liegt bei nur 18,2 Megawatt.
Hauptanwendungsgebiete werden Klima- und Wetterprognosen, das Finden neuer medikamententauglicher chemischer Verbindungen (Drug Discovery), Industrie-Anwendungen wie digitale Zwillinge und die Weiterentwicklung von Quantencomputing sein.
Quantensimulation mit Nvidia
Die Nvidia-Hardware eignet sich zur Simulation von Quantenrechnern. Mit seiner Plattform „Cuda Quantum“ kann Nvidia GPUs, CPUs und Quantencomputer programmieren Das nutzt beispielsweise der Chemieriese BASF zur Identifikation umweltschädlicher Stoffe.
Auf dem GH200, einer Kombination auf H200 (GPU) und G200 (Prozessor), basiert auch der neue, auf der SC23 vorgestellter Supercomputer „HPE Cray EX2500“. Dabei werden jeweils vier der GH200-Prozessoren zusammengeschaltet. Am Ende ergeben sich Architekturen mit mehreren Zehntausend Rechenknoten.
In Japan, Großbritannien und den USA entstehen weitere Supercomputer mit dem Chip. Insgesamt ist er in mehr als 40 derartige Systeme integriert.
(ID:49794439)