Nvidia AI Enterprise für VMware vSphere KI mit Breitenwirkung durch vSphere als Basis
In Kooperation mit VMware bringt Nvidia KI-Workloads auf „vSphere“. Mit der Software Suite „Nvidia AI Enterprise“ sollen nun Hunderttausende von Kunden relativ unkompliziert branchenspezifische KI-Lösungen einsetzen können. Die Basis bilden zertifizierte Server.
Anbieter zum Thema

Nvidia sieht sich selbst im professionellen Markt nicht mehr als reiner Hardwarehersteller, sondern als Lösungsanbieter für vertikale Märkte wie die Fertigungsindustrie, Logistik, den Finanzsektor, den Einzelhandel oder das Gesundheitswesen. Hier sieht der Hersteller Bedarf nach KI-Anwendungen für intelligente Fabriken, die Betrugserkennung bei Finanzdienstleistungen oder die Diagnostik im Gesundheitswesen, die Nvidia gemeinsam mit den Partnern im Channel und OEM-Partnern adressieren will.
Einen ordentlichen Schub soll hier die Kooperation mit VMware für die Software Suite Nvidia AI Enterprise für VMWare vSphere bringen, die für das gerade ankündigte Update 2 der Virtualisierungssoftware bestimmt ist. Mit ihr können IT-Abteilungen in Unternehmen KI-Anwendungen mit den selben Werkzeugen managen, die sie auch sonst für die Verwaltung ihrer Rechenzentren und der hybriden Cloud verwenden.
:quality(80)/images.vogel.de/vogelonline/bdb/1790900/1790952/original.jpg)
Server mit Testat für Anwendungen der Künstlichen Intelligenz
Ab jetzt gibt es Nvidia-zertifizierte KI-Rechner
Damit sinkt die Komplexität in der IT-Landschaft, da keine parallelen Infrastrukturen für KI-Anwendungen benötigt werden oder gar in Form einer Schatten-IT in den Fachabteilungen existieren. Nvidia AI Enterprise soll zudem unter vSphere eine skalierbare, mehrknotenfähige KI-Anwendungsleistung liefern, die annähernd das Niveau von Bare-Metal-Servern erreicht.
Als Basis dienen dabei durch Nvidia für die Verwendung von „A100“-GPUs zertifizierte Server. Zu den ersten derartigen Systemen zählen die folgenden Modelle:
- Dell EMC Poweredge R7525 und R740
- Gigabyte R281-G30, R282-Z96, G242-Z11, G482-Z54, G492-Z51
- HPE Apollo 6500 Gen10 und HPE Proliant DL380 Gen10
- Inspur NF5488A5
- Supermicro A+ Server AS -4124GS-TNR und AS -2124GQ-NART
Die Komponenten von AI Enterprise
Die AI Enterprise Suite besteht aus einem ganzen Satz an für Nvidia-GPUs optimierten KI-Anwendungen und Frameworks wie etwa Tensor Flow, Pytorch, Rapids, TensorRT, dem „Nvidia Transfer Learning Toolkit“ und dem „Nvidia Triton Inference Server“, jeweils angepasst an bestimmte Aufgabenbereiche. Dazu kommen noch vortrainierte Modelle, Tools für das Cloud-native Deployment und Infrastruktur-Werkzeuge wie „Nvidia vGPU“, „Magnum IO“, „Cuda -X AI“ und das „Doca SDK“ für „Bluefield“ DPUs.
:quality(80)/images.vogel.de/vogelonline/bdb/1753800/1753866/original.jpg)
Netzwerkbeschleuniger für das Rechenzentrum
Nvidia stellt DPU Bluefield-2(X) vor
VMWare hat in vSphere 7 Update 2 die Unterstützung spezieller Funktionen der A100-GPUs integriert. So kann „GPUDirect RDMA for vGPUs“ genutzt werden, um eine direkte Kommunikation zwischen GPUs in unterschiedlichen Nodes zu ermöglichen. Zudem wird durch „Multi-Instance GPU“ (MIG) die geteilte Nutzung einer GPU durch bis zu sieben VMs ermöglicht und auch das Verschieben von MIG-Instanzen zu anderen A100-Hosts. Diese Funktionen bietet vSphere derzeit als einzige Server-Virtualisierungslösung.
Nvidia AI Enterprise ist als unbefristete Lizenz zu einem Preis von 3.595 Dollar pro CPU-Sockel erhältlich. Der Enterprise Business Standard Support für Nvidia AI Enterprise schlägt mit 899 Dollar pro Jahr und Lizenz zu Buche.
(ID:47273457)