Nvidia AI Enterprise für VMware vSphere KI mit Breitenwirkung durch vSphere als Basis

Autor: Klaus Länger

In Kooperation mit VMware bringt Nvidia KI-Workloads auf „vSphere“. Mit der Software Suite „Nvidia AI Enterprise“ sollen nun Hunderttausende von Kunden relativ unkompliziert branchenspezifische KI-Lösungen einsetzen können. Die Basis bilden zertifizierte Server.

Firma zum Thema

Die AI Enterprise-Software-Suite soll einer ganzen Reihe von Branchen die unkomplizierte Nutzung von KI-Workloads auf virtualisierten Systemen ermöglichen. Denn die Software ist exklusiv für das brandneue VMware vSphere 7 Update 2 bestimmt.
Die AI Enterprise-Software-Suite soll einer ganzen Reihe von Branchen die unkomplizierte Nutzung von KI-Workloads auf virtualisierten Systemen ermöglichen. Denn die Software ist exklusiv für das brandneue VMware vSphere 7 Update 2 bestimmt.
(Bild: Nvidia)

Nvidia sieht sich selbst im professionellen Markt nicht mehr als reiner Hardwarehersteller, sondern als Lösungsanbieter für vertikale Märkte wie die Fertigungsindustrie, Logistik, den Finanzsektor, den Einzelhandel oder das Gesundheitswesen. Hier sieht der Hersteller Bedarf nach KI-Anwendungen für intelligente Fabriken, die Betrugserkennung bei Finanzdienstleistungen oder die Diagnostik im Gesundheitswesen, die Nvidia gemeinsam mit den Partnern im Channel und OEM-Partnern adressieren will.

Einen ordentlichen Schub soll hier die Kooperation mit VMware für die Software Suite Nvidia AI Enterprise für VMWare vSphere bringen, die für das gerade ankündigte Update 2 der Virtualisierungssoftware bestimmt ist. Mit ihr können IT-Abteilungen in Unternehmen KI-Anwendungen mit den selben Werkzeugen managen, die sie auch sonst für die Verwaltung ihrer Rechenzentren und der hybriden Cloud verwenden.

Damit sinkt die Komplexität in der IT-Landschaft, da keine parallelen Infrastrukturen für KI-Anwendungen benötigt werden oder gar in Form einer Schatten-IT in den Fachabteilungen existieren. Nvidia AI Enterprise soll zudem unter vSphere eine skalierbare, mehrknotenfähige KI-Anwendungsleistung liefern, die annähernd das Niveau von Bare-Metal-Servern erreicht.

Bildergalerie

Als Basis dienen dabei durch Nvidia für die Verwendung von „A100“-GPUs zertifizierte Server. Zu den ersten derartigen Systemen zählen die folgenden Modelle:

  • Dell EMC Poweredge R7525 und R740
  • Gigabyte R281-G30, R282-Z96, G242-Z11, G482-Z54, G492-Z51
  • HPE Apollo 6500 Gen10 und HPE Proliant DL380 Gen10
  • Inspur NF5488A5
  • Supermicro A+ Server AS -4124GS-TNR und AS -2124GQ-NART

Die Komponenten von AI Enterprise

Die AI Enterprise Suite besteht aus einem ganzen Satz an für Nvidia-GPUs optimierten KI-Anwendungen und Frameworks wie etwa Tensor Flow, Pytorch, Rapids, TensorRT, dem „Nvidia Transfer Learning Toolkit“ und dem „Nvidia Triton Inference Server“, jeweils angepasst an bestimmte Aufgabenbereiche. Dazu kommen noch vortrainierte Modelle, Tools für das Cloud-native Deployment und Infrastruktur-Werkzeuge wie „Nvidia vGPU“, „Magnum IO“, „Cuda -X AI“ und das „Doca SDK“ für „Bluefield“ DPUs.

VMWare hat in vSphere 7 Update 2 die Unterstützung spezieller Funktionen der A100-GPUs integriert. So kann „GPUDirect RDMA for vGPUs“ genutzt werden, um eine direkte Kommunikation zwischen GPUs in unterschiedlichen Nodes zu ermöglichen. Zudem wird durch „Multi-Instance GPU“ (MIG) die geteilte Nutzung einer GPU durch bis zu sieben VMs ermöglicht und auch das Verschieben von MIG-Instanzen zu anderen A100-Hosts. Diese Funktionen bietet vSphere derzeit als einzige Server-Virtualisierungslösung.

Nvidia AI Enterprise ist als unbefristete Lizenz zu einem Preis von 3.595 Dollar pro CPU-Sockel erhältlich. Der Enterprise Business Standard Support für Nvidia AI Enterprise schlägt mit 899 Dollar pro Jahr und Lizenz zu Buche.

(ID:47273457)

Über den Autor

 Klaus Länger

Klaus Länger

Redakteur