Wachsende Nachfrage nach containerisierter KI-Entwicklung Nvidia zertifiziert AI-Enterprise für VMware, Cisco und Hitachi Vantara
Die jüngste Nvidia-Version 1.1 von „AI Enterprise Software Suite“ bietet Unterstützung für „VMware vSphere“ mit „Tanzu“ für die KI-Entwicklung mit Kubernetes-Containern und virtuellen Maschinen. Sie wird zeitgleich mit dem Debüt der vom Hersteller zertifizierten Systeme von Cisco und Hitachi Vantara eingeführt.
Anbieter zum Thema

Bisher hat die VMware-Unterstützung und die Validierung für die 'MLOps Enterprise'-Plattform mit VMware vSphere/Tanzu von Domino Data Lab nur auf Testbasis zur Verfügung gestanden. Jetzt können Unternehmen mit Nvidia-Technik beschleunigte KI-Workloads auf mithilfe von der AI Enterprise Software Suite vSphere ausführen, und zwar sowohl in Kubernetes-Containern als auch in virtuellen Maschinen. Diese Integration ermöglicht es mehr Unternehmen, Data Science kosteneffizient zu skalieren, indem Forschung, Modellentwicklung und Modellbereitstellung auf beschleunigten Mainstream-Servern beschleunigt werden.
Nach Angaben von Nvidia gehören zu den von Kunden am häufigsten nachgefragten Funktionen von der Software-Suite die Produktionsunterstützung für die Ausführung auf VMware vSphere mit Tanzu, die es Entwicklern ermöglicht, KI-Workloads sowohl auf Containern als auch auf virtuellen Maschinen innerhalb ihrer vSphere-Umgebungen auszuführen. Jetzt biete die von Nvidia und VMware kuratierte KI-Plattform einen integrierten, vollständigen Stack aus containerisierter Software und Hardware, die für KI optimiert sind und vollständig von der IT verwaltet werden.
Außerdem kündigt Nvidia an, in Kürze VMware vSphere mit Tanzu-Unterstützung in das eigene „Launchpad“-Programm für AI Enterprise aufzunehmen, das an neun Equinix-Standorten auf der Welt verfügbar ist. Qualifizierte Unternehmen können KI-Workloads kostenlos in den Labs testen und prototypisieren, die für KI-Praktiker und IT-Administratoren entwickelt wurden. Die Labs zeigen, wie man gängige KI-Workloads wie Chatbots und Empfehlungssysteme mit der Nvidia-Suite und VMware vSphere sowie bald auch mit Tanzu entwickelt und verwaltet.
Das Verwalten containerisierter, virtueller KI
Vor allem Letzteres ist zumeist noch Neuland. Während Unternehmen containerisierte Entwicklung für KI gerne nutzen, erfordert die Komplexität dieser Workloads eine Orchestrierung über viele Infrastrukturebenen hinweg. Nach Herstellerangaben soll AI Enterprise 1.1 dabei helfen, diese Probleme zu lösen
Das spiegelt auch die Aussage von Gary Chen, Research Director, Software Defined Compute bei IDC, wider: „KI ist ein sehr beliebter moderner Workload, der zunehmend in Containern eingesetzt wird. Die Bereitstellung von KI-Funktionen in großem Umfang im Unternehmen kann jedoch äußerst komplex sein und erfordert eine Aktivierung auf mehreren Ebenen des Stacks, von KI-Software-Frameworks, Betriebssystemen, Containern, VMs und bis hin zur Hardware. Schlüsselfertige KI-Komplettlösungen können die Bereitstellung erheblich vereinfachen und KI im Unternehmen zugänglicher machen."
Mehr Hardware, mehr Partner
Vier neue Systemintegrationspartner schließen sich dem Ökosystem der Systemintegratoren an, die Nvidia AI Enterprise anbieten. Amax, Colfax International, Exxact Corporation und Lambda schließen sich damit einem globalen Ökosystem von Vertriebspartnern an, zu dem auch Axians, Carahsoft Technology Corp., Computacenter, Insight Enterprises, NTT, Presidio, Sirius, Softserve, SVA System Vertrieb Alexander GmbH, TD Synnex, Trace3 und World Wide Technology gehören. Zudem gibt es neue Hardware für die AI-Software-Suite.
Das erste Cisco-System mit entsprechender Zertifizierung ist der Rack-Server „UCS C240 M6“ mit „A100 Tensor Core“-GPUs. Der 2RU-Formfaktor mit zwei Sockeln eignet sich für eine Vielzahl von speicher- und I/O-intensiven Anwendungen wie Big-Data-Analysen, Datenbanken, Zusammenarbeit, Virtualisierung, Konsolidierung und High-Performance-Computing.
Siva Sivakumar, Vice President of Product Management bei Cisco, ergänzt die Information: „Nvidia-zertifizierte Cisco UCS Server, die von `Cisco Intersight´ angetrieben werden, bieten die besten KI-Workload-Erfahrungen auf dem Markt. Die Zertifizierung des Cisco UCS C240 M6 Rack-Servers für AI Enterprise ermöglicht es Kunden, KI mit der gleichen Infrastruktur und Management-Software zu implementieren, die sie in ihrem Rechenzentrum einsetzen.“
Das erste System von Hitachi Vantara, das durch ein Zertifikat bestätigt mit AI Enterprise kompatibel ist, ist der „Advanced Server DS220 G2“ mit A100 Tensor Core GPUs. Der Allzweck-Server mit zwei Prozessoren ist für Leistung und Kapazität optimiert und bietet nach Herstellerangaben ein ausgewogenes Verhältnis von Rechen- und Speicherkapazität mit der Flexibilität, eine breite Palette von Lösungen und Anwendungen zu betreiben.
Dan McConnell, Senior Vice President, Product Management bei Hitachi Vantara, erläutert: „Für viele Unternehmen sind die Kosten ein wichtiger Faktor beim Einsatz neuer Technologien wie KI-gestützte Qualitätskontrolle, Empfehlungssysteme, Chatbots und mehr.“ Die GPU-beschleunigten und zertifizierten „Unified Compute Platform“ (UCP) mit dem Hitachi Server sei ein guter Weg, um kostengünstig eine leistungsstarke KI-fähige Infrastruktur ins Rechenzentren zu integrieren.
On premises oder bare metal
Zu den weiteren Hardware-Anbietern, die die AI-Enterprise Suite von Nvidia unterstützen, gehören Atos, Dell Technologies, Gigabyte, H3C, Hewlett Packard Enterprise, Inspur, Lenovo und Supermicro. Ihre Systeme sind ebenfalls mit A100, „A30“ oder anderen Nividia-GPUs ausgestattet. Kunden können NVIDIA AI Enterprise auch auf ihren eigenen Servern oder auf einer As-a-Service-Bare-Metal-Infrastruktur von Equinix Metal in neun Regionen weltweit einsetzen.
(ID:47948884)