Kubernetes-Cluster unter Ubuntu auf DGX-2

Canonical fügt dem Nvidia-KI-Stack sein Open-Source-Betriebssystem hinzu

| Redakteur: Ulrike Ostler

Die Betriebssystem-Konkurrenz „Red Hat Enterprise Linux“ läuft schon auf den DGX-Systemen von Nvidia.
Die Betriebssystem-Konkurrenz „Red Hat Enterprise Linux“ läuft schon auf den DGX-Systemen von Nvidia. (Bild: Nvidia)

Betriebssystemlieferant Canonical und GPU-Hersteller Nvidia arbeiten zusammen. Das soll Unternehmen dabei helfen, die Einführung von KI in Multi-Cloud-Umgebungen und am Edge zu beschleunigen.

Unternehmen stehen derzeit vor der Herausforderung, künstliche Intelligenz und maschinelles Lernen (KI und ML) effektiv, skalierend und mit minimaler Komplexität in ihre Prozesse zu integrieren. Doch die AI-Workloads sind anspruchsvoll geworden, und die dafür erforderliche Rechenleistung hat exponentiell zugenommen.

Der Software-Stack von Nvidia für Anwendungen auf dem System „DGX-2“
Der Software-Stack von Nvidia für Anwendungen auf dem System „DGX-2“ (Bild: Nvidia)

Ziel dieser Zusammenarbeit von Canonical und Nvidia ist es, Unternehmen bei der beschleunigten Einführung von KIünstlicher Intelligenz (KI) und Machine Learning (ML) zu unterstützen, und zwar mit dem für das KI-System von Nvidia „DGX-2“ zertifizierten „Ubuntu 18.04 LTS“. Diese Kombination verschaffe Unternehmen eine sehr hohe Leistung, Flexibilität und Sicherheit bei deren KI / ML-Abläufen, so die Partner. So können Unternehmen die Möglichkeit nutzen, alle DGX-Systeme entweder eigenständig oder als Teil eines „Kubernetes“-Clusters unter Ubuntu zu betreiben, um so vollumfänglich containerisierte und cloud-native Entwicklung von GPU-beschleunigten Workloads zu nutzen.

Der Nvidia DGX-2 bietet eine sehr hohe Rechenleistung: 16 der weltweit fortschrittlichsten GPUs liefern 2 Petaflops KI-Leistung. Mit der Kombination aus DGX-2 und Ubuntu 18.04 LTS kommen Data Scientists und Enginieers schneller und größerem Umfang voran und können portable KI-Workloads on-premises, in der Cloud und an der Edge bereitstellen.

Stephan Fabel, Director of Product bei Canonical, erhebt den Anspruch: „Ubuntu ist die bevorzugte KI- und ML-Plattform für Entwickler und das Betriebssystem Nr. 1 für Kubernetes-Implementierungen, on-premise und in der public cloud.“ Diese Zusammenarbeit mit Nvidia ermögliche es Unternehmen, die Produktivität ihrer Entwickler zu steigern und KI schneller über alle Entwicklungsphasen bis zur Produktion zu integrieren.

Charmed Kubernetes“ von Canonical automatisiere die Installation und Aktivierung von Nvidia-GPUs vollständig. Es sei eng in die Public-Cloud-Kubernetes-Angebote integriert, bei denen eine ähnliche Aktivierung auf den ‚worker nodes‘ unter Ubuntu eine portable Multi-Cloud-Erfahrung für KI- und ML-Anwendungsfälle biete, lässt Tony Paikeday, Director AI Systems bei Nvidia, wissen.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46222224 / Middleware)