Entwicklungsplattform für Deep Learning

Nvidias GPU Cloud soll KI-Technologien demokratisieren

| Redakteur: Tina Billo

Mit der Nvidia GPU Cloud (NGC) will der Hersteller das Potenzial von KI für jedermann frei zugänglich machen.
Mit der Nvidia GPU Cloud (NGC) will der Hersteller das Potenzial von KI für jedermann frei zugänglich machen. (Bild: Nvidia)

Das mit Grafikprozessoren (GPUs) für PCs und Spielekonsolen groß gewordene Unternehmen Nvidia mischt inzwischen vorne im Wachstumsmarkt Künstliche Intelligenz (KI) mit. Mit der Nvidia GPU Cloud (NGC) Container Registry steht KI-Entwicklern nun ein kostenfrei zugänglicher Deep-Learning Software-Stack bereit. Zunächst läuft der Dienst auf der neuen Instanz P3, die Amazon für AWS EC2 vorgestellt hat.

Wenngleich der Gaming-Markt für Nvidia immer noch die Cashcow Nummer 1, kommen die Produkte des Chip-Spezialisten inzwischen in vielen weiteren Bereichen zum Einsatz. Dies liegt daran, dass GPUs aufgrund ihrer massiv-parallelen Architektur die für die Verarbeitung riesiger Datenmengen nötige Rechenleistung bieten. Damit stellen sie schon heute die Basis für unzählige Anwendungsfälle, in denen auf KI gesetzt wird. Die Entwicklung selbstfahrender Autos, neuer medizinischer Bildgebungsverfahren und Medikamente oder intelligenter Roboter sind hierfür nur einige wenige Beispiele.

Eine Schlüsselrolle spielen dabei speziell für Deep Learning entwickelte Produkte, wie sie Nvidia anbietet. Diese ermöglichen, Modelle neuronaler Netze in kürzester Zeit zu erstellen, zu trainieren und bereitzustellen. Mit der grafikprozessorbeschleunigten Cloud-Plattform NGC stellt der Hersteller Entwicklern nun eine Lösung zur Verfügung, die ihnen den Einstieg in die Arbeit mit der Technologie und darauf aufsetzender Projekte erleichtern soll.

Über die Nvidia GPU Cloud-Plattform können KI-Entwickler jetzt kostenfrei auf den umfassenden Deep-Learning Software-Stack des Chip-Spezialisten zugreifen.
Über die Nvidia GPU Cloud-Plattform können KI-Entwickler jetzt kostenfrei auf den umfassenden Deep-Learning Software-Stack des Chip-Spezialisten zugreifen. (Bild: Nvidia)

Schneller Start in die KI-Welt

Für den Zugriff auf die NGC-Container, die jeweils für Nvidia-Grafikprozessoren optimierte und vollständig getestete sowie zertifizierte Deep-Learning-Frameworks, ein Linux-Betriebssystem, Nvidia-Bibliotheken und Cuda Runtime-Versionen enthalten, müssen sich Entwickler zunächst für einen NGC-Account registrieren. Im Anschluss lässt sich auf das Volta Deep Learning Amazon Machine Image (AMI), eine für die Ausführung von Deep Learning Frameworks optimierte Umgebung, zugreifen und eine AMI-Instanz erstellen. In dieser kann nun der gewünschte Software-Stack gezogen und ausgeführt werden. Ebenso lässt sich dieser auf lokale NVIDIA DGX-Systeme herunterladen und nutzen.

Breite Auswahl an Frameworks

In der NGC Container Registry finden KI-Entwickler zahlreiche gängige Frameworks. Hierzu zählen derzeit neben Cuda auch NVCaffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Digits, MXNet, PyTorch, TensorFlow, Theano und Torch. Monatliche Updates stellen sicher, dass Entwickler stets auf optimierte Container mit aktuellen Bibliotheken und Treibern zurückgreifen können.

In der Container Registry finden KI-Entwickler zahlreiche für die Ausführung auf Nvidia-Grafikprozessoren optimierte gängige Frameworks.
In der Container Registry finden KI-Entwickler zahlreiche für die Ausführung auf Nvidia-Grafikprozessoren optimierte gängige Frameworks. (Bild: Nvdia)

"Nvidia beschleunigt die Demokratisierung von KI, indem wir Forschern und Entwicklern aus dem Deep-Learning-Bereich den Zugriff auf grafikprozessorbeschleunigte Frameworks erleichtern", erläutert Jim McHugh, Vice President und General Manager Enterprise Systems, die hinter der NGC-Plattform stehende Idee. Dies soll sie von der ansonsten zeitaufwändigen und komplexen eigenen Softwareentwicklung sowie -integration befreien.

Ausweitung auf andere Cloud-Plattformen geplant

Im ersten Schritt stellt Nvidia den Container-Registry-Dienst in der ebenfalls gerade von Amazon für AWS EC2 angekündigten P3-Instanz zur Verfügung. Diese nutzt bis zu acht auf der Volta-Architektur beruhende Tesla V100-Grafikprozessoren, die nach Aussage des Herstellers die Leistung von 100 CPUs in einer Einheit bieten. Künftig sollen die Unterstützung von Lösungen weiterer Cloud-Plattformen folgen, so Nvdia.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44999359 / Anwendungen)