Entwicklungsplattform für Deep Learning Nvidias GPU Cloud soll KI-Technologien demokratisieren
Das mit Grafikprozessoren (GPUs) für PCs und Spielekonsolen groß gewordene Unternehmen Nvidia mischt inzwischen vorne im Wachstumsmarkt Künstliche Intelligenz (KI) mit. Mit der Nvidia GPU Cloud (NGC) Container Registry steht KI-Entwicklern nun ein kostenfrei zugänglicher Deep-Learning Software-Stack bereit. Zunächst läuft der Dienst auf der neuen Instanz P3, die Amazon für AWS EC2 vorgestellt hat.
Anbieter zum Thema

Wenngleich der Gaming-Markt für Nvidia immer noch die Cashcow Nummer 1, kommen die Produkte des Chip-Spezialisten inzwischen in vielen weiteren Bereichen zum Einsatz. Dies liegt daran, dass GPUs aufgrund ihrer massiv-parallelen Architektur die für die Verarbeitung riesiger Datenmengen nötige Rechenleistung bieten. Damit stellen sie schon heute die Basis für unzählige Anwendungsfälle, in denen auf KI gesetzt wird. Die Entwicklung selbstfahrender Autos, neuer medizinischer Bildgebungsverfahren und Medikamente oder intelligenter Roboter sind hierfür nur einige wenige Beispiele.
Eine Schlüsselrolle spielen dabei speziell für Deep Learning entwickelte Produkte, wie sie Nvidia anbietet. Diese ermöglichen, Modelle neuronaler Netze in kürzester Zeit zu erstellen, zu trainieren und bereitzustellen. Mit der grafikprozessorbeschleunigten Cloud-Plattform NGC stellt der Hersteller Entwicklern nun eine Lösung zur Verfügung, die ihnen den Einstieg in die Arbeit mit der Technologie und darauf aufsetzender Projekte erleichtern soll.
Schneller Start in die KI-Welt
Für den Zugriff auf die NGC-Container, die jeweils für Nvidia-Grafikprozessoren optimierte und vollständig getestete sowie zertifizierte Deep-Learning-Frameworks, ein Linux-Betriebssystem, Nvidia-Bibliotheken und Cuda Runtime-Versionen enthalten, müssen sich Entwickler zunächst für einen NGC-Account registrieren. Im Anschluss lässt sich auf das Volta Deep Learning Amazon Machine Image (AMI), eine für die Ausführung von Deep Learning Frameworks optimierte Umgebung, zugreifen und eine AMI-Instanz erstellen. In dieser kann nun der gewünschte Software-Stack gezogen und ausgeführt werden. Ebenso lässt sich dieser auf lokale NVIDIA DGX-Systeme herunterladen und nutzen.
Breite Auswahl an Frameworks
In der NGC Container Registry finden KI-Entwickler zahlreiche gängige Frameworks. Hierzu zählen derzeit neben Cuda auch NVCaffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Digits, MXNet, PyTorch, TensorFlow, Theano und Torch. Monatliche Updates stellen sicher, dass Entwickler stets auf optimierte Container mit aktuellen Bibliotheken und Treibern zurückgreifen können.
"Nvidia beschleunigt die Demokratisierung von KI, indem wir Forschern und Entwicklern aus dem Deep-Learning-Bereich den Zugriff auf grafikprozessorbeschleunigte Frameworks erleichtern", erläutert Jim McHugh, Vice President und General Manager Enterprise Systems, die hinter der NGC-Plattform stehende Idee. Dies soll sie von der ansonsten zeitaufwändigen und komplexen eigenen Softwareentwicklung sowie -integration befreien.
Ausweitung auf andere Cloud-Plattformen geplant
Im ersten Schritt stellt Nvidia den Container-Registry-Dienst in der ebenfalls gerade von Amazon für AWS EC2 angekündigten P3-Instanz zur Verfügung. Diese nutzt bis zu acht auf der Volta-Architektur beruhende Tesla V100-Grafikprozessoren, die nach Aussage des Herstellers die Leistung von 100 CPUs in einer Einheit bieten. Künftig sollen die Unterstützung von Lösungen weiterer Cloud-Plattformen folgen, so Nvdia.
(ID:44999359)