Power AI Version 2 IBM und Nvidia reduzieren Trainingszeit beim Deep Learning
Mit einer neuen Version der KI-Software „Power AI“ will IBM die Leistung von Deep-Learning-Plattformen verzehnfachen und die Entwicklung von Anwendungen Künstlicher Intelligenz (KI) vereinfachen. Die beachtliche Beschleunigung beruht auf einer Hardware-Brücke zwischen der „IBM-CPU Power 9“ und der neuen GPU „Volta“ von Nvidia.
Anbieter zum Thema

Damit Computer sehen, sprechen, hören und verstehen können, was sie „wahrnehmen“, müssen sie mithilfe von Deep-Learning-Plattformen trainiert werden, so dass ihnen die Mustererkennung und das Verstehen leichter fällt, etwa beim „autonomen“ Autofahren. Bedeutende IT-Firmen wie Google, Intel, IBM, Baidu und Nvidia arbeiten an der Beschleunigung und Verbesserung von Deep-Learning-Plattformen wie die Open Source Library „Tensorflow“ (Google), „Caffe“ (IBM) und anderen.
IBM hat die Version 2 von „Power AI“, der Deep-Learning-Plattform-Distribution für Power-Systeme, vorgestellt. Sie enthält vier Komponenten. Ein neues Werkzeug namens AI Vision soll es einem Entwickler mit begrenzter Deep-Learning-Erfahrung erlauben, Deep-Learning-Modelle für Computer-Sehen zu trainieren und bereitzustellen. Weil das Präparieren von Daten für die Deep-Learning-Verarbeitung eine oft mühevolle Arbeit ist, soll nun das Werkzeug „IBM Spectrum Conductor“ mit seiner Cluster-Virtualisierung und der Spark-Unterstützung den Vorgang der Transformation unstrukturierter wie strukturierter Daten beschleunigen und erleichtern.
Stunden statt Wochen
Power AI 2.0 enthält eine Version von Googles DL-Framework Tensorflow, die mithilfe eines virtualisierten Clusters von GPU-beschleunigten Servern kosteneffiziente, hochperformante Berechnungsmethoden nutzt, um die Trainingszeit für ein Deep-Learning-Modell von Wochen auf Stunden zu verringern. Mithilfe des neuen Werkzeugs „DL Insight“ sollen Data Scientists den Deep-Learning-Trainingsprozess besser überwachen und automatisch die nötigen Parameter anpassen können, um Höchstleistung für diesen aufwendigen Prozess zu erzielen.
„Data Scientists und die Gemeinde der Cognitive-Entwickler werden die Innovationen in der kognitiven Ära anführen“, ist sich Bob Picciano, der Leiter des Cognitive-Computing-Geschäfts bei IBM, sicher. „Unser Ziel mit Power AI ist es, diese Reise möglichst leicht, intuitiv und produktiv zu machen.“
Need for Speed
Eine zentrale Rolle bei der Beschleunigung der GPU-basierten Server-Cluster, auf denen DL-Modelle trainiert werden, spielt die Interconnect-Brücke „Nvidia NVlink“. Sie verbindet die jeweilige IBM Power-CPU mit der jeweiligen Nvidia-GPU (ab „Tesla P100“). In Kombination mit dem IBM CAPI (Coherent Accelerator Processor Interface) erlaubt sie In-memory-Computing. Vorgestellt im letzten Herbst, liegt sie nun in einer leistungsfähigeren Version vor, die doppelt so schnell ist wie NVlink 1.0.
Power AI unterstützt die kürzlich angekündigte Nvidia-Volta-Architektur für Datacenter-fähige GPUs. Für Power-AI-Nutzer weist die neue NVlink-Version daher zwei Vorteile auf: Die Datenübertragung zwischen den im Sommer kommenden Power-9-CPUs und den Volta-GPUs ist nach IBM-Angaben zehnmal schneller als zwischen Volta-GPUs und x86-Prozessoren. X86-CPUs verfügen nicht über NVlink, sondern basieren noch auf der alten PCIe-3.0-Schnittstelle, die bereits vier Jahre alt ist.
Der zweite Vorteil ist besonders für Entwickler von Bedeutung: Die Verbindung zwischen Power-9-CPU und Volta-GPU ist Memory-kohärent, das heißt, der Arbeitsspeicher wird als zusammenhängender Adressraum behandelt. Die Programmierung von GPU-Akzeleratoren wird für Software-Entwickler viel einfacher, weil sie ihre Daten automatisch zwischen dem Systemspeicher, der mit der Power-9-CPU und der GPU verbunden ist, hin und her bewegen können.
Die Tesla-V100-GPU
Die auf der Volta-Architektur basierende „Tesla V100“-Rechenzentrums-GPU durchbricht nach Herstellerangaben die Barriere von 120 Teraflops für Deep-Learning-Anwendungen. Der 900 GB/s HBM2 DRAM erreicht 50 Prozent mehr Memory-Bandbreite als GPUs früherer Generationen.
Volta, Nvidias siebte Generation der GPU-Architektur, ist mit 21 Milliarden Transistoren ausgestattet und liefert die gleiche Deep-Learning-Leistung wie 100 CPUs. Das ist ein Supercomputer in nur einer GPU von der Größe einer Pralinenschachtel.
Die V100 bietet laut Nvidia hinsichtlich Spitzen-Teraflops eine fünffache Steigerung gegenüber „Pascal“ (etwa P100), der aktuellen GPU-Architektur-Generation, und eine 15-fache Steigerung gegenüber der „Maxwell“-Architektur, die zwei Jahre alt ist. Damit ist die Volta-GPU V100 in den Augen des Herstellers optimal für KI, Machine Learning und DL geeignet. Damit die Entwickler dies auch ausnützen können, soll Volta-optimierte Software, einschließlich CUDA-, cuDNN- und TensorRT-Software, „problemlos“ mit führenden Frameworks und Applikationen zusammenarbeiten.
IBM-Stimmen
„Mit der PowerAI-Ankündigung zeigt IBM, wie mit neuen und verbesserten Werkzeugen für die Datenaufbereitung die Lernphase eines KI-Systems von Wochen auf Stunden verkürzt werden kann“, sagt Ingolf Wittmann, Technical Director & Leader of HPC. „Dies wird unterstützt durch die Power/NVLINK-Architektur der IBM Power Systems S822LC für HPC. Die enge Kopplung der CPUs und GPUs sorgt für einen vielfach schnelleren Datentransfer als eine PCIe-3.0-Schnittstelle. IBM-Power-Systeme eignen sich speziell für große und komplexe Datenmengen für die nächste Ära von Computing."
„Der NVlink 2.0 erlaubt die optimale und einfache Nutzung der NVlink 2.0 mithilfe eines Pakets von Open-Source-Komponenten, nämlich Power AI 2.0“, sagt Wolfgang Maier, Direktor Hardware Development bei IBM Deutschland Forschung & Entwicklung in Böblingen. „Data Scientists profitieren dadurch von einer wesentlich einfacheren Implementierung und Handhabung ihrer DL-Modelle sowie von drastisch reduzierten Trainingszeiten.“ Sie könnten sich damit besser auf ihre eigentliche Aufgabe – die Ausarbeitung ihrer AI-Methoden – statt deren technischer Umsetzung fokussieren.“
Anwender
Der finnische Content-Management-Dienstleister Elinar Oy Ltd. hat nach den Worten seines CTO Ari Juntunen die Erfahrung gemacht, dass Power AI mit GPU-Akzeleratoren mindestens die doppelte Performance seiner bisherigen x86-basierten IT-Plattform bietet. „Alles ist einfacher: das Hinzufügen von Memory-Speicher, das Aufsetzen von Servern usw.“ Als Vorteil könne Elinar Oy neue Lösungen viel schneller auf den Markt bringen, was es erlaube, den Wettbewerbsvorteil zu behalten.
Das südkoreanische Unternehmen Korean Electric Power Research Institution (KEPRI) nutzt Drohnen für die luftgestützte Überwachung von Hochspannungsleitungen. Von diesem Einsatzszenario können viele Energieversorger profitieren, denn jeden Winter sind ihre Überlandleitungen großen Belastungen ausgesetzt, wie letztes Jahr der schwedische ERP-Spezialist IFS demonstrierte.
Der Knackpunkt ist die intelligente und rasche Auswertung der von den Drohnen gelieferten Bilder. „Wir brauchten eine Plattform für Deep Learning und Hochgeschwindigkeitsspeicherung“, berichtet Chan-Wook Lim von Kepri. „Power AI entspricht diesen Anforderungen, sodass wir unser System verbessern und zugleich eine Kostensenkung bei unseren Inspektionen erzielen können.“
Artikelfiles und Artikellinks
(ID:44698052)