Nvidia: GPU-Power für neuronale Netze Digits 2 verdoppelt Leistung bei Deep Learning Trainings
Anbieter zum Thema
Nvidia hat auf der Konferenz „International Conference On Machine Learning“ (ICML) Aktualisierungen seiner GPU-beschleunigten Deep-Learning-Software „Digits 2“ sowie der Entwicklungsplattform „CUDA“ angekündigt.

Nvidia unterstützt Wissenschaftlicher, die sich mit komplexen Simulationen und anderen rechenintensiven Anwendungen befassen schon seit längerem unter anderem mit seinem kostenlosen Digits-Toolkit. Was liegt näher, als die Rechen-Power moderner GPUs für komplexe Berechnungen zu nutzen? Die Software erlaubt das Erstellen neuronaler Netze zur Lösung komplexer numerischer Probleme, sowie das Visualisieren der Ergebnisse
Digits Dev Box
Im Frühjahr hatte Nvidia bereits die Digits Dev Box angekündigt, ein leistungsfähiger Forschungsrechner als All-In-One-Plattform für Deep Learning. Hierbei handelt es sich um einem geräumigen „Ubuntu“-Desktop-PC mit vier „Titan-X“-Karten, 64 GByte Speicher und einer Core-i7-CPU für rund 15.000 Dollar.
:quality(80)/images.vogel.de/vogelonline/bdb/841900/841934/original.jpg)
Deep Learning funktioniert durch paralleles Rechnen
Nvidia, Chappie oder: Computer sind auch nur Menschen
Seine 28 Teraflpos erreicht das im Vergleich zu einem Supercomputer, der für eine solche Leistung vor rund fünf Jahren noch notwendig gewesen wäre, mit gerade mal 1.300 Watt Leistungsaufnahme. Um das Jahr 2000 veranschlagte man für 1 Teraflop noch rund 1 Megawatt. Die „Digits Dev Box“ erlaubt es Forschern, Deep-Learning-Studien quasi out-of-the-box umzusetzen.
Erste Ergebnisse von Multi-GPU-Trainings zeigen, dass die Digits Dev Box gut skaliert und ein Training des Industrie-Standardmodells AlexNet in 13 Stunden bewältigt, während der schnellste Single-GPU-PC dazu zwei Tage braucht und ein ausschließlich auf CPU-Basis arbeitendes System sogar über einen Monat.
Als Software sind auf dem Linux-basierten System neben Deep-Learning-Klassikern der Open-Source-Welt wie Caffe, Theano, Torch und BIDMach auch nVidias Eigenentwicklungen CuDNN und Cuda (CUDA Deep Neural Network library ) vorinstalliert, die auf der Dev Box beide über da sDeep Learning GPU Training System (Digits) bereit gestellt werden.
Digits 2
Vor wenigen Tagen hat Nvidia nun Digits, das in erster Linie einer einfache visuellen Aufbereitung, sowie der vereinfachten Konfiguration der verschiedenen Deep-Learning-Anwendungen dient, auf Version 2 aktualisiert. Die Software kann von jedermann kostenlos heruntergeladen werden.
Das Deep Learning GPU Training System 2 (Digits 2), sowie die Nvidia CUDA Deep Neural Network Library Version 3 (cuDNN 3) sollen die Leistung bei Deep Learning Trainings verdoppeln und neue Funktionen mitbringen.
So können Daten-Wissenschaftler Deep-Learning-Projekte oder Produktentwicklungen noch massiver vorantreiben, da schnelleres Modell-Training und anspruchsvolleres Modell-Design akkuratere, genauere Neuralnetze ermöglichen. Digits 2 bietet nun automatische Skalierung von Neural Network Training auf mehrere High-Performance-GPUs. cuDNN 3 liefert eine optimierte Speicherverwaltung im GPU-Speicher zum Training von größeren, anspruchsvolleren Neuralnetzen.
Weitere Einzelheiten erläutert Software-Architektin Allison Gray in einem Video.
(ID:43508439)