Nvidia: GPU-Power für neuronale Netze Digits 2 verdoppelt Leistung bei Deep Learning Trainings

Anbieter zum Thema

Nvidia hat auf der Konferenz „International Conference On Machine Learning“ (ICML) Aktualisierungen seiner GPU-beschleunigten Deep-Learning-Software „Digits 2“ sowie der Entwicklungsplattform „CUDA“ angekündigt.

Deep Learning: Nvidia  Digits 2 verdoppelt die Performance.
Deep Learning: Nvidia Digits 2 verdoppelt die Performance.
(Bild: Nvidia)

Nvidia unterstützt Wissenschaftlicher, die sich mit komplexen Simulationen und anderen rechenintensiven Anwendungen befassen schon seit längerem unter anderem mit seinem kostenlosen Digits-Toolkit. Was liegt näher, als die Rechen-Power moderner GPUs für komplexe Berechnungen zu nutzen? Die Software erlaubt das Erstellen neuronaler Netze zur Lösung komplexer numerischer Probleme, sowie das Visualisieren der Ergebnisse

Digits Dev Box

Im Frühjahr hatte Nvidia bereits die Digits Dev Box angekündigt, ein leistungsfähiger Forschungsrechner als All-In-One-Plattform für Deep Learning. Hierbei handelt es sich um einem geräumigen „Ubuntu“-Desktop-PC mit vier „Titan-X“-Karten, 64 GByte Speicher und einer Core-i7-CPU für rund 15.000 Dollar.

Seine 28 Teraflpos erreicht das im Vergleich zu einem Supercomputer, der für eine solche Leistung vor rund fünf Jahren noch notwendig gewesen wäre, mit gerade mal 1.300 Watt Leistungsaufnahme. Um das Jahr 2000 veranschlagte man für 1 Teraflop noch rund 1 Megawatt. Die „Digits Dev Box“ erlaubt es Forschern, Deep-Learning-Studien quasi out-of-the-box umzusetzen.

Erste Ergebnisse von Multi-GPU-Trainings zeigen, dass die Digits Dev Box gut skaliert und ein Training des Industrie-Standardmodells AlexNet in 13 Stunden bewältigt, während der schnellste Single-GPU-PC dazu zwei Tage braucht und ein ausschließlich auf CPU-Basis arbeitendes System sogar über einen Monat.

Als Software sind auf dem Linux-basierten System neben Deep-Learning-Klassikern der Open-Source-Welt wie Caffe, Theano, Torch und BIDMach auch nVidias Eigenentwicklungen CuDNN und Cuda (CUDA Deep Neural Network library ) vorinstalliert, die auf der Dev Box beide über da sDeep Learning GPU Training System (Digits) bereit gestellt werden.

Digits 2

Vor wenigen Tagen hat Nvidia nun Digits, das in erster Linie einer einfache visuellen Aufbereitung, sowie der vereinfachten Konfiguration der verschiedenen Deep-Learning-Anwendungen dient, auf Version 2 aktualisiert. Die Software kann von jedermann kostenlos heruntergeladen werden.

Digits hilft beim Visualsieren, hier: Test-Images
Digits hilft beim Visualsieren, hier: Test-Images
(Bild: Nvidia)

Das Deep Learning GPU Training System 2 (Digits 2), sowie die Nvidia CUDA Deep Neural Network Library Version 3 (cuDNN 3) sollen die Leistung bei Deep Learning Trainings verdoppeln und neue Funktionen mitbringen.

So können Daten-Wissenschaftler Deep-Learning-Projekte oder Produktentwicklungen noch massiver vorantreiben, da schnelleres Modell-Training und anspruchsvolleres Modell-Design akkuratere, genauere Neuralnetze ermöglichen. Digits 2 bietet nun automatische Skalierung von Neural Network Training auf mehrere High-Performance-GPUs. cuDNN 3 liefert eine optimierte Speicherverwaltung im GPU-Speicher zum Training von größeren, anspruchsvolleren Neuralnetzen.

Weitere Einzelheiten erläutert Software-Architektin Allison Gray in einem Video.

(ID:43508439)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung