Bestleistung bei KI-Benchmarks

Nvidia liegt in der Machine-Learning -Performance sechsmal vorne

| Redakteur: Ulrike Ostler

Die neue Benchark-Suite „MLPerf“ liefert Performance-kennzahlen für eine ganze Reihe von Deep-Learning-Workloads. Für die Nvidia-Tests setzten die Ingenieure auf DGX-Systeme mit „V100 Tensor Core“ GPUs.
Die neue Benchark-Suite „MLPerf“ liefert Performance-kennzahlen für eine ganze Reihe von Deep-Learning-Workloads. Für die Nvidia-Tests setzten die Ingenieure auf DGX-Systeme mit „V100 Tensor Core“ GPUs. (Bild: Nvidia)

Die „MLPerf“ Benchmarks sind neu, sind im Bereich des Maschinellen Lernens und des Deep Learning angesiedelt und werden von Google, Intel, Baidu, Nvidia und Dutzenden weiteren IT-Anbietern unterstützt. Das Ziel dieser Benchmarks ist es, objektive und vergleichbare Leistungskennzahlen für eine Reihe von Workloads in diesem Umfeld zu bekommen: Visualisierung, Sprach- und Bilderkennung, personalisierte Empfehlungen beispielsweise. Nvidia hat sechs Benchmark-Tests gewonnen.

Die neuen Benchmarks decken decken neben einer Vielzahl von Workloads auch verschiedene Infrastrukturgrößen ab - von 16 GPUs auf einem Knoten bis hin zu bis zu 640 GPUs auf 80 Knoten. Die Kategorien, in denen Nvidia überzeugte, gehören Bildklassifizierung, Objektinstanzsegmentierung, Objekterkennung, Einmalübersetzung, Wiederholungsübersetzung und Empfehlungssysteme. Im Bereich „Verstärkungslernen“, der siebten Kategorie, hatte Nvidia keine Ergebnisse eingereicht.

Die Nvidia-Ingenieure schickten die DGX-Systeme des Herstellers ins Rennen, darunter erst kürzlich eingeführte System „DGX-2“, das weltweit leistungsstärkste KI-System mit 16 vollständig angeschlossenen „V100 Tensor Core“ GPUs.

Test Platform: DGX-2H – Dual-Socket Xeon Platinum 8174, 1.5 TB System RAM, 16 x 32 GB Tesla V100 SXM-3 GPUs verbunden über NVSwitch.
Test Platform: DGX-2H – Dual-Socket Xeon Platinum 8174, 1.5 TB System RAM, 16 x 32 GB Tesla V100 SXM-3 GPUs verbunden über NVSwitch. (Bild: Nvidia)

Allerdings reiche es dafür nicht aus, großartige.Einzelkomponeneten einzusetzen, heißt es. Bei dem so genannten Accelerated Computing gehe es um mehr als nur um einen Beschleuniger, sondern um den gesamten Stack, so steht es auf dem Unternehmens-Blog. Der von Nvidia umfasst die „Nvidia Tensor Cores“, „NVLink“, „NVSwitch“, die DGX Systeme, „CUDA“, „cuDNNN“, „NCCL“, optimierte Deep Learning Framework Container und das Nvidia Software Development Kit.

Trotzdem ist die KI-Plattform des Herstellers nach eigenen Angaben auch die zugänglichste und erschwinglichste. Die Tensor Core GPUs sind in jeder Cloud und von jedem Computerhersteller und in jeder Region verfügbar.

Test Platformen: Für die Bildkalssifizierung ünd Übersetzung (non-recurrent) wurde das DGX-1V Cluster genommen, für die Objekterkennung (Heavy Weight) und Light Weight), Übersetzung (recurrent) das DGX-2H Cluster. Jedes System DGX-1V war ausgesastattet mit Dual-Socket Xeon E5- 2698 V4, 512 GB RAM und 8 x 16 GB Tesla V100 SXM-2 GPUs. Das System DGX-2H war mit Dual-Socket Xeon Platinum 8174, 1.5 TB RAM, 16 x 32 GB Tesla V100 SXM-3 GPUs bestückt und verbunden mithilfe von NVSwitch.
Test Platformen: Für die Bildkalssifizierung ünd Übersetzung (non-recurrent) wurde das DGX-1V Cluster genommen, für die Objekterkennung (Heavy Weight) und Light Weight), Übersetzung (recurrent) das DGX-2H Cluster. Jedes System DGX-1V war ausgesastattet mit Dual-Socket Xeon E5- 2698 V4, 512 GB RAM und 8 x 16 GB Tesla V100 SXM-2 GPUs. Das System DGX-2H war mit Dual-Socket Xeon Platinum 8174, 1.5 TB RAM, 16 x 32 GB Tesla V100 SXM-3 GPUs bestückt und verbunden mithilfe von NVSwitch. (Bild: Nvidia)

Außerdem steht laut Hersteller die gleiche Leistung von Tensor Core Grafikprozessoren auch auf dem Desktop, zur Verfügung, wobei der leistungsstärkste Desktop-Grafikprozessor, „Nividia Titan RTX“, 2.500 Dollar kostet. Bei einer Abschreibung über drei Jahre ergibt sich daraus ein paar Cent pro Stunde.

Der Stack wird immer in der Nvidia GPU Cloud (NGC) Cloud Registry aktualisiert, so dass die rekordträchtige Plattform jetzt zur Verfügung steht. Zudem sind die Software-Innovationen und -Optimierungen kostenlos im den NGC Deep Learning Containern über die NGC-Container-Registry erhältlich.

Die Container enthalten den kompletten Software-Stack und die wichtigsten AI-Frameworks, die von Nvidia optimiert wurden. Das Release 18.11 der NGC Deep Learning Container enthält jetzt die Software, mit der die MLPerf-Ergebnisse erzielt wurden.

Nvidia ist das einzige Unternehmen, das sechs Benchmarks erreicht hat. Nach Interpretation des Unternehmens zeigt das die Vielseitigkeit der V100 Tensor Core GPUs. Der Test, in dem Nvidia besonders gut abschnitt, sind Übersetzungen natürlicher Sprache; das dafür notwendige neuronale Netzwerk war in nur 6,2 Minuten trainiert (mehr Infos dazu im Nvidia Developer News Center).

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45656073 / Komponenten)