Bestleistung bei KI-Benchmarks Nvidia liegt in der Machine-Learning -Performance sechsmal vorne
Die „MLPerf“ Benchmarks sind neu, sind im Bereich des Maschinellen Lernens und des Deep Learning angesiedelt und werden von Google, Intel, Baidu, Nvidia und Dutzenden weiteren IT-Anbietern unterstützt. Das Ziel dieser Benchmarks ist es, objektive und vergleichbare Leistungskennzahlen für eine Reihe von Workloads in diesem Umfeld zu bekommen: Visualisierung, Sprach- und Bilderkennung, personalisierte Empfehlungen beispielsweise. Nvidia hat sechs Benchmark-Tests gewonnen.
Anbieter zum Thema

Die neuen Benchmarks decken decken neben einer Vielzahl von Workloads auch verschiedene Infrastrukturgrößen ab - von 16 GPUs auf einem Knoten bis hin zu bis zu 640 GPUs auf 80 Knoten. Die Kategorien, in denen Nvidia überzeugte, gehören Bildklassifizierung, Objektinstanzsegmentierung, Objekterkennung, Einmalübersetzung, Wiederholungsübersetzung und Empfehlungssysteme. Im Bereich „Verstärkungslernen“, der siebten Kategorie, hatte Nvidia keine Ergebnisse eingereicht.
Die Nvidia-Ingenieure schickten die DGX-Systeme des Herstellers ins Rennen, darunter erst kürzlich eingeführte System „DGX-2“, das weltweit leistungsstärkste KI-System mit 16 vollständig angeschlossenen „V100 Tensor Core“ GPUs.
Allerdings reiche es dafür nicht aus, großartige.Einzelkomponeneten einzusetzen, heißt es. Bei dem so genannten Accelerated Computing gehe es um mehr als nur um einen Beschleuniger, sondern um den gesamten Stack, so steht es auf dem Unternehmens-Blog. Der von Nvidia umfasst die „Nvidia Tensor Cores“, „NVLink“, „NVSwitch“, die DGX Systeme, „CUDA“, „cuDNNN“, „NCCL“, optimierte Deep Learning Framework Container und das Nvidia Software Development Kit.
Trotzdem ist die KI-Plattform des Herstellers nach eigenen Angaben auch die zugänglichste und erschwinglichste. Die Tensor Core GPUs sind in jeder Cloud und von jedem Computerhersteller und in jeder Region verfügbar.
Außerdem steht laut Hersteller die gleiche Leistung von Tensor Core Grafikprozessoren auch auf dem Desktop, zur Verfügung, wobei der leistungsstärkste Desktop-Grafikprozessor, „Nividia Titan RTX“, 2.500 Dollar kostet. Bei einer Abschreibung über drei Jahre ergibt sich daraus ein paar Cent pro Stunde.
Der Stack wird immer in der Nvidia GPU Cloud (NGC) Cloud Registry aktualisiert, so dass die rekordträchtige Plattform jetzt zur Verfügung steht. Zudem sind die Software-Innovationen und -Optimierungen kostenlos im den NGC Deep Learning Containern über die NGC-Container-Registry erhältlich.
Die Container enthalten den kompletten Software-Stack und die wichtigsten AI-Frameworks, die von Nvidia optimiert wurden. Das Release 18.11 der NGC Deep Learning Container enthält jetzt die Software, mit der die MLPerf-Ergebnisse erzielt wurden.
Nvidia ist das einzige Unternehmen, das sechs Benchmarks erreicht hat. Nach Interpretation des Unternehmens zeigt das die Vielseitigkeit der V100 Tensor Core GPUs. Der Test, in dem Nvidia besonders gut abschnitt, sind Übersetzungen natürlicher Sprache; das dafür notwendige neuronale Netzwerk war in nur 6,2 Minuten trainiert (mehr Infos dazu im Nvidia Developer News Center).
Artikelfiles und Artikellinks
(ID:45656073)