GPU-Beschleunigung im Massenmarkt

Nvidia-GPUs im Mainstream-Server und High-Performance Workstations für Data Scientists

| Redakteur: Ulrike Ostler

Die GPU-beschleunigte Workstation soll Data Scientists und Analysten beflügeln. Nvidia stellte jetzt das Referenzdesign vor.
Die GPU-beschleunigte Workstation soll Data Scientists und Analysten beflügeln. Nvidia stellte jetzt das Referenzdesign vor. (Bild: Nvidia)

Nvidia will eine neue Klasse an Workstations einführen - die mit GPUs ausgestattet sind und für so genannte Data Scientists, Analysten und Ingenieure geeignet sind. Die Systeme bieten speziell für Datenanalysen, Maschinelles Lernen und Deep Learning extreme Rechenleistung sowie Werkzeuge, die erforderlich sind, um riesige Datenmengen vorzubereiten, zu verarbeiten und zu analysieren.

Das Nvidia-Design soll in rechenintensiven Anwendungen in Bereichen wie Finanzen, Versicherungen, Einzelhandel und professionelle Dienstleistungen verwendet werden. Der GPU-Hersteller macht sich jedoch nicht allein auf den Weg. Das Unternehmen arbeitet mit OEMs und Systemherstellern zusammen, um die leistungsstarke neue Workstations bereitzustellen, darunter BlazingDB, Boxx, Charter Communications, Datalogue, Dell, Graphistry, H2O.ai, HP, Kinetica, Lenovo, MapR, MIT und Omnisci.

Die Nvidia-basierten Workstations basieren somit auf einer leistungsstarken Referenzarchitektur, die aus zwei High-End-Grafikprozessoren „Nvidia Quadro RTX“ und der Sammlung von Bibliotheken „Nividia CUDA-X AI“ besteht. Dazu kommt Spezialsoftware wie „Rapids“, „Tensorflow“, „Pytorch“ und „Caffe“.

Jensen Huang, Gründer und CEO von Nvidia, erläutert die Notwendigkeit einer solchen Workstation: „Data Science ist eines der am schnellsten wachsenden Gebiete der Informatik und betrifft jede Branche. So sind die Unternehmen bestrebt, den Wert ihrer Geschäftsdaten durch maschinelles Lernen zu erschließen und sie stellen deshalb Data Scientists in einer beispiellosen Rate ein.“ Diese benötigten leistungsstarke Workstations.

Die beschleunigte Workstation

„Mit unseren Partnern stellen wir Nvidia-basierte Data-Science-Workstations vor, ertüchtigt durch unsere neuen Turing Tensor Core GPUs und CUDA-X AI-Beschleunigungsbibliotheken. Sie ermöglichen es Datenwissenschaftlern, prädiktive Modelle zu entwickeln, die ihr Geschäft revolutionieren können“, so Huang.

Zu den Vorteilen, die die Nvidia-Workstations mitbringen, zählt der Hersteller:

Ergänzendes zum Thema
 
Nvidia per Cloud
  • Duale Quadro RTX-Grafikprozessoren - Basierend auf der jüngsten Nvidia Turing GPU-Architektur und für den Einsatz in Unternehmen konzipiert, liefern die dualen Quadro RTX 8000 und 6000 GPUs bis zu 260 Teraflops Rechenleistung und 96 Gigabyte Speicherplatz unter Verwendung der „Nvidia NVLink“-Verbindungstechnologie. Damit sollen die Workstations genügend Kapazität und Bandbreite bieten, um die größten Datensätze und rechenintensiven Workloads zu verarbeiten, sowie die Grafikleistung, die für die 3D-Visualisierungen von massigen Datensätzen, einschließlich Virtual Reality (VR), benötigt werden.
  • Data Science Software-Stack, basierend auf dem Linux-Betriebssystem und Docker-Containern:
    - Nvidia CUDA-X AI ist eine Sammlung von GPU-Bibliotheken zur Beschleunigung von Deep Learning, Machine Learning und Datenanalyse (siehe auch: Kasten). CUDA-X AI enthält cuDNNN zur Beschleunigung von Deep-Learning-Primitiven, cuML zur Beschleunigung von maschinellen Lernalgorithmen, TensorRT zur Optimierung von trainierten Modellen für Inferenz und über 15 weitere Bibliotheken. Zusammen arbeiten sie mit Nvidia Tensor Core GPUs zusammen, um die End-to-End-Workflows für die Entwicklung und Bereitstellung von KI-basierten Anwendungen zu beschleunigen. CUDA-X AI kann in Deep Learning Frameworks wie Tensorflow, Pytorch und MXNet sowie in Cloud-Plattformen wie AWS, „Microsoft Azure“ und „Google Cloud“ integriert werden.
    - Nvidia Rapids bietet eine Reihe von GPU-beschleunigten Bibliotheksanalysen für die Datenaufbereitung, für traditionelles Maschinelles Lernen und für Grafikanalysen.
    - Eine Anaconda Distribution der Anaconda, Inc. – Sie bietet als Nvidia Anaconda Distribution, eine innovative Möglichkeit Python/R, Data Science, KI und Machine Learning zu nutzen.
  • Enterprise ready - Getestet und optimiert in Zusammenarbeit mit Workstation-Herstellern, um den Anforderungen unternehmenskritischer Implementierungen gerecht zu werden.
  • Optionaler Software-Support - Bietet Sicherheit durch von Nvidia entwickelte Software und Container, einschließlich Deep Learning und Machine Learning Frameworks.

Mike Koelemay ist leitender Data Scientist bei Lockheed Martin Rotary & Mission Systems. Er zeigt sich angetan von den Workstations: „Die Nvidia-basierte Data-Science-Workstation ermöglicht es uns, End-to-End-Datenverarbeitungs-Pipelines mit großen Datensätzen schneller denn je zu betreiben.“ Insbesondere die Nutzung von Rapids und die Verlagerung von Workloads auf die GPUs reduziere die Entwicklungszeit von Modellen.

Die Nvidia-basierten Workstations sind ab sofort bei globalen Anbietern wie Dell, HP und Lenovo sowie regionalen Systemherstellern erhältlich, darunter AMAX, APY, Azken Muga, Boxx, CADNetwork, Carri, Colfax, Delta, Exxact, Microway, Scan, Sysgen und Thinkmate.

Eine Nvidia-T4-Server-Wand
Eine Nvidia-T4-Server-Wand (Bild: Nvidia)

Nidia-GPUs im Mainstream-Server

GPUs, die in Servern rechnen, ist dagegen fast schon normal. Doch „ganz gewöhnliche Enterprise-Server? Nvidia gab gestern auf seiner Hausmesse „GTC“ bekannt, dass Mainstream-Server, die für den Betrieb der „Nvidia Data Science Acceleration“ Software optimiert sind, ab sofort von sieben der weltweit größten Systemhersteller erhältlich sind: Cisco, Dell EMC, Fujitsu, Hewlett Packard Enterprise (HPE), Inspur, Lenovo und Sugon:

  • Cisco UCS C240 M5
  • Dell EMC Poweredge R740/R740xd
  • Fujitsu Primergy RX2540 M5
  • HPE Proliant DL380 Gen10
  • Inspur NF5280M5
  • Lenovo Thinksystem SR670
  • Sugon W760-G30

Sie bieten nun Server mit „Nvidia T4“-Grafikprozessoren an, die für den Betrieb von CUDA-X AI Accelerated Data Analytics, Machine Learning und Deep Learning konzipiert sind. Mit einer Leistungsaufnahme von nur 70 Watt und der Integration in bestehende Rechenzentrumsinfrastrukturen kann die GPU T4 sowohl KI-Training und -Inferenz, maschinelles Lernen, Datenanalyse und virtuelle Desktops beschleunigen.

Ian Buck, Vice President und General Manager of Accelerated Computing bei Nvidia sagt: „Die schnelle Einführung von T4 auf den weltweit beliebtesten Business-Servern signalisiert den Beginn einer neuen modernen Ära im Enterprise Computing.“ So profitierten mit T4 Anwender unter anderem von bis zu 33 Prozent mehr VDI-Leistung als mit nur CPU und Grid vPC.

Die Nvidia-GPU "T4"
Die Nvidia-GPU "T4" (Bild: Nvidia)

So sagt Susan Nash, Senior Vice President of Strategic Corporate Alliances bei VMware: „Nvidia und VMware arbeiten seit langem zusammen, um Unternehmen zu befähigen, ihre Rechenzentrumsressourcen zu maximieren. Diese sind bestrebt, sowohl die VDI- als auch die Arbeitsbelastung im Machine und Deep Learning zu beschleunigen und gleichzeitig ihren Return on Investment zu maximieren. Die Nvidia T4-basierten Server bieten eine Lösung für diese Unternehmen, verbunden mit mehr Flexibilität, besserer Auslastung und Schutz ihrer VMware-Infrastrukturinvestitionen.“

Die von Cisco, Dell EMC, Fujitsu, HPE, Inspur, Lenovo und Sugon angekündigten Systeme sind „Nvidia NGC-Ready“ validiert. Das im November gestartete Programm bietet eine Reihe ausgewählter Systeme, die auf Nvidia-Grafikprozessoren mit Tensor Cores basieren und für eine Vielzahl von KI-Workloads ideal sind. Die im Rahmen des NGC-Ready-Validierungsprozesses getestete Software ist bei Nvidia NGC erhältlich, einem umfassenden Repository von GPU-beschleunigter Software, vorgeschulten AI-Modellen, Modelltrainings für Datenanalysen, Maschinelles Lernen, Deep Learning und High Performance Computing. Darüber hinaus haben mehrere andere Partner den Validierungsprozess für ihre T4-Server gestartet.

Nvidia-Support ist über die Partner verfügbar, die NGC-Ready-Systeme verkaufen:

  • Für Cisco gilt das bereits für eine „Nvidia V100“-System: Cisco UCS C480 ML
  • HPE wird den Service für den HPE Proliant DL380 Gen10 Server als validierten NGC-Ready T4 Server im Juni anbieten.
Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45810655 / Konvergente Systeme)