Grafikprozessor für Künstliche Intelligenz und High-Performance-Computing

Neue Server-Generation nutzt Nvidias V100-GPUs

| Autor / Redakteur: Michael Matzer / Ludger Schmitz

Der Nvidia Tesla V100 for PCIe schaufelt Daten über dieses Bussystem.
Der Nvidia Tesla V100 for PCIe schaufelt Daten über dieses Bussystem. (Bild: Nvidia)

Nvidia hat eine neue Server-Generation seiner Hardware-Partner vorgestellt, die alle seine neue Volta-GPU V100 nutzen. Der Prozessor ist für Machine Learning und KI optimiert, entsprechende Rechner dürften im November auf der Supercomputing Conference zu sehen sein

Im Sommer 2017 überreichte Nvidias Firmenchef Jensen Huang noch erste Exemplare der V100-GPU noch höchstpersönlich an Forschungszentren wie das DFKI - mittlerweile wird das gute Stück in Serie produziert. Die ersten angekündigten Server kommen von Dell EMC, HPE, IBM und Supermicro. In China wollen Branchenriesen wie Aliba, Baidu und Tencent Holdings die V100-GPUs so schnell wie möglich nutzen. Huawei, Inspur und Lenovo haben die Volta HGX Architecture gewählt, um auf dieser Grundlage KI-Systeme für Rechenzentren zu bauen.

„Immer mehr Firmen setzen die Möglichkeiten von Künstlicher Intelligenz und Machine Learning ein, so dass die Nachfrage nach beschleunigter Informatik im Rechenzentrum kontinuierlich zunimmt“, sagt Ian Buck von Nvidia. „Unser neues Volta-basiertes HGX-Design setzt einen neuen Standard für blitzschnelle, aber zugleich energieeffiziente Rechenzentren, die den anspruchsvollsten Trainings- und Inferenzanforderungen in der KI-Informatik genügen.“

Hohe Rechenleistung als Motivation

Die Gründe für die Nachfrage nach der neuen Grafikkarte leuchten ein, sobald man die Leistungsdaten betrachtet. Die Volta-Architektur ermöglicht die Integration herkömmlicher CUDA-basierter Rechenkerne mit Tensor-Kernen, die für Machine Learning optimiert sind. Zu den 640 Tensor-Kernen in einer V100 kommen also noch einmal 21 Milliarden Transistoren in den CUDA-Kernen hinzu.

Der HBM2-DRAM transferiert die Daten mit 900 GB/s, die je nach Version entweder mit NVlink-Interconnect oder dem PCIe-Bus zum Restsystem (CPU, GPU) geschaufelt werden. Für die beiden Interconnects gibt es also zwei Versionen: V100-PCIe und V100-SXM2. Schon eine kleine Menge von V100-Karten, in einen passenden Server mit Nvidia-Software eingebaut, kann für KI-Zwecke Hunderte von stromfressenden CPUs ersetzen, denn schon eine einzige liefert 125 Teraflop/s Deep-Learning-Leistung (Training und Inferenz). Verglichen mit dem Vorgängermodell, der P100, erlaubt eine V100 die zwölffache DL-Trainingsleistung und die sechsfache Inferenzleistung.

Die Nvidia HGX Referenzarchitektur 2017 erlaubt die Nutzung von Nvlink- und PCIe-gestützten GPUs in den Servern von Nvidia-Partnern.
Die Nvidia HGX Referenzarchitektur 2017 erlaubt die Nutzung von Nvlink- und PCIe-gestützten GPUs in den Servern von Nvidia-Partnern. (Bild: Nvidia)

Zu den angekündigten V100-basierten Systemen gehören:

Dell EMC

PowerEdge R730 und PowerEdge R740XD unterstützen jeweils bis zu drei V100-GPUs für PCIe. PowerEdge C4130 unterstützt vier V100 für PCIe oder vier V100 für den NVlink-Interconnect. Dell EMC hat einige höchst aufschlussreiche Vergleichstests zwischen P100- und V100-Einsatzszenarien durchgeführt und publiziert.

HPE

Der HPE Apollo 6500 unterstützt bis zu acht V100 für PCIe. Der HPE ProLiant DL380-Server kann bis zu drei V100 für PCIe beherbergen.

IBM

Big Blue hat noch nicht detailliert genannt, welche Servermodelle die V100 enthalten, aber es steht fest, dass alle diese Server den neuen POWER9-Chip enthalten werden. Wie schon mit der P100 wird auch bei V100-basierten Servern der NVlink-Interconnect zum Zuge kommen: sowohl zwischen GPUs als auch zwischen GPU und CPU. Brad McCredie von IBM, zuständig für Cognitive Systems, kündigte auch Support für den PCIe-4-Bus an.

Supermicro

Die 7048GR-TR Workstation nutzt die V100 für HPC in allen geeigneten Einsatzbereichen, während die Server-Systeme 4028GR-TXRT, 4028GR-TRT und 4028GR-TR2 für die anspruchsvollsten DL-Anwendungen ausgelegt sind. Der SuperServer 4028GR-TXRT unterstützt acht V100 mit NVlink-Interconnect, der mehr als fünfmal so schnell ist wie der PCIe-3-Bus. Server mit der Bezeichnung 1028GQ-TRT werden für Anwendungen im anspruchsvollen Einsatzbereich für Advanced Analytics (Predictive Maintenance, Wettervorhersage usw.) gebaut.

Penguin Computing

Der Hersteller aus Fremont, USA, baut die V100 in seine Intel-basierten Relion- und seine AMD-basierten Altus-Server ein, die zwei verschiedene SXM2-Formfaktoren aufweisen. Je nach Formfaktor bringt Penguin vier oder acht V100-GPUs unter, die jeweils mit dem schnellen NVlink-Interconnect verbunden sind.

„Die von unseren Partnern gebauten Volta-Systeme“, so Ian Buck von Nvidia, „werden sicherstellen, dass Unternehmen in aller Welt Zugang zu der Technologie haben, die sie brauchen, um ihre KI-Forschung zu beschleunigen und überzeugende neue KI-Produkte und -Services zu liefern.“

* Michael Matzer ist freiberuflicher Journalist in Waldenbuch.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44937785 / Server)