Ein System für Multi-Precision-Workloads Nvidia-Plattform taugt für HPC und KI
Im Rahmen der „GPU Technology Conference“ (GTC) in Taiwan stellt Nvidia seine Cloud-Server-Plattform „HGX-2“ vor. Diese soll erstmalig Künstliche Intelligenz (KI) und High Performance Computing vereinen.
Anbieter zum Thema

Die Nvidia-Plattform ermögliche zum einen präzise Berechnungen, indem sie FP64 und FP32 für wissenschaftliches Rechnen und Simulationen nutzt. Gleichzeitig unterstützt sie FP16 und Int8 für das Training von KI und Inferenzen. Damit entstehe eine hohe Flexibilität der Plattform, da sie die Anforderungen verschiedener Anwendungstypen unterstützen könne, teilt der Hersteller mit.
Jensen Huang, Gründer und Chief Executive Officer von Nvidia erläutert den Hintergrund der Entwicklung: „Die Welt der Computer hat sich verändert“, sagte er auf der GPU Technology Conference Taiwan, die heute eröffnet wurde. „Die CPU-Skalierung hat sich in einer Zeit verlangsamt, in der die Rechenleistung sprunghaft ansteigt. Nvidia HGX-2 mit „Tensor Core“- Grafikprozessoren bietet der Industrie nun eine leistungsstarke, vielseitige Computerplattform, die HPC und AI vereint.“
Die Performance ist atemberaubend: HGX-2 kommt auf eine Rekordgeschwindigkeit von 15.500 Bildern pro Sekunde beim ResNet-50 Training und kann somit bis zu 300 reine CPU-Server ersetzen. Das System enthält die Interconnect Fabric „Nvidia NVSwitch“, die 16 Grafikprozessoren der Ausführung „Nvidia Tesla V100 Tensor Core“ zu einem einzigen, riesigen Grafikprozessor mit zwei Petaflops an KI-Leistung verbindet.
Das erste System, das mit HGX-2 gebaut wurde, ist die kürzlich angekündigte „Nvidia DGX-2“-Applaince.
OEM und ODM-Systeme geplant
HGX-2 folgt ein Jahr nach der Markteinführung des Modells HGX-1 auf der Messe „Computex 2017“. Die HGX-1-Referenzarchitektur hat inzwischen bei führenden Server-Herstellern sowie Unternehmen, die Hyperscale-Rechenzentren betreiben, wie Amazon Web Services, Facebook und Microsoft, breite Akzeptanz gefunden.
Auch jetzt haben bereits Lenovo, QCT, Supermicro und Wiwynn angekündigt, ihre eigenen HGX-2-basierten Systeme noch in diesem Jahr auf den Markt zu bringen. Darüber hinaus entwickeln vier der weltweit führenden Original-Design-Hersteller (ODMs) - Foxconn, Inventec, Quanta und Wistron - HGX-2-basierte Systeme für den Einsatz in einigen der größten Cloud-Rechenzentren der Welt.
Ed Wu, Corporate VP bei Foxconn, sagte beispielsweise: „Foxconn/Ingrasys widmete sich seit langem dem Hyper-Scale-Computing. Wir haben uns schon bei der HGX-1 mit Nvidia und Microsoft zusammengetan.“ Nun freue er sich als strategischer Partner über HGX-2. „Es ist die vielversprechendste Lösung, um den explosiven Bedarf an künstlicher Intelligenz und Deep Learning zu decken […]“
(ID:45330071)