Suchen

Künstliche Intelligenz für XXXL-Größen Nvidia und ODMs gründen das HGX Partner Program

| Redakteur: Ulrike Ostler

Zusammen mit den Original Design Manufacturers (ODMs) Foxconn, Inventec, Quanta und Wistron hat Nvidia ein „HGX Partner Program“ ins Leben gerufen. In dessen Rahmen gewährt der Hersteller Zugriff auf Details seiner „Nvidia HGX“-Referenzarchitektur, GPU-Computing-Technologien sowie Designrichtlinien. Ziel ist es, der steigenden Nachfrage nach KI-Cloud-Computing schneller gerecht zu werden.

Firma zum Thema

Mit dem „HGX Partner Program“ gewährt Nvidia Zugriff auf Details der „HGX“-Referenzarchitektur, GPU-Computing-Technologien sowie Designrichtlinien.
Mit dem „HGX Partner Program“ gewährt Nvidia Zugriff auf Details der „HGX“-Referenzarchitektur, GPU-Computing-Technologien sowie Designrichtlinien.
(Bild: Nvidia)

Mit HGX als Basis wollen Nvidia und die Partner-ODMs schneller eine große Bandbreite an geeigneten GPU-beschleunigten Systemen für Hyperscale-Rechenzentren entwickeln und auf den Markt bringen. Dafür wollen die Nvidia-Ingenieure dabei eng mit den ODMs zusammenarbeiten, um die Zeit zwischen dem Design-Win und dem serientauglichen Einsatz zu minimieren.

Das Datacenter-Design HGX kommt etwa im Microsoft-Projekt „Olympus” zum Tragen, in den „Big Basin Systemen“ von Facebook sowie im Nvidia AI-Supercomputers „DGX-1“ AI. Können die ODM-Partner HGX quasi als Rezept für den Bau eigener GPU-beschleunigter Systeme verwenden, beschleunigt sich auch das Design und der Marktzugang dieser Systeme, so die Hoffnung der Partner.

Die Gehäuse “HGX-1” nehmen in der Standard-Konfiguration acht „Tesla”-GPUs auf, die per „NVLink“ verbunden sind. Das verwendetet PCIe-Switching erlaubt, dass sich eine CPU dynamisch mit jeglicher Anzahl an GPUs verbinden kann.
Die Gehäuse “HGX-1” nehmen in der Standard-Konfiguration acht „Tesla”-GPUs auf, die per „NVLink“ verbunden sind. Das verwendetet PCIe-Switching erlaubt, dass sich eine CPU dynamisch mit jeglicher Anzahl an GPUs verbinden kann.
(Bild: Nvidia)

Die Anforderung basiert auf der Beobachtung, dass im Verlauf des vergangenen Jahres die Nachfrage nach KI-Computing-Ressourcen scharf zugenommen habe und damit die Akzeptanz der GPU-Plattform von Nvidia. Derzeit setzen 10 der 10 Hyperscaler auf die Akzeleratoren des Herstellers. Die jüngste Variante trägt die Bezeichnung „Volta“, deren Performance dreimal so hoch sein soll, wie die des Vorgängermodells.

Das Standard-HGX-Design umfasst acht „Tesla”-GPUs im Design von „SXM2“, mithilfe von „NVLink“ vermascht in einer Art Würfel. Ein modulares Prinzip sorgt dafür, dass HGX-Gehäuse in existente Racks passen und mit Hyperscale-CPU-Knoten zusammenarbeiten können.

Sowohl „Tesla P100” als auch “V100” GPU-Akzeleratoren sind HGX-kompatibel. Somit lassen sich alle Systeme umrüsten, sobald die V100 GPU später im Jahr verfügbar sein werden.

HGX bietet sich für Cloud-Provider an, die überlegen, die „Nvidia Cloud Plattform” zu nutzen. Diese wiederum kann auf einen ganzen Katalog an integrierten und Deep Learning Framework Container verweisen - „Caffe2“, „Cognitive Toolkit“, „MXNet“ und „Tensorflow“ eingeschlossen.

Artikelfiles und Artikellinks

(ID:44717313)