Energie-effizientes Rechnen im Datacenter Grace: Ausblick auf den Nvidia-Superchip
Anbieter zum Thema
Noch ist er nicht da. Doch in seiner Keynote hat Nvidia-Chef Jensen Huang einen Ausblick auf mögliche Erfolge mit dem wie er sagt „Superchip“ gegeben, der auf der ARM-Implementierung „Grace“ basiert. Sie deuten wie er betont auf „eine neue Ära des Energie-effizienten Computing“ hin.

In Tests mit wichtigen CPU-Anwendungen im Rechenzentrum hat der Grace CPU-Chip bei gleichem Stromverbrauch eine zweifache Leistung gegenüber x86-Prozessoren gezeigt. Das bedeutet unter Umständen, dass Rechenzentren nahezu doppelt so viel Workloads bei gleicher Stromaufnahme bewältigen oder bei gleicher Last ihre Stromrechnungen um die Hälfte senken könnten. Sie wären aber auch in der Lage, mehr Leistung in den engen Räumen am Rande ihrer Netzwerke zu erbringen - oder eine beliebige Kombination der oben genannten Möglichkeiten.
Tatsache ist jedenfalls, dass Energie-Effizienz mittlerweile ganz oben auf der Aufgabenagenda der Rechenzentrumsbetreiber steht. Somit, folgert Huang, brauchen Manager von Rechenzentren diese Optionen, um erfolgreich zu sein.
X86: Ende der Fahnenstange
Dazu komme, dass das Mooresche Gesetz praktisch tot sei. Die Physik erlaube es den Chip-Designern nicht mehr, mehr Transistoren auf gleichem Raum bei gleicher Leistung unterzubringen. Aus diesem Grund böten neue x86-CPUs in der Regel Steigerungen von weniger als 30 Prozent gegenüber früheren Generationen.
Das wiederum sei auch der Grund, warum eine wachsende Zahl von Rechenzentren mit einer Strombegrenzung ausgestattet sei. Umgekehrt bedeutet es, dass sich Rechenzentren angesichts der Bedrohung durch die globale Erwärmung den Luxus ihre Leistung zu erhöhen nicht leisteten. Das Problem: Sie müssen dennoch auf die wachsende Nachfrage nach Rechenleistung reagieren.
Laut einer McKinsey-Studie steigt der Bedarf an Rechenleistung in den USA jährlich um 10 Prozent und wird sich in den acht Jahren zwischen 2022 und 2030 verdoppeln. „Der Druck, Rechenzentren nachhaltig zu gestalten, ist daher groß, und einige Aufsichtsbehörden und Regierungen schreiben Nachhaltigkeitsstandards für neu gebaute Rechenzentren vor“, heißt es.
Mit dem Ende des Mooreschen Gesetzes ist der Fortschritt der Rechenzentren in Bezug auf die Recheneffizienz ins Stocken geraten, so eine von McKinsey zitierte Studie (siehe: Abbildung). Wie es der Nvidia-Chef sieht, sind die zweifachen Verbesserungen, die Nvidia Grace in heutigen Umgebungen bietet, das Äquivalent eines Generationensprungs.
Zac Smith, Leiter der Edge-Infrastruktur beim Co-Location-Anbieter Equinix, der mehr weltweit mehr als 240 Rechenzentren verwaltet, hat diese Anforderungen in einem Artikel über Energie-effizientes Computing so formuliert sinngemäß: Wir müssen die IT-Leistung, die wir für die CO2-Emissionen erhalten, erhöhen. „Wir haben 10.000 Kunden, die sich dabei auf uns verlassen. Sie verlangen mehr Daten und mehr Intelligenz, oft mit KI, und sie wollen dies auf nachhaltige Weise“, fügte er hinzu.
Die CPU-Innovationen
Die Grace-CPU bietet diese effiziente Leistung dank dreier Innovationen.
Sie nutzt eine ultraschnelle Fabric, um 72 Arm Neoverse V2-Kerne in einem einzigen Chip zu verbinden, der eine Fabric-Bisection-Bandbreite von 3,2 Terabyte pro Sekunde aufweist, ein Standardmaß für den Durchsatz. Dann verbindet er zwei dieser Chips in einem Superchip-Paket mit dem NVIDIA NVLink-C2C Interconnect, der eine Bandbreite von 900 GB/s bietet.
Und schließlich ist es die erste CPU für Rechenzentren, die LPDDR5X-Speicher der Serverklasse verwendet. Dieser bietet bis zu 50 Prozent mehr Speicherbandbreite bei ähnlichen Kosten, aber nur einem Achtel der Leistung eines typischen Serverspeichers. Und die kompakte Größe ermöglicht eine doppelt so hohe Dichte wie bei typischen kartenbasierten Speicherdesigns.
Im Test
Nvidia-Ingenieure haben für Rechenzentren typische Workloads auf Grace getestet. Im Vergleich zu aktuellen x86-CPUs besitzt die Nvidia-CPU ein einfacheres Design, das mehr Bandbreite bietet und weniger Strom verbraucht. Demnach ist Grace im Vergleich zu den führenden x86-CPUs in Rechenzentren bei gleichem Stromverbrauch:
- 2,3x schneller bei Microservices,
- 2x schneller bei speicherintensiver Datenverarbeitung
- und 1,9-mal schneller bei der numerischen Strömungsmechanik, die in vielen technischen Computeranwendungen verwendet wird.
Nvidia Grace wird jetzt bemustert und soll in der zweiten Jahreshälfte in Produktion gehen. Asus, Atos, Gigabyte, Hewlett Packard Enterprise, QCT, Supermicro, Wistron und ZT Systems haben angekündigt, Server zu bauen, die Grace verwenden. Das Los Alamos National Laboratory hat schon im vergangenen Mai angekündigt, Grace in „Venado“ einzusetzen, einem KI-Supercomputer mit 10 ExaFlops, der die Arbeit des Labors in Bereichen wie Materialwissenschaft und erneuerbare Energien voranbringen soll.
Artikelfiles und Artikellinks
(ID:49268845)