Mehr Leistung, Effizienz und Nachhaltigkeit für KI-Server mit PCIe Tensor Core GPUs Inspur bietet Flüssigkühlung für Nvidia-Graphikprozessoren

Quelle: Pressemitteilung

Anbieter zum Thema

Inspur Information gehört zu den ersten Anbietern, die die kürzlich angekündigten flüssigkeitsgekühlten „A100“- und „H100“- PCle Tensor Core GPUs von Nvidia unterstützen.

Flüssigkeitsgekühlte Rechenzentren können doppelt so viel Rechenleistung auf demselben Raum unterbringen. Das liegt daran, dass etwa die „A100“-GPUs von Nvidia nur einen PCIe-Steckplatz belegen; luftgekühlte A100-GPUs füllen zwei.
Flüssigkeitsgekühlte Rechenzentren können doppelt so viel Rechenleistung auf demselben Raum unterbringen. Das liegt daran, dass etwa die „A100“-GPUs von Nvidia nur einen PCIe-Steckplatz belegen; luftgekühlte A100-GPUs füllen zwei.
(Bild: Nvidia)

Die KI-Server von Inspur, einschließlich „NF5468M6“ und „NF5468A5“, unterstützen bis zu acht flüssigkeitsgekühlte PCIe-GPUs von Nvidia. Inspur war einer der Serveranbieter, der acht flüssigkeitsgekühlte 500 Watt HGX A100-GPUs anbot. Jetzt ist das chinesische Unternehmen auch unter den ersten, die flüssigkeitsgekühlte PCIe-GPUs in seinem Produktportfolio unterstützt.

Die flüssigkeitsgekühlten KI-Server verfügen nicht nur über leistungsstarke KI- sondern auch allgemeine Rechenkapazitäten. Benutzer können somit je nach Bedürfnis flexibel konfigurieren. Die Server sind gedacht für KI- und HPC-Anwendungen wie Bilderkennung, Spracherkennung, Verarbeitung natürlicher Sprache, wissenschaftliche Forschung und technische Simulationen.

Ausgestattet sind die mit so genannten Kühlplatten. Diese decken Hochleistungskomponenten wie GPUs und CPUs ab. Die Server verwenden Warmwasser zur Kühlung. Dadurch liegt die Stromverbrauchseffektivität (PUE) der Inspur-Server bei nur 1,1.

Kosten-reduktion auf Rask-Level: wassergekühlte „A100“-PCIe-GPUs versus luftgekühlte.
Kosten-reduktion auf Rask-Level: wassergekühlte „A100“-PCIe-GPUs versus luftgekühlte.
(Bild: Nvidia)

Liu Jun, Vice President von Inspur und General Manager von KI und HPC, erläutert, warum das wichtig ist: „Das rasante Wachstum der Rechenleistung und des Stromverbrauchs in Rechenzentren unterstreicht die Bedeutung der Flüssigkeitskühlung. Unsere flüssigkeitsgekühlten KI-Server bieten leistungsstarke und umweltfreundliche Lösungen, die den Aufbau von intelligenten Rechenzentren der nächsten Generation und Hyperscale mit enormer Dichte und Leistung erleichtern, während sie gleichzeitig die Energiekosten senken und umweltfreundlicher sind.“

Neben Inspur haben mindestens ein Dutzend Systemhersteller angekündigt, die im Mai angekündigten Nvidia-GPUs noch in diesem Jahr in ihre Angebote aufzunehmen. Dazu gehören Asus, Aarock Rack, Foxconn Industrial Internet, Gigabyte, H3C, Inventec, Nettrix, QCT, Supermicro, Wiwynn und Xfusion. Auch Bare-Metal-Anbieter Equinix steigt auf diese Technik ein: Equinix hat die A100 80 GB PCIe Liquid-Cooled GPU für den Einsatz in seinen Rechenzentren als Teil eines umfassenden Ansatzes zur nachhaltigen Kühlung und Wärmeabfuhr qualifiziert.

Vorausgegangen waren bereits Tests, in denen Equinix und Nvidia festgestellt haben, dass ein Rechenzentrum mit Flüssigkeitskühlung die gleichen Arbeitslasten wie eine luftgekühlte Einrichtung ausführen kann, dabei aber etwa 30 Prozent weniger Energie verbraucht. Nvidia schätzt, dass das flüssigkeitsgekühlte Rechenzentrum einen PUE-Wert von 1,15 erreichen könnte, also weit unter dem Wert von 1,6 für sein luftgekühltes Pendant liegt.

(ID:48415104)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung