Rechner für KI-Cluster Giga Computing stellt flüssig- und luftgekühlte GPU-Server vor

Quelle: Pressemitteilung Gigabyte 1 min Lesedauer

Anbieter zum Thema

Mit Servern auf Basis von „Nvidia HGX B200“, skalierbarer Leistung und optimierter Kühlung adressiert Giga Computing die Anforderungen an KI-Rechenzentren.

Produktbild der neuen KI-Server von Giga Computing mit Flüssigkeits- und Luftkühlung auf Basis der „HGX B200“-Plattform von Nvidia.(Bild:  Gigabyte)
Produktbild der neuen KI-Server von Giga Computing mit Flüssigkeits- und Luftkühlung auf Basis der „HGX B200“-Plattform von Nvidia.
(Bild: Gigabyte)

Giga Computing, ein Tochteunternehmen von Gigabyte, hat vier weitere GPU-Servermodelle für Anwendungen im Bereich der generativen Künstlichen Intelligenz (KI) vorgestellt. Sie basieren auf dem Server-Board Nvidia HGX B200, die, die acht aktuelle „Blackwell“‑GPUs integriert, jede mit 180 Gigabyte HBM3e, verbunden über NVLink/NVSwitch für KI- und HPC‑Workloads. Die Plattform ist für das Training und die Inferenz großer Sprachmodelle (Large Language Models, LLMs) ausgelegt und soll laut Hersteller die Inferenzgeschwindigkeit bei Modellen mit Billionen von Parametern um das bis zu 15-Fache steigern.

Die neuen Server stehen in flüssig- und luftgekühlten Varianten zur Verfügung und unterstützen wahlweise Intel- oder AMD-Prozessoren. Damit reagiert Giga Computing auf die steigende Nachfrage nach thermisch und architektonisch flexiblen KI-Plattformen.

Flüssigkeitsgekühlte 4U-Systeme für hohe Rechendichte

Die Modelle „G4L3-SD1-LAX5“ („Intel Xeon“) und „G4L3-ZD1-LAX5“ („AMD Epyc“) nutzen direkte Flüssigkeitskühlung (Direct Liquid Cooling, DLC) und sind für KI-Training und -Inferenz im großen Maßstab konzipiert. CPU- und GPU-Komponenten sind getrennt untergebracht, um die thermische Effizienz zu steigern und den Energieverbrauch zu senken.

Durch die hohe Packungsdichte sind die Server auf den Einsatz in leistungsoptimierten Clustern ausgelegt. Die beiden luftgekühlten Server „G894-AD1-AAX5“ und „G894-SD1-AAX5“ sind für verschiedene Intel-Architekturen ausgelegt. Das Modell „AD1“ unterstützt Prozessoren der „Xeon-6900“-Serie, während der „SD1“ mit den Serien „Xeon 6700“ und „6500“ kompatibel ist.

Integration in Gigapod für skalierbare KI-Cluster

Die neuen Servermodelle werden auch in die bestehende Rack-Scale-Infrastruktur „Gigapod“ integriert. Die Plattform ist auf den Einsatz in KI-Rechenzentren zugeschnitten, in denen große Sprachmodelle trainiert werden. Durch die Kombination aus Hochleistungs-GPUs, schneller Netzwerkanbindung und skalierbarer Architektur soll Gigapod künftig noch höhere Energie-Effizienz und Datendurchsatz bieten.

(ID:50472025)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung