KI-spezialisierte Server und Systeme vorgestellt Lenovo will GenAI für alle Unternehmen ermöglichen

Von Martin Hensel 2 min Lesedauer

Anbieter zum Thema

Im Rahmen der KI-Konferenz „Nvidia GTC“ hat Lenovo eine Reihe neuer Server und Anwendungen rund um das Thema generative KI (GenAI) vorgestellt. Sie sollen unter anderem maßgeschneiderte KI-Anwendungen für Unternehmen und Cloud-Plattformen zugänglicher gestalten.

Der Lenovo ThinkSystem SR680a V3 ist eines der neuen Systeme, das Lenovo gemeinsam mit NVIDIA entwickelt hat.(Bild:  Lenovo)
Der Lenovo ThinkSystem SR680a V3 ist eines der neuen Systeme, das Lenovo gemeinsam mit NVIDIA entwickelt hat.
(Bild: Lenovo)

Die neuen Systeme basieren auf der bestehenden Kooperation von Lenovo und Nvidia. Sie sollen Unternehmen und Cloud-Anbietern die notwendigen Rechenressourcen liefern, um die Entwicklung und Implementierung von KI-Anwendungsfällen zu vereinfachen.

KI-Serverportfolio erweitert

Zu den Neuheiten zählt eine Erweiterung des „Thinksystem“-AI-Portfolios des Herstellers. Die Produkte sind auf die Unterstützung von generativer KI, Natural Language Processing (NLP) und die Entwicklung großer Sprachmodelle („Large Language Models“, LLMs) ausgelegt.

Der Einsatz der „HGX“-AI-Supercomputingplattform von Nvidia ist möglich, einschließlich leistungsfähiger GPUs, zum Beispiel „H100“ und „H200 Tensor Core“ oder des Superchips „Grace Blackwell GB200“. Fortschrittliche Nvidia-Netzwerktechnik, etwa „Quantum-X800 Infiniband“ oder „Spectrum-X800“ Ethernet sind ebenfalls an Bord.

Lenovo kündigte unter anderem das „Thinksystem SR780a“ an. Das 5U-System mit einer PUE („Power Usage Effectiveness“) von 1.1 setzt auf die „Neptune“-Flüssigkühlung des Herstellers, um maximale Performance bei gleichzeitig niedrigem Energieverbrauch sicherzustellen.

Das Schwestermodell „Thinksystem SR680a V3“ setzt dagegen als Zwei-Sockel-System auf Luftkühlung und ist speziell auf maximale Beschleunigung komplexer KI ausgerichtet. Die Server lassen sich mit Intel-Prozessoren und Nvidia-GPUs ausstatten und passen in standardisierte 19-Zoll-Racks.

Nvidia MGX als Grundlage

Lenovo nutzt zudem die modulare Referenzarchitektur „MGX“ von Nvidia, um maßgeschneiderte KI-, Hochleistungsrechen- und „Omniverse“-Anwendungen zu entwickeln und bereitzustellen. So erhalten beispielsweise Cloud-Service-Provider angepasste Modelle schneller, was die kostengünstige und skalierbare Beschleunigung von KI- und Omniverse-Workloads ermöglicht.

Zu den neuen Angeboten auf dieser Grundlage zählt der „Lenovo HG630N-MGX“ 1U, ein Server nach offenen Standards, der zudem mit Lenovos Neptune-Wasserkühlung ausgestattet ist. Beim „HG650N-MGX“ 2U handelt es sich um einen modularen Server, der speziell für GPUs optimiert ist. Das luftgekühlte System lässt sich in Standard-Racks verbauen und ermöglicht die Bereitstellung von Nvidia GH200-Superchips.

Auf vier Höheneinheiten passt der „Lenovo HG660X V3-MGX“ 4U: Der Server unterstützt bis zu acht Nvidia-GPUs in einer luftgekühlten Umgebung. Eine weitere Neuheit ist der ARM-basierte „Lenovo HR650N-MGX“ 2U, der den Energie-effizienten „Grace“-Superchip von Nvidia nutzt und die DPUs aus demselben Haus unterstützt.

„Lenovo und Nvidia arbeiten gemeinsam daran, die Möglichkeiten von Augmented Intelligence für Unternehmen zu erweitern, indem sie KI-Berechnungen direkt an den Datenstandort bringen. Dabei setzen sie auf ein breites Spektrum modernster hybrider KI-Lösungen, die es ermöglichen generative KI nahezu überall einzusetzen und gleichzeitig auch die Nachhaltigkeitsziele unterstützen“, führt Kirk Skaugen aus, President der Lenovo Infrastructure Solutions Group.

Artikelfiles und Artikellinks

(ID:49981497)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung