Skalierung für GenAI und Agentic AI im Adressbuch Dell Technologies und AMD für die On-prem-KI

Quelle: Pressemitteilung Dell Technologies 3 min Lesedauer

Anbieter zum Thema

Ab Juli 2026 werden die Server „Poweredge XE7745“ und „R7725“ von Dell Technologies die „AMD Instinct MI350P“ PCIe GPUs unterstützen. Parallel dazu wurde die „Dell AI Platform with AMD“ erweitert, um die Skalierung vom Pilotprojekt zur Produktion zu vereinfachen. Unternehmen sollen dabei GenAI und Agentic AI innerhalb ihrer bestehenden Rechenzentrumsinfrastruktur betreiben können, ohne dass ein Redesign erforderlich ist.

Das ist das System „Dell Poweredge XE9785“; es ist ist speziell für die Entwicklung von Foundation-Modellen und groß angelegte Inferenzen konzipiert. (Bild:  Dell Technologies)
Das ist das System „Dell Poweredge XE9785“; es ist ist speziell für die Entwicklung von Foundation-Modellen und groß angelegte Inferenzen konzipiert.
(Bild: Dell Technologies)

In zahlreichen Branchen haben Unternehmen erfolgreich KI-Pilotprojekte und Proof-of-Concept-Projekte (POC) aufgelegt, doch stoßen sie an Grenzen, wenn sie versuchen, diese ersten Erfolge in den vollwertigen Produktionsbetrieb zu überführen. Das kann unter anderem daran liegen, dass beim Übergang vom Pilotprojekt zur Produktion die Komplexität sprunghaft ansteigt.

Die Erweiterungen der Dell AI Platform mit AMD, einem Teil der „Dell AI Factory“, sollen helfen die Infrastrukturlücken zu schließen, eine nahtlose Datenintegration zu gewährleisten und Workloads effektiv zu migrieren. Laut Dell Technologies verfolgt das Angebot anstatt einzelne Teile zusammenzuflicken einen ganzheitlichen Ansatz.

Die Dell AI Platform with AMD verfügt über eine modulare Architektur, die darauf ausgelegt ist, mit den Anforderungen von KI zu wachsen. Unternehmen können mit Konfigurationen starten, die aktuelle Workloads abdecken, und im Laufe der Zeit die Rechenleistung sowie GPU-Dichte erweitern, ohne die Architektur neu aufsetzen zu müssen.

Man integriere Rechenleistung, Speicher, Netzwerkinfrastruktur sowie umfassende KI- und MLOps-Software-Stacks mit Unternehmensdatenquellen, wichtigen Software-Anwendungen von Partnern und flexiblen Professional Services. Das Ergebnis sei ein validiertes, skalierbares Angebot für Training, Feinabstimmung und Inferenz mit hohem Durchsatz, das separate, isolierte KI-Stacks überflüssig mache.

Die neue Hardware

Die Plattform nutzt die AMD Enterprise AI Suite, AMD ROCm und den AMD Inference Server, um den gesamten KI-Lebenszyklus innerhalb einer validierten, sicheren On-Premises-Umgebung zu unterstützen: vom Training über Fine-Tuning und Inference bis hin zu agentischen Workflows.

Eine der neuen Konfigurationen ist für anspruchsvolles Modelltraining, Vortraining und Inferenz ausgelegt. Sie nutzt „Dell Poweredge XE9785“-Serverknoten, die mit „AMD Instinct MI355X“-GPUs und „Epyc“-CPUs ausgestattet sind und durch „Powerswitch“-Netzwerk- und „Powerscale“-Speicher unterstützt werden. Gedacht ist das stark skalierbare System für große Unternehmen und Dienstleister, die rund um die Uhr enorme KI-Anforderungen bewältigen müssen.

Das ist der Server „Dell Poweredge XE7745“.(Bild:  Dell Technologies)
Das ist der Server „Dell Poweredge XE7745“.
(Bild: Dell Technologies)

Zweitens erweitert Dell Technologies auch seine modulare Architektur der Dell AI Factory um AMD Instinct MI350P PCIe-GPUs und AMD Epyc-CPUs. Diese nutzt „Poweredge XE7745“- und „R7725“-Serverknoten, Dell Powerswitch-Netzwerktechnik und Dell Powerscale-Speicher in Verbindung mit der Dell AI Data Platform. Die Technik adressiert Unternehmen, die auf einer vorhersehbaren, einheitlichen Grundlage vom Pilotprojekt in die Produktion übergehen möchten. Für sie biete das System eine kosteneffiziente Skalierung und die Beseitigung spezifischer Ressourcenengpässe.

Das ist der Server „Dell Poweredge R7725“(Bild:  Dell Technologies)
Das ist der Server „Dell Poweredge R7725“
(Bild: Dell Technologies)

Beide Konfigurationen nutzen den AMD ROCm- und AMD Enterprise-KI-Software-Stack mit nativer Integration offener Frameworks wie Pytorch und vLLM. Die Lösung wird auch über die Dell Automation Platform verfügbar sein, die die anfängliche Bereitstellung und die fortlaufende Skalierung vereinfacht.

Beide Poweredge-basierte-Server mit AMD Instinct MI350P PCIe GPUs bieten laut Anbieter folgende Vorteile:

  • Einfache Bereitstellung - Die luftgekühlten XE7745- und R7725-Server machen eine Neugestaltung des Rechenzentrums überflüssig.
  • Hohe Performance - Die Systeme liefern eine Spitzenleistung von bis zu 4.600 TeraFLOPS (MXFP4) und verfügen über 144 GB HBM3e-Speicher, was derzeit die höchste verfügbare Kapazität in einer PCIe-Beschleunigerkarte ist.Die AMD Scaled-Datenformate entsprechen den OCP-Standard-MX-Datentypen.
  • Breite Workload-Unterstützung - Die Server sind optimiert für die Inference kleiner, mittlerer und großer Modelle, RAG-Pipelines sowie Agentic AI.
  • Offener Software-Stack - Die AMD Enterprise AI Software lässt sich ohne Lizenzgebühren und mit minimalen Anpassungen am Code in Pytorch, TensofFlow, vLLM und andere Frameworks integrieren.

(ID:50844701)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung