AMD-Datacenter-GPU als PCIe AMD Instinct MI350 als PCIe-Karte

Von Klaus Länger 2 min Lesedauer

Anbieter zum Thema

Bisher gab es die AMD-Datacenter-GPUs der „Instinct-MI350“-Serie nur als Open Accelerator Module (OAM). Nun schiebt der Hersteller eine PCI-Express-Variante nach. Die Karte ist in neuen oder bestehenden Standard-Servern einsetzbar.

AMD bringt mit der Instinct MI350P die CDNA-4-Architektur nun auch auf einer PCI-Express-Karte . Sie ermöglicht einen flexibleren Einsatz als die bisherigen Modelle der MI350-Serie in OAM-Bauform.(Bild:  AMD)
AMD bringt mit der Instinct MI350P die CDNA-4-Architektur nun auch auf einer PCI-Express-Karte . Sie ermöglicht einen flexibleren Einsatz als die bisherigen Modelle der MI350-Serie in OAM-Bauform.
(Bild: AMD)

KI-Anwendungen wie Agentic AI und Inferenz mit RAG werden zunehmend in Unternehmen eingesetzt. Etliche davon nutzen dafür lieber Hardware im eigenen Rechenzentrum oder die Dienste von MSPs. Die großen GPU-Server mit acht „AMD-Instinct-MI350X“- oder „355X“-GPUs in OAM-Bauform sind aber ür viele dieser Aufgaben überdimensioniert und zu kostspielig.

Bildergalerie

AMD reagiert mit der Instinct „MI350P“ darauf, die als PCI-Express-Karte auf den Markt kommt. Sie kann flexibler eingesetzt werden und lässt den OEMs mehr Spielraum bei der Konfiguration. Zudem kann sie für das Nachrüsten bestehender Server genutzt werden, sofern die Systemanforderungen erfüllt werden.

600 oder 450 Watt TDP

Die AMD Instinct MI350P setzt einen modernen Server mit ausreichend vielen PCI-Express-x16-Slots voraus, die PCIe Gen5 unterstützen. Zudem muss der Server genügend Strom für die Karte oder die Karten liefern. AMD gibt für die Instinct MI350P eine maximale TDP von 600 Watt an.

Allerdings kann die FHFL-Karte (Full Height, Full Length) auch auf 450 Watt gedrosselt laufen. Sie benötigt zwei Slots und als passive Karte eine ausreichende Kühlung durch die Lüfter im Server.

Halbierte MI350X-GPU

Für die PCIe-Karte hat AMD die CDNA-4-GPU der OAM-Variante MI350X einfach halbiert: Der Chip auf der Instinct MI350P bietet daher insgesamt 128 GPU-Compute-Einheiten mit 512 Matrix Cores und 8.192 Stream-Prozessoren sowie 128 MB Cache. Auch der Speicher ist halbiert: Er besteht aus vier HBM3e-Stacks mit zusammen 144 GB. Die Kommunikation mit der Host-CPU oder den Host-CPUs im Server erfolgt über 16 PCIe-Gen5-Lanes. Bis zu acht Karten können in einem Server installiert werden. Eine schnelle Netzwerkverbindung zwischen den GPUs existiert im Gegensatz zu den OAM-Varianten allerdings nicht, was die Größe der Modelle pro Workload auf den Speicher einer GPU beschränkt. Für kleinere Workloads können GPU und Speicher auch in vier Partitionen aufgeteilt werden.

Laut AMD soll die Instinct MI350P trotzdem der schnellste KI-Beschleuniger im PCI-Express-Format sein. Denn der bisherige Platzhirsch von Nvidia, die RTX 6000 Blackwell in der Server Edition, verfügt nur über 96 GB GDDR7 mit ECC. Daher ist der Speicher nicht nur kleiner, sondern mit 1,6 TB/s auch langsamer angebunden als der HBM3e auf der AMD-Karte mit 4 TB/s.

In der Performance soll die AMD-Karte mit bis zu 4,6 PFLOPS bei MXFP4 bis zu 15 Prozent schneller sein. Außerdem verfügt die Instinct MI350P über eigene Decoder für Video und für JPEG-Bilder.

(ID:50843794)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung