Auf der AMD-Veranstaltung „Advancing AI 2025“ hat der Chip-Hersteller die Datacenter-GPUs der „Instinct-MI350“-Serie vorgestellt, die bei KI-Aufgaben „Nvidia Blackwell“ schlagen sollen. Zudem stellt der Hersteller das KI-System „Helios“ vor und baut sein KI-Software-Ökosystem aus.
Die „Instinct“-GPUs der Serie „MI350“ von AMD sollen mit „Nvidia Blackwell“ wenigstens mithalten können und sie in einigen Bereichen überholen.
(Bild: AMD)
Bei Hardware und Software spielt Nvidia bisher klar die erste Geige im KI-Orchester. Eine neue GPU-Generation, die Instinct-MI350-Serie, integrierte Systeme nach Nvidia-Vorbild und der Ausbau des Software-Ökosystems für KI-Anwendungen sollen das ändern. Präsentiert wurde das alles auf der Advancing AI 2025 im kalifornischen San José.
Die Instinct-MI350-Serie
Mit den GPUs der Instinct-MI350-Serie baut AMD das Datacenter-GPU-Portfolio nach oben hin aus. Sie soll dem Hersteller einen größeren Anteil am rasant wachsenden KI-Markt bescheren. Der soll laut eigener, interner Daten bis 2028 auf mehr als 500 Milliarden Dollar wachsen; vor zwei Jahren lag er noch bei etwa 45 Milliarden Dollar.
Am stärksten wächst dabei der Markt für Inference-Techniken. AMD soll dabei laut eigener Aussage das beste End-to-End-Compute-Portfolio anbieten, mit „Epyc“-CPUs, Instinct- und „Radeon-AI“-GPUs, „Pensado“-DPUs und AI-NICs sowie „Versal“-SoCs für KI-Edge-Anwendungen.
AMD lässt die Instinct-GPUs MI350X und MI355X bei TSMC herstellen, wobei ein 3- und ein 6-nm-Prozess zum Einsatz kommen. Beide Modelle mit „CDNA4“-Architektur verfügen über 256 Compute-Units mit 16.384 Stream-Prozessoren und 1.024 Matrix-Cores sowie über 288 GB HBM3e. Der Unterschied liegt nur in der mit 2.400 MHz um 200 MHz höheren Taktfrequenz der MI355X.
Laut AMD soll eine MI355X beim Inferencing die etwa vierfache und beim Training die dreifache Leistung einer „Instinct MI300X“ liefern. Eine höhere Performance pro Watt beim Inferencing soll die Kosten senken. Bei einigen typischen HPC-Anwendungen sind die neuen GPUs allerdings sogar etwas langsamer als die MI300X.
Insgesamt soll die MI350-Serie bei KI-Workloads mit „Nvidia B200“ und „GB200“ mindestens gleichziehen und sie bei einigen Workloads sogar überholen. Die B200- haben die MI350-GPUs einen größeren Speicher voraus. Die Nvidia-GPU verfügt über 192 GB HBM3e. Allerdings bringt Nvidia demnächst den Prozessor „B300 Ultra“ mit ebenfalls 288 GB HBM3e heraus.
Die neuen Datacenter-GPUs von AMD werden als OAM-Module mit sieben „Infinity-Fabric“-Links und PCIe-Gen5-Interface hergestellt. Die passende Plattform mit Luft- oder Wasserkühlung nimmt acht GPUs auf. Systeme mit den neuen GPUs sollen im dritten Quartal 2025 auf den Markt kommen.
Dessen Übernahme hat AMD im April dieses Jahres abgeschlossen. Auf der Advancing AI 2025 zeigte die Firma eine auf offenen Standards basierende KI-Infrastruktur im Rack-Maßstab, bestehend aus GPU-Servern mit „AMD-Epyc-Turin“-Prozessoren und GPUs der Instinct-MI-350-Serie sowie die programmierbaren RDMA-Ethernet-NICs „Pollara 400G“ aus der eigenen Pensado-Ethernet-Modellreihe.
Zudem gab der Hersteller einen Ausblick auf die für 2026 geplanten AI-Rack-Lösung, die unter der Bezeichnung Helios entwickelt wird. Hier kommen dann „Epyc-Venice“-CPUs mit bis zu 256 „Zen-6“-Cores, Instinct-MI400-GPUs mit 432 GB HBM4 sowie „Volcano“-NICs mit 800 Gbps zum Einsatz. Helios soll dann gegen die „Oberon“-Plattform von Nvidia mit „Vera Rubin“ antreten.
AMD betont dabei, dass man hier, im Gegensatz zu Nvidia, mit offenen Standards wie dem Ultra Accelerator Link als Alternative zu Nvidias Nvlink arbeite. Allerdings hat Nvidia auf der Computex angekündigt, die Technologie als Nvlink Fusion unter gewissen Bedingungen auch für andere Custom-CPUs und ASICs zu öffnen, solange diese mit den eigenen GPUs beziehungsweise CPUs verbunden werden.
Ausbau des offenen Software-Ökosystems
Ein weiterer Faktor für den Erfolg von Nvidia in Sachen Künstlicher Intelligenz ist dessen ausgedehntes Software-Ökosystem. Auch mit diesem will AMD besser konkurrieren und stellt dafür den offenen KI-Software-Stack „ROCm“ in der Version 7 vor, der ab August verfügbar sein soll.
Er soll eine höhere Performance sowie bessere Bedienbarkeit ermöglichen und unterstützt nun auch die Datentypen FP4 und FP6 mit reduzierter Präzision. Sie ermöglichen eine schnellere Berechnung mit geringerem Energieverbrauch und vermindertem Datentransfer.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Zudem werden ein neuer Ansatz für das verteilte Inferencing sowie die Unterstützung von ROCm für Radeon und Windows vorgestellt. Mit ROCm Enterprise AI bringt der Hersteller ein MLOps-Toolkit für den Einsatz von Machine Learning in der Produktion.
Die AMD Developer Cloud soll der Entwickler- und Open-Source-Community einen einfachen Zugang zu Systemen mit Instinct-MI300X-GPUs ermöglichen, um so auch ohne eigene Hardware bessere KI-Lösungen entwickeln zu können. Laut Anush Elangovan, VP für die Software-Entwicklung bei AMD, sollen hier ab dem Tag der Verfügbarkeit auch Systeme mit MI350-GPUs ausgerollt werden.