Einer Ingenieurin ist nix zu schwör! Was macht AMD richtig?

Von Anna Kobylinska und Filipe Martins* 2 min Lesedauer

Anbieter zum Thema

AMD hat eine derart „Epyc-sche“ Erfolgsstory hingelegt, dass das Unternehmen schon wieder ein paar Milliarden Dollar locker machen kann, um das eigene Technologieportfolio zu vervollständigen. Der selbsternannte „Ryzen (star)“ der Unternehmens-IT will sich mit dem Kauf des Serverherstellers ZT Systems im Datacenter-Markt hyperskalieren. Was macht AMD richtig? Und erneut einen guten „Instinct“ bewiesen!

„Epyc-sche“ Herausforderung: Mit der „Instinct MI300A“ APU und der „MI300X“ GPU hat AMD zwei Hochleistungsbeschleuniger für KI-Workloads konzipiert, die sowohl das Training und HPC als auch Inferenz im Rechenzentrum abdecken.(Bild:  AMD)
„Epyc-sche“ Herausforderung: Mit der „Instinct MI300A“ APU und der „MI300X“ GPU hat AMD zwei Hochleistungsbeschleuniger für KI-Workloads konzipiert, die sowohl das Training und HPC als auch Inferenz im Rechenzentrum abdecken.
(Bild: AMD)

Mit der Übernahme von ZT Systems kauft AMD einen Anbieter kritischer hyperskalarer Server- und Storage-Infrastrukturen aus dem U.S.-Bundesstaat New Jersey. Gerade noch im März 2024 hat ZT Systems eine strategische Partnerschaft mit Nvidia bekannt gegeben. Die beiden Unternehmen wollten gemeinsam Datacenter-Infrastrukturen auf Basis der „Blackwell“-Plattform von Nvidia entwickeln.

Der systemzentrischer Ansatz der GPU-Marktführers hat KI-Infrastrukturen hervorgebracht, die vorkonfigurierte Serverschränke, aber auch Netzwerkausrüstung und Software-Tools umfassen. Dem Konzept der Nvidia KI-Fabriken konnte AMD – trotz vergleichbar leistungsstarker Chips – bisher wenig entgegensetzen.

Gemeinsam voraus: Die jüngsten AMD-Akquisitionen – ZT Systems und Silo AI – stärken das KI-Ökosystem um dringend benötigte Expertise im Bereich des Systemdesigns und der KI-Modellierung. (Bild:  AMD)
Gemeinsam voraus: Die jüngsten AMD-Akquisitionen – ZT Systems und Silo AI – stärken das KI-Ökosystem um dringend benötigte Expertise im Bereich des Systemdesigns und der KI-Modellierung.
(Bild: AMD)

Das Interesse von AMD an ZT Systems ist der umfassenden ingenieurtechnischen Expertise der kleinen Übernahmekandidatin geschuldet. Diese ist rund tausend Köpfe stark und kann auf nahezu 30 Jahre Erfahrung zurückblicken. Als Anbieter von kritischen Server- und Storage-Systemen beliefert das Unternehmen die größten Hyperscaler der Welt.

In einem Katzensprung den Rückstand aufholen

Die Stärken von AMD liegen in seiner Kompetenz im Design von kompromisslos innovativen Chips mit wettbewerbsfähigen Preisleistungsprofilen. Software-Entwicklung und Systemdesign waren historisch gesehen zwei Achillesfersen von AMD.

ZT Systems hat sich seinerseits für hochgradig maßgeschneiderte und effiziente Designs im Bereich der Server-Infrastrukturen einen Namen gemacht. AMD sieht in dieser Expertise einen wesentlichen Erfolgsfaktor, mit dem man die eigene Marktposition im Bereich HPC- und Rechenzentrumsinfrastrukturen für KI ausbauen könnte.

Aus der Portokasse

AMD finanziert die 4,9 Milliarden Dollar teure Akquisition zu 75 Prozent in Bargeld und zu 25 Prozent in Aktien. Als erster Schachzug nach der Übernahme – sofern die Regulierungsbehörden den Schritt nicht vereiteln – plant AMD, die Fertigungsparte von ZT Systems zu veräußern. Die Chip-Spezialistin möchte dadurch vermeiden, potenziellen Unmut bei wichtigen OEM-Partnern wie Super Micro Computer zu schüren. Indem man sich aus diesem Bereich heraushält, möchte man das Vertrauen in die Integrität des Ökosystems wahren.

Im Jahr 2022 ließ sich AMD die Akquise von Xilinx, eines führenden Anbieters von programmierbaren Logikchips (FPGAs) und adaptiven SoCs (System-on-Chips), das Siebenfache kosten (35 Milliarden Dollar), allerdings komplett in Aktien. Im Juli 2024 hat AMD ein finnisches KI-Entwicklungsunternehmen, Europas größtes KI-Labor namens Silo AI, für 665 Millionen Dollar aus der sprichwörtlichen Portokasse bezahlt.

Xilinx hat AMDs Position im Bereich HPC- und Adaptive-Computing gestärkt und die Entstehung von AMDs neuester Generation von Rechenzentrumslösungen beschleunigt. Silo AI stärkt AMD um ein Team von erstklassigen KI-Wissenschaftler/inn/en und Ingenieur/inn/en, die sich ihre Sporen mit der Entwicklung von KI-Modellen, -Plattformen und -Lösungen für große Unternehmenskunden wie Allianz, Philips, Rolls-Royce und Unilever verdient haben.

Silo AI hat seine LLMs, darunter Modelle wie Poro und Viking, in großem Maßstab auf AMD Instinct-Beschleunigern trainiert. Das Team wird in die AMD Artificial Intelligence Group (AIG) eingegliedert. „KI ist unsere strategische Priorität Nummer eins“, sagte Vamsi Boppana, Senior Vice President von AMD und Leiter der Abteilung für KI. AMD würde sowohl in Talente als auch in Softwarefähigkeiten investieren, um die Entwicklung generativer KI-Technologien auf Kurs zu bringen.

Die Marktentwicklung; Form 10-Q der SEC ist ein Bericht, den börsennotierte Unternehmen in den USA vierteljährlich veröffentlichen müssen. Es handelt sich um einen Zwischenbericht, der der Information von Investoren und anderen Stakeholdern dienen soll.(Bild:  Daten: Securities and Exchange Commission, Grafik: Kobylinska/Martins)
Die Marktentwicklung; Form 10-Q der SEC ist ein Bericht, den börsennotierte Unternehmen in den USA vierteljährlich veröffentlichen müssen. Es handelt sich um einen Zwischenbericht, der der Information von Investoren und anderen Stakeholdern dienen soll.
(Bild: Daten: Securities and Exchange Commission, Grafik: Kobylinska/Martins)

Die Übernahmen von Silo AI und ZT Systems dürften für AMD ein Sprungbrett schaffen, um eine Handvoll gravierender Defizite gegenüber Nvidia im beschleunigten Tempo – in einem großen Katzensprung vielleicht? – zu überwinden.

„Die Kombination unserer leistungsstarken KI-Beschleuniger der Instinct-Reihe, Epyc-CPUs und Netzwerkproduktportfolios mit der branchenführenden Expertise von ZT Systems im Bereich Rechenzentrumssysteme wird es AMD ermöglichen, zusammen mit unserem Ökosystem von OEM- und ODM-Partnern End-to-End-AI-Infrastrukturen für Rechenzentren in großem Maßstab bereitzustellen“, kommentierte Dr. Lisa Su, Vorstandsvorsitzende und Geschäftsführerin von AMD. Su betrachtet KI als die wichtigste strategische Priorität des Unternehmens (ODM = Original Design Manufacturer, OEM = Original Equipment Manufacturer).

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Zen, Ryzen, Epyc & Co.

Unter der Leitung von Dr. Lisa Su hat AMD schon Erstaunliches vollbracht. Die promovierte Elektroingenieurin vom MIT und Branchenveteran der Halbleiterindustrie übernahm die Position der Geschäftsführerin bei AMD vor knapp zehn Jahren, als das Unternehmen mit sinkenden Marktanteilen unter einer erdrückenden Schuldenlast in einem gnadenlosen Wettbewerb ums Überleben kämpfte. Von Benchmark zu Benchmark, von Keynote zu Keynote, Schlagzeile für Schlagzeile hat sie AMD zu dem gemacht, was es heute ist: ein „Ryzen star“ eben.

Mit einem Fuß in der Türe des modernen Rechenzentrums sind die Epyc-CPUs von AMD längst nicht mehr ein bloßes Trostpflaster für das Beschaffungswesen der Unternehmens-IT. AMDs Chips stellen immer öfter die bevorzugte Wahl dar. Die Instinct-Beschleuniger können es mit Nvidia aufnehmen.

Viele Kerne, Staun-Benchmarks, Hammer-Preise: So macht es frau richtig.

Neueste interne Benchmarks des „AMD Ryzen 9950X“, die kürzlich durchgesickert sind, könnten Intel zeigen, wie man einen Flaggschiff-Prozessor auf die Reihe kriegt. AMDs Werte stellen die Leistung des „Core i9-14900KS“ locker in den Schatten.

Viele Kerne, Staun-Benchmarks, Hammer-Preise: So macht es frau richtig. Der „AMD Ryzen 9 9950X“ Unlimited und „Intel Core i9-14900KS“ im Cinebench R23.(Bild:  WCCFTECH)
Viele Kerne, Staun-Benchmarks, Hammer-Preise: So macht es frau richtig. Der „AMD Ryzen 9 9950X“ Unlimited und „Intel Core i9-14900KS“ im Cinebench R23.
(Bild: WCCFTECH)

Wenn der 9950X mit unbegrenzter Leistung versorgt wird, erreicht er (laut WCCFTECH) im Cinebench R23 eine erstaunliche Punktzahl von 48.011 beim Multi-Threading. Das ist 12,5 Prozent schneller als ein Core i9-14900KS im gleichen Test (der Intel-Chip erreicht 42.678 Punkte). AMD hat Intel auf seiner eigenen Hardwareplattform x86 „abgehängt“.

Doch das waren bloß die beiden Workstation-Chips. Der spannendste Dreikampf spielt sich im Rechenzentrum ab.

„Instinct-iv“ anders

Mit Instinct „MI300A“ und „MI300X“ hat AMD zwei sehr unterschiedliche Hardwarebeschleuniger für Datencenter-Workloads konzipiert. Bei dem MI300A handelt es sich um eine so genannte APU (kurz für Accelerated Processing Unit), eine innovative Hybridarchitektur, die eine CPU mit einer GPU „verschmilzt“. Beim MI300X geht AMD gezielt in Sachen GPU-Leistung und Speichergröße „in die Vollen“.

Ein „Zen“-Moment: AMD hat auf dem „Zen 5 Tech Day“ am 9. Juli unter anderem die Details seiner „Ryzen AI 300“-Serie „Strix Point“ enthüllt, stellte eine neue Serie von Motherboards vor und gab tiefe Einblicke in die Mikroarchitektur der „XDNA 2“ NPU.  (Bild:  AMD)
Ein „Zen“-Moment: AMD hat auf dem „Zen 5 Tech Day“ am 9. Juli unter anderem die Details seiner „Ryzen AI 300“-Serie „Strix Point“ enthüllt, stellte eine neue Serie von Motherboards vor und gab tiefe Einblicke in die Mikroarchitektur der „XDNA 2“ NPU.
(Bild: AMD)

Der Instinct MI300A, der größte Chip in AMDs Geschichte, besteht aus zwölf Chiplets, die über einen Hochgeschwindigkeits-Interconnect miteinander verbunden sind. Über diese Chiplets verteilt AMD insgesamt 24 „Zen-4“-CPU-Kerne.

Darüber hinaus erhält der MI300A eine CDNA 3-Grafikeinheit (Compute DNA), die speziell für High-Performance Computing (HPC) und KI-Anwendungen in Rechenzentren entwickelt wurde. Diese GPU ist für rechenintensive Aufgaben wie das Training von KI-Modellen und wissenschaftliche Berechnungen optimiert.

Der Prozessor MI300A ist mit 128 Gigabyte HBM3-Speicher ausgestattet. Der MI300A (die APU) nutzt jedoch eine andere Speicher- und Chiplet-Konfiguration als der MI300X.

Gestapelt

Die Recheneinheit MI300X vereint acht 12Hi-Stacks von HBM3-Speicher mit acht 3D-gestapelten CDNA-3-GPU-Chiplets (a.k.a. XCD) in 5 Nanometer (nm) auf vier darunterliegenden I/O-Dies in 6 nm mithilfe von AMDs Hybrid-Bonding-Technik. Diese Architektur ermöglicht eine extrem hohe Speicherbandbreite mit niedrigen Latenzzeiten für datenintensive Anwendungen im Rechenzentrum.

Die 3D-Stacking-Technologie von AMD verwendet so genannte TSVs (Through-Silicon Vias), spezielle Verbindungswege innerhalb der Siliziumschichten 3D-gestapelter Chips, für die vertikale Verbindung der Chiplets. Dies verkürzt die Länge der Verbindungswege zwischen den Einheiten, verbessert die Energie-Effizienz der Signalübertragung und steigert die Gesamtleistung des Chips.

Für horizontale Verbindungen nutzt AMD die Standard-2.5D-Verpackungstechnik. Den hybriden Ansatz taufte AMD auf die Bezeichnung „3.5D“.

Bis zu 10,4 Petaflops an Leistung: Die „AMD Instinct“-Platform für generative KI basiert auf dem UBB-Design-Standard (Universal Baseboard) des Open Compute Project (OCP); sie verbindet acht GPU-Beschleuniger vom Typ „MI300X“ über das AMD-eigene Interconnect „Infinity Fabric“.(Bild:  AMD)
Bis zu 10,4 Petaflops an Leistung: Die „AMD Instinct“-Platform für generative KI basiert auf dem UBB-Design-Standard (Universal Baseboard) des Open Compute Project (OCP); sie verbindet acht GPU-Beschleuniger vom Typ „MI300X“ über das AMD-eigene Interconnect „Infinity Fabric“.
(Bild: AMD)

Der AMD MI300X-Beschleuniger bringt es auf insgesamt 304 Recheneinheiten, 192 GB HBM3-Kapazität und eine Bandbreite von 5,3 TB/s. Ein 256 MB starker Infinity Cache buffert die Kommunikation zwischen den Chiplets als gemeinsamer L3-Cache. Mit seinen 153 Milliarden Transistoren lässt der MI300X Intels erst noch geplante Monster-GPU „Ponte Vecchio“ mit ihren 100 Milliarden Transistoren fast schon alt aussehen.

Die 3D-gestapelte Architektur von AMD im Instinct MI300 ermöglicht gleichzeitige Zugriffe der CPU und GPU auf dieselben Daten im Speicher (Stichwort: Zero-Copy) und eine bahnbrechende Datenübertragungsleistung zwischen den Chiplets.

Die Instinct-Platform für generative KI basiert auf dem UBB-Design-Standard (Universal Baseboard) des Open Compute Project (OCP). Die Plattform verbindet acht GPU-Beschleuniger vom Typ MI300X über AMDs eigenes Interconnect „Infinity Fabric“.

Die Architektur bietet eine beeindruckende Speicherbandbreite von 896 GB/s zwischen den GPU-Beschleunigern mit einer Kapazität von bis zu 1,5 TB an HBM3-Speicher (High Bandwidth Memory der dritten Generation) pro System. Die Kombination aus hoher Bandbreite und niedriger Latenz ist besonders vorteilhaft für datenintensive Anwendungen im Rechenzentrum, wie das Training großer KI-Modelle.

Letztlich wirkt sich die technische Leistung in Marktanteien wieder. (Bild:  Daten SEC, Grafil Kobylinska, Martins)
Letztlich wirkt sich die technische Leistung in Marktanteien wieder.
(Bild: Daten SEC, Grafil Kobylinska, Martins)

Das System eine Rechenleistung von bis zu 10,4 Petaflops (BF16/FP16), also rund das Doppelte einer „Nvidia A100“ GPU. Die neuere „H100“ GPU von Nvidia bringt es auf bis zu 20 PetaFlops (BF16/FP16). Damit liegt AMD MI300X zwischen den beiden Generationen von Nvidia GPUs, bietet aber gleichzeitig eine konkurrenzfähige Speicherbandbreite und Systemarchitektur, die es mit den Lösungen seines Rivalen aufnehmen kann.

Die MI300X-Plattform von AMD unterstützt eine 2,4-mal höhere Speicherkapazität. AMD verspricht zudem einen 1,3-fachen Vorteil in der Rechenleistung gegenüber der Nvidia-Plattform „H100 HGX“- (BF16/FP16) bei vergleichbarer aggregierter bidirektionaler und Single-Node-Ring-Bandbreite. AMD stattet die MI300X-Plattform mit 400GbE-Netzwerken aus und unterstützt eine breite Palette von Netzwerkkarten (NICs). Im Gegensatz dazu setzt Nvidia auf eigene Netzwerkprodukte, die aus der Übernahme von Mellanox stammen.

Der AMD-Siegeszug im Rechenzentrum

AMDs Umsätze im Rechenzentrums-Geschäft steigen weiterhin rasant. Im zweiten Quartal 2024 stiegen sie um satte 115 Prozent gegenüber dem Vorjahr auf 2,8 Milliarden Dollar und hat sich damit mehr als verdoppelt. Im Rechenzentrumsmarkt erwirtschaftet das Unternehmen mittlerweile die Hälfte seiner Umsätze.

Allein mit der GPU Mi300 konnte AMD im vergangenen Quartal eine Milliarde Dollar einfahren. Die Instinct Mi300X begann die Phase allgemeiner Verfügbarkeit mit einer Lieferung an Microsoft als ersten Cloud-Hyperscaler. Große Serverhersteller wie Dell Technologies und Supermicro haben sie mittlerweile auch in der Produktion.

zur Erinnerung: Es ist noch nicht lange her, da lebte Intel im Serverraum „auf großem Fuß“, Nvidia feilte fleißig an GPU-Designs für Desktop-Spiele und AMD gab sich im Servermarkt mit einem bescheidenen Marktanteil von einem Prozent zufrieden.

Die Marktkapitalisierung

Im fortwährenden Schlagabtausch mit den beiden Mitbewerbern gelang es AMD unter der Führung von Dr. Lisa Su, im lukrativen Rechenzentrumsmarkt signifikante Marktanteile zu gewinnen. Intel hat im Markt für Datencenter-CPUs einen Anteil von gerade einmal 75,9 Prozent bei einem Umsatz von gerade einmal 3 Milliarden Dollar im zweiten Quartal. AMD konnte mit einem Marktanteil von 24,1 Prozent im gleichen Zeitraum immerhin satte 2,8 Milliarden Dollar umsetzen.

Auch ein Blick auf die Marktkapitalisierung spricht Bände. AMD hat einen Unternehmenswert von 240 Milliarden Dollar erreicht. Nvidia ist mit 3 Billionen Dollar rund zwölfmal wertvoller. Intel bringt es auf einen Börsenwert von gerade einmal 89 Milliarden Dollar und ist damit ein Federgewicht mit großen Ambitionen.

Die einstige Legende der Halbleiterbranche musste im zweiten Quartal 2024 enttäuschende Ergebnisse vermelden, schwache Prognosen für die kommenden Quartale ausgeben und strich den Investoren auch noch die Dividende. Intel hat auch schon eine massive Umstrukturierung angekündigt. Die Pläne sehen den Abbau von mindestens 15 Prozent der Belegschaft bis Ende 2025 vor, um Kosten in Höhe von 10 Milliarden Dollar einzusparen.

Intel blickt in dem umfassenden Sammelsurium eigener Produkte anscheinend kaum noch selbst durch; hauchdünne Margen, schwindende Marktanteile und hohe Kapitalinvestitionen belasten die Bilanz schwer. Obwohl man sich als die Erfindung einer Halbleiterschmiede für die KI-Ära präsentieren möchte (Stichwort: Intel Foundry), läuft ein Teil Intels eigener Fertigung immer noch beim Rivalen TSMC vom Band. Der geplante KI-Chip-Deal zwischen Softbank und Intel ist Mitte August 2024 geplatzt.

Eine Legende: Dr. Lisa Su mit einer „Epyc“-CPU zeigt Intel, wo es langgeht.(Bild:  AMD)
Eine Legende: Dr. Lisa Su mit einer „Epyc“-CPU zeigt Intel, wo es langgeht.
(Bild: AMD)

Des einen Leid, des anderen Freud: Intels Herausforderungen haben für seine Mitbewerber neue Möglichkeiten geschaffen, im lukrativen Datacenter-Markt Fuß zu fassen. AMD nutzt diese Chancen sehr geschickt aus.

Auch Nvidia muss sich derzeit mit eigenen Herausforderungen auseinandersetzen. Der KI-Riese hat kürzlich einen Designfehler in seiner Blackwell-Plattform entdeckt, der für eine Verzögerung der Lieferungen bis Anfang 2025 sorgen soll. Obwohl die Führungsposition des Konzerns im Markt für Rechenzentrums-GPUs nicht gefährdet ist, könnte sich die Panne als schwerster Rückschlag seit Beginn der KI-Ära entpuppen.

Klein, aber fein: AMD, ein Unternehmen aus dem kalifornischen Santa Clara, hat ein Zweitquartier in Austin, im U.S.-Bundesstaat Texas.(Bild:  AMD)
Klein, aber fein: AMD, ein Unternehmen aus dem kalifornischen Santa Clara, hat ein Zweitquartier in Austin, im U.S.-Bundesstaat Texas.
(Bild: AMD)

Sofern es AMD gelingen sollte, selbst nicht zu stolpern, dürfte es für seine Rivalen richtig spannend werden. Der Schlamassel bei Intel und die Nvidia-Blackwell-Panne spielen dem Unternehmen in die Karten.

*Das Autorenduo

Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.

Ihr Fazit lautet: AMD ist sicherlich noch weit davon entfernt, sich in irgendeinem Markt als unangefochtener Marktführer etabliert zu haben. Doch an der Unternehmensstrategie ist 'was dran.

Anders als Intel „tanzt“ AMD nicht „auf allen Hochzeiten“, sondern konzentriert sich laserscharf auf eng umrissene Ziele in greifbarer Reichweite. Dieser fokussierte Ansatz hat AMD geholfen, Intel im Rechenzentrumsmarkt signifikante Anteile streitig zu machen.

Und anders als Nvidia „spielt“ AMD nicht bloß auf einer Saite (GPUs). Stattdessen verfolgt man eine Strategie der CPU-GPU-Integration und nimmt einen Anlauf auf ganzheitliches Systemdesign.

AMD hat´s „instinctiv“ richtig gemacht – und sich eine einzigartige Marktposition erarbeitet. E-E-E-Epyc!

Artikelfiles und Artikellinks

(ID:50135592)