Central Processing Units mit Mängeln Hitzestau, Bit Flips, Herz­flim­mern bei den CPUs von Intel

Von Anna Kobylinska und Filipe Martins* 11 min Lesedauer

Anbieter zum Thema

In den Datacenter-Hallen der Welt liefern sich Intel und AMD ein „Epyc“-sches Bühnenduell. „Xeon“ ist temperamentvoll wie eine kapriziöse Diva und bei klassischen Partituren, den In-Memory-Workloads, spielt Intel die erste Geige - noch. Doch in Sachen KI liegt der Taktstock schon bei AMD.

Derzeit machen die Intel-CPUs mit Instabilität von sich reden. Einige aktuelle „Xeon“-Varianten könen unter Volllast lönnen ihre Taktfrequenz nicht halten. (Bild:  Дина Етова - stock.adobe.com / KI-generiert)
Derzeit machen die Intel-CPUs mit Instabilität von sich reden. Einige aktuelle „Xeon“-Varianten könen unter Volllast lönnen ihre Taktfrequenz nicht halten.
(Bild: Дина Етова - stock.adobe.com / KI-generiert)

Die Marktführerschaft von Intel im Rechenzentrum schrumpft rapide. Mitte 2025 liegt Anteil am Markt für Rechenzentrums-CPUs bei schätzungsweise 62 bis 65 Prozent (Mercury Research, Q1 2025). AMD könnte bereits so um die 27,2 Prozent des Servermarktes erobert haben, Tendenz steigend. Den Rest hat ARM, etwa Amperene & Co.

Die CPU-Achillesferse

Zuletzt haben Stabilitätsprobleme mit den High-End-Chips für Datacenter das Vertrauen in Intel erschüttert. Das Problem: Intel-CPUs können ihre Taktfrequenz unter Volllast nicht stabil halten. Wenn die thermischen und elektrischen Limits erreicht sind, zieht die CPU die „Handbremse“.

Besonders stark betroffen sind Intel Xeon ab „Skylake-SP“ bis „Granite Rapids“, wann immer viele Kerne gleichzeitig AVX Code ausführen. Bei KI Workloads, HPC, oder wissenschaftlichen Anwendungen geht der Takt der betroffenen Intel-Chips ständig rauf und herunter. Dieses so genannte DVFS‑Throttling (Dynamic Voltage and Frequency Scaling) springt gerade dann an, wenn die höchste Leistung gefragt ist – irgendwie kontraproduktiv.

Mit der 6. Generation der Xeon-Prozessorfamilie tritt das Problem bei Granite Rapids mit den Hochleistungskernen „Redwood Cove P“ Cores, einer Weiterentwicklung von „Golden Cove“ beziehungsweise „Raptor Cove“, auf, nicht jedoch in „Sierra Forest“ mit „Crestmont E“ Cores.

Tradierung des Problems

Granite Rapids, Nachfolger von „Emerald Rapids“, unterstützt nämlich AVX 512, eine Befehlssatzerweiterung von Intel für 512-Bit breite Vektoroperationen, und zusätzlich AMX FP16, eine Hardware-Erweiterung für Matrix-Multiplikationen. Diese Befehle sind extrem rechen- und stromintensiv. Wenn mehrere Kerne gleichzeitig betroffene Workloads fahren, steigen Leistungsaufnahme und Temperatur sprunghaft an.

Um thermische und elektrische Limits nicht zu überschreiten, muss die CPU die Spannung und Taktfrequenz in Echtzeit anpassen: Sie senkt proaktiv den Takt. Dies kann bei Intel mehrere Millisekunden lang nachwirken.

Dasselbe Spiel?

Bei AMD Epyc ist dieses Verhalten weniger ausgeprägt. Hier werden AVX2/AVX512-lastige Kerne separat verwaltet und throttlen weniger aggressiv. Zudem können sie höhere Temperaturen länger aushalten.

Das Topmodell der Granite Rapids-Serie von Intel erreicht mit bis zu 128 Kernen eine TDP von über 500 Watt (W) beim UCC-Modell. (Die TDP gibt an, wie viel Wärme bei maximaler Auslastung abgeführt werden muss, damit der Prozessor dauerhaft stabil und leistungsfähig bleibt.) Nach einer AVX‑512‑Spitze fährt der betroffene Chip für einige Millisekunden seine Taktfrequenz herunter, um den Hitzestau abzubauen. Bei vielen kurzen Intensitätszyklen, die typischerweise bei KI-Arbeitslasten auftreten, geht dadurch kritischer Durchsatz verloren.

Bildergalerie
Bildergalerie mit 9 Bildern

Im Gegensatz dazu setzt Sierra Forest ausschließlich auf Crestmont E Cores, die kein AVX 512 unterstützen. Deshalb entfallen die typischen DVFS-bedingten Taktabsenkungen, wie sie bei P‑Cores unter AVX‑Last in Granite Rapids und den Vorgängern auftreten.

Keine Taktsicherheit

Beim Xeon Sapphire Rapids (4. Generation) mit bis zu 60 Kernen, TDP bis 350 W und umfassender AVX‑512-Unterstützung drosseln viele KI-Modelle den Takt unter voller Vektor-Last teils um mehr als 1 Gigahertz (GHz). Diese Reduktion dauert typischerweise mehrere Millisekunden unmittelbar nach Lastspitzen. Übrigens: Auch die Workstation-CPUs „Xeon W-3400/W-2400“ von Intel leiden unter dem AVX-512-bedingten Taktlimit.

In Emerald Rapids (5. Generation, Ende  2023) hat Intel mit umfassenden Optimierungen des Power-Managements versucht, gegenzusteuern, und konnte durchaus spürbare Fortschritte erzielen. Beim parallelen AVX‑512-Einsatz lässt sich dennoch immer noch ein deutlicher Taktverlust beobachten.

AMDs Epyc-Prozessoren der 4. Generation („Genoa“) mit bis zu 96 Kernen und einer TDP von bis zu 400 W, zum Beispiel „Epyc 9654“, erreichen durch die Kombination aus hoher Kernzahl, moderaten Basisfrequenzen, etwa 2,4 GHz, und einem effizienteren Chiplet-Design oft eine bessere Energie-Effizienz pro Thread oder pro Workload als Intel.

AVX 512

Zen 4 implementiert AVX-512 jedoch nicht über echte 512-Bit-Vektoreinheiten wie bei Intel üblich, sondern verwendet ein Verfahren mit der Bezeichnung „double-pumped execution“. 512-Bit AVX-512-Instruktionen werden in zwei 256-Bit Mikrooperationen aufgeteilt und nacheinander ausgeführt. Bei Zen 6 führt AMD laut Leaks und Architekturprognosen einen vollwertigen 512-Bit-Ausführungspfad für AVX-512.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung
Bildergalerie
Bildergalerie mit 9 Bildern

Intel unterstützt den vollen AVX-512-Ausführungspfad bereits, unter anderem in „Xeon Max“ (Saphire Rapids HBM), Xeon 6 Granite Rapids und Xeon 7 Diamond Rapids (für 2026 geplant).

Der Teufel steckt im Detail. Bei AMD ist feine Abstufung von Throttling pro Kern zur Kühlung lokaler Hotspots die Regel; Intels ältere Xeons (vor Ice Lake) verhängen einen globalen Taktstopp. Erst neuere Xeons arbeiten etwas differenzierter.

Throttel

Die aktuelle Generation von AMD-Epyc-Prozessoren, die „Epyc 9005“-Serie (Codename: Turin) basiert auf der Mikroarchitektur Zen 5 (für Leistungsmaximierung) oder Zen 5c (für hohe Effizienz) mit bis zu 192 Kernen pro CPU (Modell EPYC 9965). AMD adressiert damit Cloud-Computing und KI-Workloads in Rechenzentren.

Für 2026 ist bereits die 6. Generation Epyc angekündigt, Codename Venice, gefertigt im TSMC 2-nm-Prozess (N2) mit bis zu 192 Zen 6 Kernen pro CPU und bis zu 600 Watt TDP (SP7) oder 400 W (SP8). Bei den resultierenden thermischen Lasten ist Flüssigkühlung Pflicht und Throttling unvermeidlich. Aber AMD throttelt granular.

Bananensoftware

Eine weitere Achillesferse des Intel-Ökosystems ist unausgereifte Bananensoftware. Insbesondere bei den KI-GPUs schlagen sich Intels unausgereifte Treiber negativ auf die Leistung nieder.

Intel hat mit der Datacenter-GPU-Max-Serie (Ponte Vecchio) eine ambitionierte Architektur für HPC und KI vorgestellt. Die Hardware ist leistungsfähig aber die Software- und Treiberseite ist unfertig.

Während Nvidia mit „CUDA“ und AMD mit „ROCm“ ein stabiles Ökosystemen vorweisen können, konfrontiert Intel seine Anwender mit „OneAPI“und den halbgaren Extensions: „Intel Extension for Tensorflow“ und „Intel Extension for Pytorch“. Bestimmte Tensorflow-Versionen crashen je nach Python-Setup auf GPUs der Max-Serie (Ponte Vecchio), liefern Fehlermeldungen wie „UR_RESULT_ERROR_DEVICE_LOST“ oder leiden unter Performance-Schwankungen.

Im Kern erstickt: Abstürze mit Hardwareschäden

Nahezu jede zweite High-End-CPU der 13./14. Gen von „Intel Core“ (Raptor Lake), insbesondere „Core i9-13900K/14900K“, hat ursprünglich zu wiederholten Abstürzen geneigt. Schuld daran sei ein fehlerhafter Microcode-Algorithmus gewesen, der eine zu hohe Betriebsspannung anfordert („elevated operating voltage“). Diese habe zur Elektromigration und Spannungsdegradation geführt.

Das Phänomen verstärkt hohe Betriebstemperaturen und aggressive BIOS-Einstellungen. Betroffen sind hauptsächlich Prozessoren, die im Dauerbetrieb laufen, sei es in Rechenzentren oder in Game-Servern.

Die zu hohen Spannungsanforderungen („Vmin Shift“) hat Intel Mitte 2024 mit einem Microcode-Update zu adressieren versucht. Nutzer haben den Fix über BIOS- und Firmware-Updates ihrer Mainboards erhalten können.

Fragwürdige Microcode-Updates

Nach dem August 2024 ist das Microcode-Update in den BIOS-Versionen der Mainboard-Hersteller integriert und wird fortlaufend ausgerollt. Inzwischen ist für diese CPUs noch ein weiteres Update (Microcode 0x12B) erschienen, das weitere Szenarien abdeckt.

Ohne diese Updates bleiben regelmäßige Abstürze, System-Freezes und unerklärliche Verbesserungs- oder Leistungsverluste bei betroffenen Intel-Prozessoren bestehen. Diese können zu fortschreitender Degradierung und Hardwareschäden führen. Wurde bereits ein Schaden ausgelöst, hilft das Update nicht mehr. Die CPU bleibt permanent unzuverlässig beziehungsweise defekt.

Bildergalerie
Bildergalerie mit 9 Bildern

Viele Systemanbieter berichten von erheblichen Zusatzkosten und begrenztem Support. Laut Intel könne das Problem bleibende Schäden an Hardware verursachen; ein Rückruf sei dennoch nicht geplant.

Das Microcode-Update verhindert weiteren Schaden, wirkt aber nicht bei bestehenden Defekten. Wer das Update verspätet installiert, läuft Gefahr, dass die eigene CPU bereits so stark beeinträchtigt oder irreparabel beschädigt wurde, dass sie nicht mehr stabil ihren Dienst verrichten kann.

Notebook-Chaos

Chaos gibt es auch bei Notebook‑Chips; hier seien 10 bis 25 Prozent der Chips betroffen. „Raptor Lake-P“, die mobile Variante der 13. Generation, ist für industrielle Edge-Anwendungen entwickelt worden. Die Plattform ist nicht für hohe Core-Dichte oder Speicherbandbreite optimiert, wie die Xeon- oder Epyc-CPUs.

Allerdings gibt es Einsteiger-Servermodelle wie die „Xeon E-2400“-Serie, die auf Raptor Lake aufsetzen und kleine Unternehmen oder dedizierte Aufgaben adressieren. Einige Datacenter-Betreiber haben sich gezwungen gesehen, Premium-Support zu erwerben, andere setzten lieber gleich auf AMD.

Zu heiß, zu langsam, zu spät (und zu teuer)

Kein Wunder also: Die Nachfrage nach Intel-CPUs hat sich merklich abgekühlt. Intel-Verkäufe von Datacenter-CPUs im Jahre 2024 verzeichnen den tiefsten Stand seit mehr als einer Dekade, mit einem Rückgang von rund 20 Prozent gegenüber 2021. Als Intel bei den Verzögerungen von Sapphire Rapids die Käufer warten ließ, sind AWS, Google & Co. auf AMD Epyc oder ARM ausgewichen.

AMD meldet inzwischen im Serverbereich nahezu gleichwertige Einnahmen. Gemessen an Marktkapitalisierung ist der Herausforderer inzwischen zweieinhalb Mal so groß wie der Platzhirsch.

Bildergalerie
Bildergalerie mit 9 Bildern

Das Unternehmen plant Restrukturierungen, unter anderem das Auslagern der Foundry‑Sparte (siehe dazu den Bericht „Die Pat(t)-Situation bei Intel. Pat Gelsinger ist weg. Und jetzt?“). Laut IDC/Mercury Research dürfte Intels Anteil bis Ende 2025 auf ca. 55 Prozent fallen, AMD auf über 36 Prozent steigen.

Wo Intel Asse ausspielen kann

Lastverteilung, Cache-Contention (starke Konkurrenz um den gemeinsamen Cache) und ineffizientes Scheduling bremsen viele Multi-Thread-Workloads auf Intel-CPUs aus, vor allem bei Virtualisierung, Datenbanken und HPC. In realen Server-Umgebungen hinterfragen viele Betreiber den Nutzen dieser Konfigurationen.

Intel Xeon Emerald Rapids (5. Generation) gelten jedoch als sehr stark in Einzelsockel-Servern.Der Hersteller spielt seine Stärken aus, wenn die Arbeitslasten nur mäßig auf Parallelität setzen oder einen hohen Single-Core-Boost erfordern. Viele Unternehmensanwendungen, etwa Datenbanken, ERP-Systeme oder alte Backend-Software, nutzen ohnhin häufig nicht alle Kerne maximal aus. Stattdessen profitieren sie von einer hohen Einzelkern-Performance. Dort kann Intel Xeon trumpfen.

Intel Xeon-Prozessoren können mit Turbo-Boost-Technologien den Takt einzelner Kerne dynamisch erhöhen und kurzfristig höhere Leistung für weniger parallelisierte Aufgaben bereitstellen. Solche Workloads laufen auf Xeon oft schneller als auf AMD Epyc.

Multithreading macht AMD besser

In Szenarien mit wenigen, aber anspruchsvollen Threads, zum Beispiel bei Transaktionsdatenbanken oder in Teilbereichen des Maschinellen Lernens in der Vorverarbeitung, ist ein hoher Single-Core-Boost nach wie vor vorteilhaft. Bei extremem Multithreading hat jedoch AMD eindeutig die Nase vorne. Der Intel-Konkurrent liefert mit den Epyc-Prozessoren in vielen Tests einen um 30 bis 40  Prozent höheren Gesamtdurchsatz im Vergleich zu einem Intel Xeon mit halb so vielen Kernen bei typischen Multi-Thread-Workloads wie Virtualisierung, große Datenbanken oder High HPC-Arbeitslasten.

AMD adressiert typische Engpässe durch symmetrische Core-Architektur mit effizienterem L3-Cache-Pro-Zen-Kern und höherer Bandbreite, einer hohen Anzahl von Speicherkanälen und mehr PCIe-Lanes pro Sockel (ermöglicht bessere Anbindung bei I/O-intensiven Workloads). Zudem trumpft der Hersteller mit einer besseren NUMA-Skalierung durch Infinity Fabric und flexibler Speicherverwaltung auf. Diese architektonischen Maßnahmen wirken Leistungseinbrüchen auch unter maximaler Last entgegen.

Bei Intel kommt es durch die Zusammensetzung aus vielen Kernen pro Sockel öfter zu ungleichmäßiger Lastverteilung zwischen den Kernen.

In puncto Sicherheit

Intel Xeon bietet als einzige Plattform dedizierte AI-/Crypto-Acceleratoren direkt in der CPU für KI und Kryptografie: die „Intel QuicaAssist Technology“ (QAT) und die „Intel Advanced Matrix Extensions“ (AMX). Wer gezielt auf diese spezialisierten Funktionen setzt, profitiert von reduziertem Energiebedarf, niedrigerer Latenz und höheren Durchsatzraten, weil die Aufgaben direkt in der CPU statt auf einer GPU oder Beschleunigerkarte ablaufen.

Intel Quickassist Technology reduziert massiv die Auslastung klassischer CPU-Kerne bei Security- oder Netzwerk-Workloads durch Offload und Beschleunigung der Verschlüsselung, Entschlüsselung und Kompression. Diese Technologie ist gerade bei Firewalls, VPN-Knoten oder hyperskalierenden Web-Servern sehr vorteilhaft.

Intel Advanced Matrix Extensions (ab Sapphire/Emerald Rapids) ermöglicht ingegen hochperformantes Matrix-Multiplikations-Processing direkt auf der CPU. Dies beschleunigt KI-Inferenz, Training, Sprachverarbeitung und viele andere Aufgaben ohne Extra-Hardware.

Vorteil: Intel

Für extreme Skalierung über mehr als 2 Sockel pro Server in Szenarien wie „SAP HANA“ oder generell bei großen In-Memory-DBs, auch etwa im wissenschaftlichen Bereich, bietet sich Intel Xeon potenziell als erste Wahl an. Zu den einzigartigen Vorteilen der Architektur zählen massiver RAM-Ausbau pro Knoten (bis zu 128 TB, aber 24 TB RAM in 8-Socket-Systemen ist realistischer) sowie die hohe Inter-Socket-Bandbreite dank Technologien wie UPI (Ultra Path Interconnect) und Compute Express Link (CXL).

In-Memory-Datenbanken benötigen typischerweise den 2,5-fachen Speicherbedarf der eigentlichen Daten. Intel Xeon-Plattformen können durch Multi-Socket-Konfigurationen massiv skalierte Speicherkapazitäten erreichen. In Multi-Socket-Systemen addiert sich die maximale Speicherkapazität pro CPU-Socket zur Gesamtkapazität des Systems.

Ein 4-Socket-System mit Intel Xeon-Prozessoren kann bis zu 1,46 TB RAM bereitstellen, wenn jeder Prozessor 384 GB unterstützt. 8-Socket-Systeme mit neueren Xeon-Generationen können theoretisch mehrere Dutzend TB erreichen.

In Hardware verbaut

SAP HANA-Systeme können bis zu 4 TB physischen Speicher nutzen. Aktuelle Server von Gigabyte unterstützen bis zu 1 TB RAM (256 GB/DIMM) in 4-Socket-Systemen. Ein 4-Socket „Dell Poweredge R840“ mit 48 x 128 GB DIMMs erreicht 6 TB RAM.

Bildergalerie
Bildergalerie mit 9 Bildern

Ein „Dell Poweredge R960/R860“ bietet bis zu 4 Sockets mit den Intel-CPUs Xeon Sapphire Rapids. Diese Systeme sind SAP HANA-zertifiziert und bieten bis zu 768 vCPUs und 24 TB RAM, vSphere 8.0 U3 mit optimierter NUMA-Architektur und geringem Virtualisierungs-Overhead und unterstützen hyperkonvergente Infrastruktur (HCI) mit „Powerflex“ oder „Vxrail“. Für neue SAP HANA-Projekte empfiehlt sich auch ein Blick auf die R760/R660-Modelle, je nach Skalierungsbedarf und Infrastrukturstrategie.

Die Speicherkapazität ergibt sich aus der Anzahl der Speicherkanäle pro CPU, der DIMMs pro Kanal und der DIMM-Kapazität. Shared-Memory-Architektur ermöglicht es mehreren Prozessen, auf denselben Speicherbereich zuzugreifen.

In Memory

VMware hat im April 2025 die Unterstützung für SAP HANA für VMs mit bis zu 16 TB RAM pro VM und 768 vCPUs auf vSphere 8.0 U3 bestätigt. Der Stack unterstützt 8-Socket-Systeme mit 4th Gen Intel Xeon (Sapphire Rapids) und ist validiert für „SAP BW/4 HANA“- und „S/4 HANA“-Workloads.

Intel Xeon-Plattformen sind führend bei Multi-Socket-Skalierung; sie erlauben den parallelen Betrieb mit 4, 8, 16 und mehr CPU-Sockeln pro Server. Eine AMD Epyc-Plattform ist typischerweise auf 2 Sockel limitiert; es gibt jedoch Systeme, zum Beispiel von HPE/Cray, mit bis zu 4 Sockel.

Reale Auswirkungen – wer wechselt warum

Intel kämpft in Rechenzentren gleich an mehreren Fronten, und zwar recht unentschlossen. Die praktischen Folgen sind bereits deutlich spürbar. Große Cloud-Anbieter wie AWS, Google Cloud oder Microsoft Azure setzen vermehrt auf AMD-Epyc- oder ARM-basierte Server. Diese haben sich in hochparallelen HPC-Umgebungen sowie bei speicherintensiven Workloads als deutlich effizienter und kostengünstiger bewährt.

Auch Meta zieht Konsequenzen: Das Unternehmen reduziert den Einsatz von Intel-GPUs und investiert stattdessen massiv in eigene AI-Beschleuniger (MTIA) sowie in Systeme von Nvidia, die sich als stabiler und leistungsfähiger für große Trainings- und Inferenz-Cluster erwiesen haben.

Hyperscaler und Hosting-Dienstleister meiden Intel-Systeme, wenn thermische Herausforderungen, Lieferengpässe oder Instabilitäten die Gesamtbetriebskosten (TCO) unterm Strich hochtreiben und den Support-Aufwand unverhältnismäßig belasten.

*Das Autorenduo

Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.

AMD setzt mit der „Epyc“-Serie neue Maßstäbe bei Multi-Core-Durchsatz, Energie-Effizienz und Skalierbarkeit. „Intel Xeon“-Prozessoren punkten bei klassischen Workloads, hoher Einzelthread-Leistung und Flexibilität bei Multi-Socket- und Memory-intensiven Anwendungen.

Doch die Achillesfersen von Intel-Prozessoren – von thermischen Limitierungen über AVX-Throttling bis hin zu Softwareproblemen im KI-Bereich – belasten das Vertrauen vieler Betreiber. Die Entscheidung für eine Plattform bleibt eine Frage des Anwendungsszenarios und der langfristigen Roadmap.

(ID:50487920)