Nvidia steigt bei Intel ein. Und das bedeutet? Milliarden-Allianz für racksacle KI-Infrastrukturen

Von Anna Kobylinska und Filipe Martins* 10 min Lesedauer

Anbieter zum Thema

Aus Rivalen werden Partner: Mit einer milliardenschweren Beteiligung steigt Nvidia bei Intel ein, direkt nach Softbank und der U.S.-Regierung. Im hart umkämpften Markt für KI-Ausrüstung verschieben sich die Kräfteverhältnisse. Es gibt Gewinner — und es gibt Verlierer.

An Intel-Prozessoren haftet nun Nvidia(Bild:  Intel/Dall-E/Vogel IT-Medien GmbH)
An Intel-Prozessoren haftet nun Nvidia
(Bild: Intel/Dall-E/Vogel IT-Medien GmbH)

Am 18. September 2025 war die Sensation perfekt. 5 Milliarden Dollar spült Nvidia dem angeschlagenen Rivalen in die Kassen. Was auf den ersten Blick wie ein reines Finanzmanöver aussieht, um die einstigen Chip-Legende vor dem sprichwörtlichen Hammer zu bewahren, entpuppt sich bei genauerer Betrachtung als eine strategische Allianz zweier Technologiegiganten, die dabei ist, eine tektonische Verschiebung im Markt für KI-Infrastrukturen anzustoßen.

Kern der Allianz ist nicht das Kapital, sondern eine — in den Worten von Jensen Huang „historische“ — Zusammenarbeit zweier „Weltklasse‑Plattform[anbieter]“.

Durch die Allianz von NVIDIA und Intel entsteht ein eng gekoppeltes Ökosystem aus CPUs und GPUs, welches klassische IT-Architekturen im Rechenzentrum durch rackscale KI-Plattformen ablösen will. Gemäß dem Abkommen soll Intel maßgeschneiderte x86‑CPUs speziell für Nvidia entwickeln und fertigen. Nvidia integriert seinerseits die „NVLink“-Interconnects und GPU-Chiplets in Intels Plattformen (die SoCs). NVLink ermöglicht den Austausch von Daten und Steuerbefehlen zwischen CPUs und GPUs und übertrifft die Leistung von Standards wie PCI Express.

Für Rechenzentren wird Intel eine neue Reihe von x86-Prozessoren entwickeln, die speziell auf Nvidias KI-Infrastrukturplattformen für den Einsatz im Enterprise und in Hyperscale zugeschnitten sind. Im Bereich Consumer-PCs wird Intel x86-System-on-Chips fertigen, die Chiplets von Nvidias RTX-GPUs integrieren, die so genannten x86 RTX SoCs, für „eine breite Palette von PCs“. In diesem Segment ist Intel führend.

Halbleiter-Flaute? Das vermeintliche „Umsatzwachstum“ im Markt für Halbleiter resultiert fast ausschließlich aus einem Preisanstieg, der sich im Laufe der Jahre 2019 bis 2023 zu knapp 45 Prozent kumulierte (ohne RAM). Das erklärt, warum sich Nvidia die Intel-Foundry-Kapazitäten sichern möchte.(Bild:  Alliance Bernstein Holding L.P.)
Halbleiter-Flaute? Das vermeintliche „Umsatzwachstum“ im Markt für Halbleiter resultiert fast ausschließlich aus einem Preisanstieg, der sich im Laufe der Jahre 2019 bis 2023 zu knapp 45 Prozent kumulierte (ohne RAM). Das erklärt, warum sich Nvidia die Intel-Foundry-Kapazitäten sichern möchte.
(Bild: Alliance Bernstein Holding L.P.)

Softbank, einer der zentralen Finanzinvestoren und Mitgründer der „Stargate“-Initiative, hat sich bei Intel mit rund 3 Milliarden Dollar eingekauft, hält jedoch gerade einmal rund 1 Prozent der Aktien. Die US-Regierung sicherte sich im Sommer eine rund 10prozentige-Beteiligung an Intel durch die Umwandlung von Fördergeldern aus dem CHIPS Act. Regulatorische Bedenken scheint es aktuell keine zu geben.

Die Partnerschaft von Intel und Nvidia könnte den Handlungsspielraum im KI-Zeitalter neu definieren – mit Folgen für TCO, Energie-Effizienz und vieles andere. Für Rechenzentrumsbetreiber in Europa stellt sich damit eine zentrale Frage: Welche Workload-Strategien und Infrastrukturentscheidungen schaffen die nötige Investitionssicherheit?

Ein zweifacher Befreiungsschlag

Der Bedarf für spezialisierte Chips und Systeme in Rechenzentren explodiert, insbesondere durch KI, HPC und datenintensive Anwendungen. Analysten von Markets&Markets haben den Markt für KI-relevante Rechenzentrumshardware („AI Data Center Market“) im Jahre 2024 auf etwa 167,76 Milliarden Dollar beziffert. Prognosen zufolge soll der Umsatz bis 2030 auf über 933 Milliarden Dollar anwachsen; das käme einem jährlichen durchschnittlichen Wachstum (CAGR) in Höhe von über 30 Prozent gleich.

Sogar der Markt für Datacenter-CPUs gewinnt vor diesem Hintergrund verstärkt an Dynamik. Starke Nachfrage nach hohen Kernzahlen, integrierter KI-Beschleunigung und Energie-Effizienz wird noch zusätzlich durch starkes Wachstum der Cloud- und Enterprise-Betreiber befeuert, die ihre KI-, Machine-Learning- und Big-Data-Workloads auf Biegen und Brechen bewältigen müssen.

Architektonische Vielfalt und Markterweiterung werden durch Innovationen wie „AMDs Epyc“- und Rackscale-Systeme, „Intel Xeon 6“-Serie und die zunehmende Zahl neuer Designs sowie den Trend hin zu Edge- und 5G-Infrastrukturen weiter beschleunigt. Eine Konvergenz wachsender Workloads, innovativer Architekturen und Marktdifferenzierung treibt ein starkes Datacenter-CPU-Ökosystem an.

Wachstum im Markt von Datacenter-CPUs

Im Februar 2025 kündigte Intel die Einführung der „Intel Xeon 6700P“-Serie an, die über eine erhöhte Kernanzahl, verdoppelte Speicherbandbreite und KI-Beschleunigung in jedem Kern verfügt. Der globale Markt für Rechenzentrums-CPUs soll im laufenden Jahr (2025) etwa 14,19 Milliarden Dollar erreichen. Laut einer Prognose von Precedence Research pendelt sich danach das Wachstum um eine CAGR von gerade einmal 7,9 Prozent auf der Zeitachse bis 2034.

Nicht alles sieht düster aus, sogar für Intel: Das x86-Segment war im Jahr 2024 das umsatzstärkste im globalen Markt für Datencenter-CPUs nach Prozessorarchitektur mit einem dominierenden Marktanteil von 60 Prozent. Am schnellsten wächst jedoch nicht x86, sondern das ARM-Segment (gemessen an der durchschnittlichen jährlichen Wachstumsrate CAGR).

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Nach Server-Formfaktor hielten Rackmount-Server im Jahr 2024 den größten Anteil mit 40 Prozent. Das Microserver-Segment wird im Prognosezeitraum voraussichtlich am schnellsten wachsen.

Stark und stabil: Der weltweite Markt für Datacenter-CPUs soll Prognosen zufolge mit einer CAGR in Höhe von 7,87 Prozent auf der Zeitachse zwischen 2025 und 2034 wachsen.(Bild:  Precedence Research)
Stark und stabil: Der weltweite Markt für Datacenter-CPUs soll Prognosen zufolge mit einer CAGR in Höhe von 7,87 Prozent auf der Zeitachse zwischen 2025 und 2034 wachsen.
(Bild: Precedence Research)

Nach Anwendung entfiel im Jahr 2024 der größte Marktanteil mit 35 Prozent auf den Bereich Cloud Computing. Das Segment KI/ML (Künstliche Intelligenz/Maschinelles Lernen) weist im Prognosezeitraum das schnellste Wachstum auf. Nach Endanwender-Branche generierte der Bereich IT & Telekommunikation im Jahr 2024 mit 34 Prozent den größten Marktanteil.

Seit dem überraschenden Abgang von CEO Pat Gelsinger im vergangenen Jahr befindet sich der einstige Marktführer im Dauerkrisenmodus. Die ambitionierte „IDM 2.0“-Strategie, mit der der Konzern seine Fertigungstechnologie und das Foundry-Geschäft neu aufstellen wollte, geriet ins Stocken. Die ehrgeizige Vorgabe, binnen vier Jahren fünf neue Prozessknoten einzuführen, hat das Unternehmen nicht einhalten können. Insbesondere der „18A“-Prozess bleibt hinter den Erwartungen zurück: verspätet und immer noch qualitativ unausgereift.

Die Massenproduktion von 18A ist nun auf 2026 verschoben. Laut internen Berichten erreicht die Ausbeute gerade einmal rund 55 bis 65 Prozent — viel zu wenig. Die Unsicherheit über Qualität und Produktionsreife des 18A-Nodes gilt Analysten zufolge als eine zentrale Herausforderung.

Nicht gerade ausgegoren

Die massiven Investitionen in neue Fertigungsstätten belasten die Intel-Bilanz. Milliardenprojekte in den USA und Europa verschlingen Kapital, ohne dass sich bislang eine stabile Ertragsbasis abzeichnet. Intel wollte ja in Magdeburg (Sachsen-Anhalt) zwei große „Mega-Fabs“ beziehungsweise Halbleiterfabriken („Silicon Junction“) bauen. Das Investitionsvolumen war ursprünglich auf 17 Milliarden Euro festgelegt, später auf über 30 Milliarden Euro hochgesetzt.

Deutschland hatte für die Mega-Fab Subventionen in mehrstelliger Milliardenhöhe zugesagt.Geplant war ein Produktionsstart etwa 2027 mit Fabrikationskapazitäten und Foundry-Services. Ende Juli 2025 hat Intel das Projekt abgesagt. Der Schritt ist Teil einer breiteren Restrukturierung und Sparmaßnahmen unter dem neuen CEO Lip-Bu Tan.

Lip-Bu Tan ist gegenwärtig CEO bei Intel.(Bild:  Intel)
Lip-Bu Tan ist gegenwärtig CEO bei Intel.
(Bild: Intel)

Laut Angaben von Intel sei der Nachfrageausblick für hochmoderne Chips und Foundry-Kapazitäten zum Zeitpunkt der Entscheidung nicht stark genug, um das Projekt wirtschaftlich zu rechtfertigen.

Das Foundry-Geschäft von Intel stagniert, trotz politischer Unterstützung und staatlicher Zuschüsse.

„Wie stark hat die Preisgestaltung in den letzten Jahren zum Wachstum der Halbleiterindustrie beigetragen?“ fragte etwas provokativ Stacy Rasgon, Managing Director and Senior Analyst für das Ressort U.S. Semiconductors and Semiconductor Capital Equipment bei Alliance Bernstein Holding L.P., vor einiger Zeit auf X/Twitter. Seine Kurzantwort: „Mehr als alles“.

Stacy Rasgon, Managing Director and Senior Analyst für das Ressort U.S. Semiconductors and Semiconductor Capital Equipment bei Alliance Bernstein Holding L.P. (Bild:  Alliance Bernstein Holding L.P.)
Stacy Rasgon, Managing Director and Senior Analyst für das Ressort U.S. Semiconductors and Semiconductor Capital Equipment bei Alliance Bernstein Holding L.P.
(Bild: Alliance Bernstein Holding L.P.)

Zwischen 2019 und 2023 ist die Zahl verkaufter Halbleiterchips kaum gestiegen – im Schnitt sogar leicht gesunken. Das globale Umsatzwachstum resultiert fast ausschließlich aus höheren Durchschnittspreisen (ASP), die in diesem Zeitraum um kumulative 30 Prozent bis knapp 45 Prozent zugelegt haben.

Die Branche wächst also nicht durch mehr Einheiten, sondern vor allem durch teurere Chips.

Rasgon urteilte gerade noch im Juli, Intel habe zu jenem Zeitpunkt nur etwa 18 Monate Zeit gehabt, um für den 14A-Prozess einen namhaften externen Referenzkunden („Hero Customer“) zu gewinnen, danach wäre der Kuchen aufgeteilt.

Die Glaubwürdigkeit des Foundry-Geschäfts von Intel war angesichts der verschiedenen „Knoten-Probleme“ mit der hauseigenen Halbleiterfertigung in der Tat schon recht angeschlagen. Mit Nvidia hat Intel jetzt einen prominenten Kunden doch noch gefunden.

Chips à la carte

Zu Monatsbeginn hat Intel eine strategische Neuausrichtung angekündigt: Innerhalb der Unternehmensstruktur entsteht eine neue Organisationseinheit, die sich auf die Entwicklung maßgeschneiderter Halbleiterchips für externe Kunden konzentrieren soll. Die neue Einheit bündelt Kompetenzen aus den Bereichen Design, IP-Integration und Fertigung und soll externen Partnern ermöglichen, eigene Architekturbausteine mit Intels Technologieplattformen zu kombinieren.

Damit vollzieht Intel nun endlich den Paradigmenwechsel: Weg vom reinen Lieferanten eigener Standard-CPUs hin zum Anbieter kundenspezifischer Lösungen. Na endlich.

Dieser Schritt folgt einer klaren Marktlogik: Immer mehr Cloud- und Hyperscale-Anbieter setzen auf Custom Silicon, um ihre speziellen Workloads zu optimieren. Beispiele sind die „Amazon Graviton„-Prozessoren, „Google Tensor Processing Units“ (TPUs) und die „Maia„“- sowie „Cobalt-Chips von Microsoft. Intel konnte bislang in diesem Segment kaum punkten, trotz massiver Investitionen in Foundry-Kapazitäten.

Der Strategiewechsel

Mit dem neuen Geschäftsbereich signalisiert der Konzern, dass er bereit ist, kundenspezifische Anforderungen in den Mittelpunkt zu stellen, statt ausschließlich eigene Roadmaps zu verfolgen. Besondere Signalwirkung entfaltet die Nachricht, dass Nvidia als erster großer Kunde auf dieses Modell setzt.

Nvidia ist nicht nur der führende Anbieter von GPUs für KI-Workloads, sondern zugleich ein Treiber für die nächste Generation von Rechenzentrumsarchitekturen. Die Zusammenarbeit sieht vor, dass Intel maßgeschneiderte x86-CPUs für Nvidias Plattformen entwickelt, die über NVLink nahtlos mit Nvidias GPU-Clustern kommunizieren. Damit wird Intel zum Enabler einer CPU-GPU-Integration, die speziell auf KI-Workloads zugeschnitten ist.

Für Intel ist diese Partnerschaft also doppelt wertvoll. Einerseits sichert sie zusätzliche Fertigungsaufträge und eine planbare Auslastung der eigenen Fabs. Andererseits liefert sie endlich den dringend benötigten Vorzeigekunden im Foundry-Geschäft.

Das Customizing

Während Intels klassische Xeon-CPUs breite Workload-Kompatibilität bieten, zielt das Custom-Silicon-Modell auf Spezialisierung ab. Nvidias Anforderungen an hohe Speicherbandbreite, niedrige Latenz und enge Kopplung von GPU und CPU werden direkt in das CPU-Design integriert.

Die geplanten Prozessoren unterscheiden sich damit grundlegend von Standardprodukten, die für heterogene Märkte optimiert sind. Die Fähigkeit der beiden Partner, Intel-x86-Ökosystem mit Nvidia-Interconnect- und Chiplet-Technologien zu verschmelzen, eröffnet völlig neue Horizonte der „hardwarebeschleunigten Innovation“.

Diese Form des Co-Designs markiert eine neue Stufe der Wertschöpfungskette: Intel tritt nicht länger ausschließlich als Lieferant auf, der die eigene Roadmap als Maßstab aller Dinge anderen vorgibt, sondern als Entwicklungspartner, der gemeinsam mit dem Kunden die Ärmel hochkrempelt und gemeinsame Architekturentscheidungen ausführt.

Damit nähert sich Intel Geschäftsmodellen, wie sie bei TSMC oder Samsung Foundry etabliert sind – allerdings mit einem wesentlichen Unterschied. Anders als seine schwergewichtigen Rivalen im Foundry-Geschäft kann Intel eigene IP, zum Beispiel eben die x86-Cores - als Baustein in die kundenspezifische Lösung einbringen.

Das „Fabric“ der KI-Fabrik

Ein „Lock-in“ in eine Intel/Nvidia-Architektur wird der Markt wohl kaum akzeptieren; Hyperscaler werden Alternativen einfordern. Fertigungskapazitäten bleiben jedoch vorerst das Nadelöhr.

Die Vertikalisierung dürfte sich beschleunigen. Hersteller integrieren immer öfter mehrere Wertschöpfungsstufen: Entwicklung, IP, Interconnect, Software-Stack. Dadurch verschiebt sich die Macht von reinen CPU- oder GPU-Lieferanten hin zu Komplettarchitektur-Anbietern. Die Margen dürften wachsen.

Die Vertikalisierung beschleunigt sich. Wer mehrere Stufen der Wertschöpfungskette – von der Chipentwicklung über Interconnects bis hin zum Software-Stack – kontrollieren kann, findet neue Synergien und baut Resilienz auf. Komplettarchitektur-Anbieter können eine größere Hebelwirkung ausüben als reine Komponentenlieferanten.

Was macht die Konkurrenz?

AMD, ein Taktgeber der KI-Konvergenz von Chiparchitekturen mit „Epyc“‑CPUs und „Instinct“‑GPUs, gerät in seinen Kernmärkten überraschend unter Druck. Bei Lynx Equity ist von einem „klaren Negativum für AMD“ die Rede.

AMDs Erfolgsrezept beruhte auf der engen Verzahnung von x86‑CPUs und eigenen GPUs; gerade im Rechenzentrum fand der Ansatz breite Akzeptanz. Diese Selbstverständlichkeit steht nun zur Disposition.

Doch damit nicht genug.

Ein besonders aufschlussreicher aktueller Schachzug von Nvidia ist ein Deal mit Enfabrica, der kürzlich und recht leise über die Bühne ging. Medienberichten zufolge hat Nvidia über 900 Millionen Dollar in bar und Aktien ausgegeben, um einige Schlüsselfiguren und die Technologie des Startups zu übernehmen.

Nvidia verleibt sich Interconnect-Spezialist Enfrabrica ein

Enfabrica entwickelt Technologien, mit denen sich zehntausende Beschleunigerchips – zum Beispiel eben GPUs – effizient miteinander vernetzen lassen. Nach Unternehmensangaben können mehr als 100.000 Chips miteinander kommunizieren, ohne dass es zu nennenswerten Leistungseinbußen kommt.

In riesigen GPU-Clustern werden Interconnect und Speicher zum Nadelöhr der Gesamtleistung. Enfabrica adressiert diese Engpässe mit eigenen Fabric- und Speicherlösungen. Mit dieser „Kompetenzenakquise“ bekennt Nvidia die Absicht, künftig deutlich größere KI-Cluster zu betreiben – eine zentrale Voraussetzung für „Custom Infrastructure“ oder „AI Infrastructure Platforms“ aus dem Intel-Deal.

Nvidia bleibt auf Expansionskurs: Nach Milliardeninvestitionen in Rechenzentrums- und KI-Technologien prüft der Konzern nun ein 500-Millionen-Dollar-Investment in das Autonomous-Driving-Startup Wayve (aus Mountain View, Kalifornien), ein weiteres Signal für die wachsende Verzahnung von KI-Infrastruktur und Anwendungsfeldern(Bild:  Wayve Technologies Inc.)
Nvidia bleibt auf Expansionskurs: Nach Milliardeninvestitionen in Rechenzentrums- und KI-Technologien prüft der Konzern nun ein 500-Millionen-Dollar-Investment in das Autonomous-Driving-Startup Wayve (aus Mountain View, Kalifornien), ein weiteres Signal für die wachsende Verzahnung von KI-Infrastruktur und Anwendungsfeldern
(Bild: Wayve Technologies Inc.)

Viele Datacenter-Betreiber und Hyperscaler fahren allerdings bewusst Multi-Vendor-Strategien. AMD hat unverkennbare technologische Stärken in der Speicheranbindung mit „Infinity Fabric“. Die AMD-Roadmap zeigt, dass man auf heterogene Workloads und skalierbare Speicherarchitekturen vorbereitet ist.

Das Innovationstempo im Fabric-Layer nimmt spürbar zu und auch HPE steht hier vor großen Aufgaben. Mit „Slingshot“ und dem durch die Juniper‑Übernahme erweiterten Netzwerkportfolio will das Unternehmen gezielt die Anforderungen moderner KI- und HPC-Topologien meistern.

HPE und Juniper Networks bündeln ihr Netzwerk-Know-how auf dem Weg zum „self-driving“ KI-Rechenzentrum. In der Abbildung: HPE-CEO Antonio Neri (links) und Ex-Juniper-CEO Rami Rahim.(Bild:  HPE)
HPE und Juniper Networks bündeln ihr Netzwerk-Know-how auf dem Weg zum „self-driving“ KI-Rechenzentrum. In der Abbildung: HPE-CEO Antonio Neri (links) und Ex-Juniper-CEO Rami Rahim.
(Bild: HPE)

Zwar verfügt HPE bereits über ein ausgewogenes Rechenzentrumsangebot, doch die Vision eines KI-gestützten, weitgehend selbststeuernden Datacenter-Netzwerks wurde erst durch den strategischen Zukauf von Juniper Networks für 13,4 Milliarden Dollar greifbar – eine Investition, die selbst für HPE von erheblichem Gewicht ist.

Das Autorenduo*

Das Autorenduo Anna Kobylinska und Filipe Pereia Martins arbeitet für McKinley Denali Inc. (USA). Ihr Fazit lautet: Die Allianz zwischen Nvidia und Intel ist ein strategischer Doppelschlag: Intel gewinnt mit Nvidia endlich einen prominenten Referenzkunden im Foundry-Geschäft und stärkt damit seine Glaubwürdigkeit.

Nvidia wiederum sichert sich zusätzliche Fertigungskapazitäten und die Möglichkeit, CPU- und GPU-Komponenten enger zu verzahnen – eine Schlüsselvoraussetzung für kommende KI-Workloads. Mit der Übernahme von Enfabrica untermauert Nvidia zudem den Anspruch, GPU-Cluster in neue Größenordnungen zu skalieren und Interconnect-Engpässe zu überwinden.

Für Betreiber eröffnet die Partnerschaft neue Optionen, bringt aber auch Unsicherheiten mit sich: Wie entwickeln sich TCO und Energie-Effizienz, und wie viel Raum bleibt für Multi-Vendor-Strategien?

An Fragen bleibt dennoch einiges offen: Bekommt Intel seine Fertigungsprobleme in den Griff? Welchen Preis wird der Markt dafür zahlen?

(ID:50574100)