Hochleistungschips für Rechenzentren Wo Silizium und Quanten die Grenzen verschieben

Von Anna Kobylinska und Filipe Martins* Lesedauer: 8 min |

Anbieter zum Thema

KI-Modelle wachsen exponentiell; neues Silizium folgt gerade noch mit Ach und Krach dem frisch umformulierten Mooreschen Gesetz. In diesem Spannungsfeld muss irgendwas nachgeben. Gibt es denn nicht schon Energie-effiziente Hochleistungschips, die nichts kosten? Quantenbeschleuniger für jeden Geldbeutel? Irgendwie Licht, oder zumindest neue Lithografie, am Ende des Tunnels?

Intel lässt sich ins Glas schauen: Chef Pat Gelsinger präsentiert Chips, die auf Glas-Substraten sitzen.
Intel lässt sich ins Glas schauen: Chef Pat Gelsinger präsentiert Chips, die auf Glas-Substraten sitzen.
(Bild: Intel)

Keiner der etablierten Chiphersteller möchte die Zukunft dem Zufall überlassen. Doch von den heutigen Hochleistungschips führt in die Zukunft noch eine recht holprige Roadmap – sogar im Bereich des klassischen Computings, umso mehr jedoch bei Quantenchips.

Das Mooresche Gesetz besagte im O-Ton des Intel Mitgründers Gordon Moore, dass sich die Anzahl der Transistoren in einem integrierten Schaltkreis (IC) etwa alle zwei Jahre verdoppeln würde. Es war weder ein Gesetz der Physik noch der Elektrotechnik, sondern eine bloße Beobachtung der gelebten Realität und eine Faustregel für die wirtschaftliche Wettbewerbsfähigkeit neuer Chips unter Beachtung ihrer technologischen Machbarkeit.

Die Marketing-Abteilung von Intel lässt grüßen: Das neu definierte Moorsche Gesetz –„pro Device“ statt „pro integriertem Schaltkreis“ – lässt die Branche wieder gut aussehen.
Die Marketing-Abteilung von Intel lässt grüßen: Das neu definierte Moorsche Gesetz –„pro Device“ statt „pro integriertem Schaltkreis“ – lässt die Branche wieder gut aussehen.
(Bild: Intel)

Der gegenwärtige Intel-CEO Pat Gelsinger, ein realitätsnaher Elektrotechniker, hat das Mooresche Gesetz neuerdings kurzerhand umformuliert. Die Anzahl der Transistoren verdopple sich demnach alle zwei Jahre „pro Device“ statt „pro integriertem Schaltkreis“ – und schon ist die Wall Street wieder zufrieden.

EQTC 2023

Die „European Quantum Technologies Conference“ (EQTC) 2023, die vom 16. bis 20. Oktober in Hannover stattfand, brachte rund 700 Schlüsselfiguren aus dem gesamten Quantenökosystem – aus den Bereichen Wissenschaft, Politik, Industrie und Start-ups – zusammen, um über die neuesten Fortschritte in Forschung, Finanzierung, Unternehmensgründungen und Möglichkeiten im aufstrebenden Quantentechnologiesektor Europas zu beraten.

Professor Tommaso Calarco vom Forschungszentrum Jülich, führender Quantenphysiker, Initiator und Wegbereiter einer gemeinsam nationalen und europäischen Quantentechnologie-Forschung, in der Paneldiskussion auf der „EQTC 2023“ in Hannover.
Professor Tommaso Calarco vom Forschungszentrum Jülich, führender Quantenphysiker, Initiator und Wegbereiter einer gemeinsam nationalen und europäischen Quantentechnologie-Forschung, in der Paneldiskussion auf der „EQTC 2023“ in Hannover.
(Bild: EQTC)

Das zweijährliche Stelldichein der europäischen Quanten-Computing-Szene zeigte bemerkenswerte Fortschritte gegenüber den Zielen für 2030. Diese entstammen den Vordenkern der Quantum Flagship-Initiative. Die Quantum Flagship-Initiative ist ein zehnjähriges groß angelegtes Forschungs- und Entwicklungsvorhaben der Europäischen Union mit dem Ziel, die Quantentechnologie von der Forschung im Labor bis hin zu kommerziell nutzbaren Produkten zu fördern.

Investition aus der öffentlichen Hand und der privaten VC-Szene in das Quantenökosystem stiegen sogar noch schneller, nämlich um 18,6 Prozent auf 408 Millionen Euro (im Jahr 2022) und haben damit 40 Prozent des Ziels für 2030 von einer 1 Milliarde Euro bereits erreicht (siehe auch: „Der Markt für Quantenrechnerei wächst; Investitionen ins Quantencomputing“. Die Anzahl europäischer Metropolregionen mit sicheren Quantenschlüsselverteilungs-Knoten, die sowohl vernetzt als auch in die kommerzielle Telekommunikationsinfrastruktur integriert sind, haben sich von einem Gebiet mit acht Knoten auf 15 Gebiete mit jeweils 10 Knoten erweitert.

Laure Le Bars, Präsidentin des QuIC (European Quantum Industry Consortium) und Research Project Director bei SAP Technology & Innovation, macht sich stark für die Wettbewerbsfähigkeit der europäischen Quantencomputing-Industrie.
Laure Le Bars, Präsidentin des QuIC (European Quantum Industry Consortium) und Research Project Director bei SAP Technology & Innovation, macht sich stark für die Wettbewerbsfähigkeit der europäischen Quantencomputing-Industrie.
(Bild: MATE PETER/ EQTC)

Ein Panel am 18. Oktober diskutierte die Strategische Forschungs- und Industrieagenda (SRIA) des Quantum Flagship, und gab einen Ausblick auf einige der Änderungen, Herausforderungen und Überlegungen hinter der bevorstehenden Ausgabe der SRIA. demnach können auch die besten Quantencomputer in absehbarer Zeit auf klassische Halbleiter nicht verzichten, vielmehr brauchen sie leistungsstarkes Silizium.

Branchenführer wie Intel und AMD setzen ihre Innovationsbemühungen um die Wette fort, um weiterhin relevant zu bleiben. Zuletzt musste Intel den Rechenzentrumsanwendern geplante Änderungen in der (erneut aktualisierten) Roadmap offenlegen.

Birch Stream: E-Klasse oder P-Klasse?

Intels Datencenter-Chips künftiger Generationen fallen in eine von zwei Kategorien: P-Core (kurz für Performance Core) oder E-Core (kurz für Efficiency Core).

Die neue „E-Klasse“ von Intel im Überblick.
Die neue „E-Klasse“ von Intel im Überblick.
(Bild: Intel)

Chips der P-Core-Reihe adressieren Workloads mit geringer Latenz, also Künstliche Intelligenz (KI), HPC und Datenbanken, bei denen es auf die Performance pro Kern ankommt. Chips der E-Core-Reihe sind im Gegensatz dazu für stark parallele, latenztolerante Workloads wie hochdichte VM-Bereitstellungen, Datenanalyse und Front-End-Webdienste mit einem Datendurchsatz für Cloud-native Arbeitslasten eines Hyperscalers konzipiert. Sie sollen nicht zuletzt den Vormarsch von ARM-basierter SoCs von Unternehmen wie Ampere, Amazon, Google und Microsoft eindämmen.

Intels nächste Generation von CPUs für Rechenzentren basiert auf einer neuen Plattformarchitektur: „Birch Stream“. Die ersten „Xeon“-Chips der nächsten Generation taufte der Anbieter auf die Namen „Sierra Forest“ (E-Core) und „Granite Rapids“ (P-Core). „Bride“-CPU-Reihen nutzen denselben Socket (LGA7529), dasselbe BIOS und dieselbe Software. (AMD hat es ja vorgemacht.)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Die traditionsreiche „P-Klasse“ von Intel unter der Haube.
Die traditionsreiche „P-Klasse“ von Intel unter der Haube.
(Bild: Intel)

Sierra Forest ist als eine ultra-energie-effiziente Alternative zu Granite Rapids konzipiert. Die Letztere der beiden CPUs ist primär auf eine massive Speicherbandbreite ausgelegt. In einer Intel-Demo erreichte Granite Rapids mit DDR5-Speicher eine Bandbreite von 1,5 TB pro Sekunde in einem Dual-Socket-Server – deutlich mehr als Nvidias CPU „Grace“ mit ihren zwei Superchips „Grace Hopper“ (gerade einmal „magere“ 960 GB pro Sekunde). Diesen erstaunlichen Durchbruch soll Intels Speicherinnovation „Multiplexer Combined Rank“ ermöglicht haben, das Resultat einer mehrjährigen Zusammenarbeit zwischen Intel, SK Hynix und Renesas.

Die Einführung von Sierra Forest, dem ersten Xeon Scalable der E-Core-Reihe für Rechenzentrum-Anwendungen, stellt für den Chip-Riesen einen bedeutenden Fortschritt dar. Mit seinen stolzen 144 Kernen bringt es die CPU auf 288 Kerne in einem Dual-Socket-Server mit 12 DDR5-Speicherkanälen. („AMD Epyc Bergamo“ hat 128 Kerne pro CPU; ein Dual-Socket-Server kommt auf gerade einmal 256).

Intel 3, Intel 4 - 5nm, 7nm

Sierra Forest markiert den Debüt des EUV-basierten Halbleiterherstellungsprozesses Intel 3, des Nachfolgers von Intel 4. EUV steht für „extreme ultraviolette“ Lithografie. Die kürzeren Wellenlängen in diesem Prozess erzeugen auf Halbleitern kleinere Strukturen. Dies ermöglicht eine höhere Packungsdichte und verbesserte Leistung von Halbleiterbauelementen. Spoiler-Warnung: „Intel 3“ ist ein 5nm-Prozess. („Intel 4“ ist auch so ein kniffliger Name. Der Hintergrund: Die Bezeichnung „7nm“ macht sich irgendwie schlecht!)

Im Dezember 2023 beginnt noch die Auslieferung der fünften Generation von Xeon, Codename „Emerald Rapids“ (P-Core, Drop-in-kompatibel mit Sapphire Rapids, aber mit mehr Kernen, mehr Leistung und geringerem Energieverbrauch). Intels erster E-Core-Chip, Sierra Forest, erscheint in der ersten Hälfte 2024, bereits im neuen Halbleiterprozess. Kurz darauf folgt der nächste P-Core-Chip, Codename Granite Rapids, auch schon im Halbleiterprozess Intel 3, mit mehr Kernen als Emerald Rapids und höherer Speicherbandbreite dank DDR5-8800.

Die zweite Generation der E-Core-Linie, Codename „Clearwater Forest“, soll dann im Jahre 2025 folgen und als erster Xeon-Chip im 18A-Prozess gefertigt werden (1.8nm). Letzteres dürfte der Energieeffizienz zugutekommen. Intels Fertigungsprozess 18A ist rund 10% energieeffizienter als 20A. Intel verspricht sich davon technologische Überlegenheit gegenüber TSMC und AMD im Jahre 2025.

Auf der Roadmap

Kürzlich hat Intel seine GPU-Roadmap umgekrempelt. Anders als ursprünglich geplant bekommt der Supercomputing- und HPC-Chip „Falcon Shores“ jetzt doch keine CPU-Kerne. Stattdessen will Intel in dieser neuartigen Prozessorarchitektur seine GPU- und NNP-Linien zusammenführen. (NNP steht für Neural Network Processor.)

Falcon Shores wird damit keine hybride CPU-GPU-Engine werden, sondern eine reine GPU mit Matrix-Beschleunigern von „Habana Gaudi“, mit Vektorengines der GPU-Architektur „Xe“ (aus der „Max“-Reihe), Intels integriertem Ethernet-Netzwerk und möglicherweise einem Speicherupgrade auf HBM3. Mit dieser Lösung könnte Intel sowohl HPC als auch KI-Arbeitslasten abdecken.

Die GPU-Reihe Max für Datencenter, Codename „Rialto Bridge“, fiel dem roten Stift zum Opfer. Neue GPUs für Datencenter will man jetzt nur alle zwei Jahre herausbringen.

Gläser klirren lassen

Die Halbleiterindustrie nähert sich immer schneller an die Grenzen der technischen Machbarkeit von Transistoren auf Siliziumbasis mit konventionellen - nämlich organischen - Materialien. Diese Materialien sind durch Einschränkungen wie Schrumpfung, Verformung und nicht zuletzt einen erhöhten Stromverbrauch geplagt.

Heutige Chips sitzen auf Substraten, die sie mit einer größeren Schaltplatine verbinden, zum Beispiel mit dem Hauptboard. Intel hat einen Weg gefunden, dies nun mit fortschrittlichen Glas-Substraten umzusetzen.

Zu den Vorteilen von Glas-Substraten zählt die Toleranz für höhere Temperaturen, eine um 50 Prozent geringere Rate der Musterverzerrung, extrem geringe Planheit, die für eine verbesserte Schärfentiefe bei der Lithographie sorgt, und die außergewöhnliche dimensionale Stabilität, die eine präzise Überlagerung von Schicht-zu-Schicht-Verbindungen möglich machen soll.

Die Vorteile von Glas

Diese besonderen Eigenschaften von Glas-Substraten dürften eine Erhöhung der Interkonnektionsdichte um den Faktor 10 erlauben. Die verbesserten mechanischen Eigenschaften sollen zudem die Herstellung von Packages in einem ultragroßen Formfaktor mit hoher Montage-Ausbeute ermöglichen. Mit diesen neuen Substraten will Intel unter anderem leistungsstärkere, ultra-große Multi-Chiplet-SiPs (System-in-Packages) für Rechenzentren bauen.

Intel geht davon aus, dass bis zu 60 Prozent aller KI-Workloads (bis auf die ganz großen KI-Modelle) problemlos auf den CPUs ausgeführt werden können. Das Unternehmen will mit dem Bau eines massiven KI-Supercomputers eine Probe aufs Exempel machen. Hauptkunde ist Stability AI, eine Spezialistin für generative KI. 4.000 Hardware-Beschleuniger für KI-Arbeitslasten vom Typ Intel „Gaudi2“ sollen dem System zur Spitzenleistung verhelfen.

Ein KI-Supercomputer mit Gaudi2

Der Gaudi-Prozessor stammt aus der Intels-Übernahme der israelischen Habana Labs. Bei Benchmarks liefert sich Intel immer wieder einen Schlagabtausch mit Nvidia.

Die aktuelle Generation, Gaudi2, hat sich anfangs recht tapfer geschlagen. Beim Training hatte zwar „Nvidia A100“ die Nase vorne, doch bei der Inferenz konnte Intels Gaudi2 mit der 2,5-fachen Leistung punkten.

Im Vergleich mit der H100 von Nvidia zieht Gaudi2 klar den Kürzeren, erst recht gegenüber dem Superchip Grace Hopper (bestehend aus einer ARM-CPU Grace, der GPU „Hopper H100“, „HBM3“ und „LPDDR5X“). Mit der Veröffentlichung der quelloffenen Bibliothek „TensorRT“ für LLMs konnte Nvidia die Leistung der H100 bei der Inferenz kürzlich noch verdoppeln.

Wer behält die Übersicht?

In HPC-Rechenzentren mischen aber auch noch andere Beschleuniger mit – jene nämlich, die ihre Leistung in Qubits angeben. Damit gibt es eben ein kleines Problem. Mit seinem rasanten Innovationstempo wird die Quantencomputing-Landschaft langsam unübersichtlich.

Allein die Anzahl der Start-ups, Spin-offs, Inkubatoren, Akzeleratoren sowie öffentlich-privaten Partnerschaften in der europäischen Quantencomputing-Szene ist im vergangenen Jahr (2022) um 20,25 Prozent auf 95 herangewachsen und hat damit bereits 38 Prozent des Ziels (von 250) für das Jahr 2030 erreicht.

Zu diesem Ergebnis kam eine kürzlich durchgeführte Umfrage des Quantum Flagships, einer Vorzeigeinitiative der Europäischen Union für die Forschung auf dem Gebiet des Quantencomputing. Doch praktische Anwendungen hinken der Forschung noch deutlich hinterher.

Während Quantenbeschleuniger zunehmend in die greifbare Reichweite von HPC-Rechenzentren rücken und dort auf großes Interesse von Akademia stoßen, zeigen sich privatwirtschaftliche Nutzer gegenüber der Technologie eher zurückhaltend. Entscheidungsträger, die die Zügel der Geldbörse halten, wünschen sich mehr Durchblick.

Zurecht, denn Quantenbeschleuniger verschiedener Anbieter sind nicht direkt miteinander vergleichbar. Ihre Leistung hängt ja auch von vielen Faktoren ab (und nicht etwa von der reinen Anzahl der Qubits). Was man nicht messen kann, kann man bekanntlich nicht verbessern.

So bleibt aber das Potential von Quantencomputern in praktischen Anwendungen hinter den hochgesteckten Erwartungen zurück. Dies soll sich mit dem Gemeinschaftsprojekt „Bench-QC“ ändern. Neben Quantenchips ist das natürlich alles fast schon Schnee von gestern.

Was man nicht messen kann: Ein Benchmark für Quantenbeschleuniger

Im Leuchtturmprojekt Bench-QC des Munich Quantum Valley der Bayerischen Staatsregierung ziehen sechs Projektpartner aus Wissenschaft und Wirtschaft gemeinsam an einem Strang: Sie entwickeln ein systematisches anwendungsgetriebenes Benchmarking von Quantencomputing-Leistung.

Das Projekt will die Frage beantworten, welche quantitativen und qualitativen Eigenschaften Quantencomputer aufweisen müssen, um die Anforderungen praktischer Nutzungsszenarien in unterschiedlichen Anwendungsbereichen zu erfüllen. Konkret also zum Beispiel, wie viele Qubits in welcher Qualität braucht man für diese oder jene Aufgabe? Ein besonderer Fokus liegt hierbei auf Simulationsproblemen, Optimierungsfragen und Quantum-getriebenem Maschinellen Lernen. Zu den Projektpartnern zählen unter anderem BMW, Reply, Fraunhofer IIS und Fraunhofer IKS.

PD Dr. habil. Jeanette Miriam Lorenz kommentiert: „Mit Bench-QC (...) werden wir genau sagen können, für welche Anwendungen und unter welchen Bedingungen an Quantencomputing-Hardware und -Software sich perspektivisch ein Quantenvorteil für Anwendungen ergeben wird.“ Sie ist die Leiterin der Abteilung »Quantum-enhanced AI« beim Fraunhofer IKS.

Bench-QC erhielt unter anderem Förderung im Rahmen der Hightech Agenda Plus und vom Bayerischen Staatsministerium für Wirtschaft, Landesentwicklung und Energie für eine Projektlaufzeit vom Januar 2023 bis Dezember 2025.

*Das Fazit der Autoren

Das Autorenduo Anna Kobylinska und Filipe Pereia Martins arbeiten für McKinley Denali, Inc., USA. Ihr Fazit lautet:

„Europa will in der Chip-Fertigung eine Führungsrolle übernehmen und mit einheimischen Gewächsen der Quantencomputing-Szene 'Wachstumsbeschleuniger' hervorbringen.“

(ID:49772405)