„Autarkie bleibt ein Trugschluss“ Michael Resch über Souveränität, Nachhaltigkeit und ein wenig: Quantencomputer

Von Paula Breukel 5 min Lesedauer

Anbieter zum Thema

HLRS-Direktor Michael Resch beschreibt im Gespräch, wie sich Technologien für Supercomputer entwickeln, warum Quantencomputer nicht die einzigen Kandidaten für die Architektur der Zukunft sind und welche Rolle Energieverbrauch und Abhängigkeiten von globalen Lieferketten spielen.

Obwohl Quantentechnologie und -computer faszinierend sind, sind die Hürden für eine breite Nutzung noch groß. Im Gespräch mit DataCenter-Insider zeigt der Direktor des HLRS den aktuellen Stand der Forschung auf.(Bild:  Midjourney / Paula Breukel / KI-generiert)
Obwohl Quantentechnologie und -computer faszinierend sind, sind die Hürden für eine breite Nutzung noch groß. Im Gespräch mit DataCenter-Insider zeigt der Direktor des HLRS den aktuellen Stand der Forschung auf.
(Bild: Midjourney / Paula Breukel / KI-generiert)

Professor Michael M. Resch, Direktor des Höchstleistungrechenzentrums Stuttgart sowie des Instituts für Höchstleistungsrechnen (HLRS) und DataCenter-Insider-Chefredakteurin Ulrike Ostler haben sich am 18. September 2025 zum Austausch im virtuellen Studio getroffen. Der Grund: neue Supercomputer und Reschs Betrachtungen zur Digitalen Souveränität. (Bild:  Vogel IT-Medien GmbH)
Professor Michael M. Resch, Direktor des Höchstleistungrechenzentrums Stuttgart sowie des Instituts für Höchstleistungsrechnen (HLRS) und DataCenter-Insider-Chefredakteurin Ulrike Ostler haben sich am 18. September 2025 zum Austausch im virtuellen Studio getroffen. Der Grund: neue Supercomputer und Reschs Betrachtungen zur Digitalen Souveränität.
(Bild: Vogel IT-Medien GmbH)

Am Höchstleistungsrechenzentrum Stuttgart (HLRS) wird heute schon über Technologien gesprochen, die erst 2032 Realität werden, sagt Direktor Professor Michael Resch. Schon heute sucht er das Gespräch mit Herstellern, um ein Gefühl dafür zu bekommen, wohin sich die Technologien entwickeln.

Es geht noch nicht um Produkte, sondern um die strategische Ausrichtung der Unternehmen und um Ideen, die vielleicht den Charakter eines Supercomputers revolutionieren könnten. „Wir stellen dann auch die Frage: Gibt es Dinge, an denen man heute forscht und von denen man erwarten kann, dass sie 2032 ein Produkt sind?“

Die Podcast-Folge #55 „Sind Quantencomputer die Zukunft oder nur ein theoretisches Experiment?“ mit HLRS-Direktor Professor Michael M. Resch und Ulrike Ostler der DataCenter Diaries findet sich auf Spotify, Apple Podcasts, Deezer und Amazon Musik.

Dabei können es sich die Stuttgarter selbst nicht leisten, bis zur Marktreife innovativer Technologien zu warten. „Ein Prozessor, der 2032 geliefert wird, ist in seinen wesentlichen Konzepten im Jahr 2030 bekannt“, betont Resch. Er ergänzt: „Je näher die Ausschreibung rückt, desto formaler wird der Prozess – von unverbindlichen Gesprächen hin zu klar dokumentierten Anforderungen. Sobald die Ausschreibung beginnt, müssen wir Protokolle führen und sehr konkret über das System diskutieren.“

Quantencomputer als Spezialfall und offene Technologiepfade

Quantencomputer lösen in Fachkreisen Faszination aus, da sie einen Blick in die Zukunft liefern. Doch Resch betont, dass selbst einfache Versuchssysteme bislang sehr sehr kostenintensiv ist.

Die Preise bewegen sich im zweistelligen Millionenbereich und der praktische Nutzen sei bislang auf wenige Bereiche beschränkt. So könne man zwar schon heute „Quantencomputer sehr gut bei Verschlüsselung und Entschlüsselung einsetzen“, ebenso „in manchen Anwendungen der theoretischen Physik“. Doch „für Ingenieurwissenschaften sind Quantencomputer aktuell noch nicht geeignet“, so Resch.

"Hunter" ist die derzeit jüngste Errungenschaft des HLRS; die Abbildung auf der Seite ist eine Visualisierung einer Wettersimulation. (Bild:  uo/ Vogele IT-Medien GmbH)
"Hunter" ist die derzeit jüngste Errungenschaft des HLRS; die Abbildung auf der Seite ist eine Visualisierung einer Wettersimulation.
(Bild: uo/ Vogele IT-Medien GmbH)

Welche Architektur künftig den Supercomputer dominiert und sich auch einen Massenmarkt sichern kann, ist nach Reschs Einschätzung vielmehr noch offen. Neben Quantencomputern konkurrieren Ansätze wie neuromorphe Chips, spezielle Beschleuniger für Maschinelles Lernen, verschiedene Vektorprozessor-Designs oder photonische Konzepte:

Auf dem Schlauch: Das "Hunter"-System ist wassergekühlt. (Bild:  uo/Vogel IT-Medien GmbH)
Auf dem Schlauch: Das "Hunter"-System ist wassergekühlt.
(Bild: uo/Vogel IT-Medien GmbH)

„Je nach Zählweise stehen zwischen sechs und acht verschiedene Technologien im Wettbewerb“, so Resch. Entscheidend sei dabei nicht allein die wissenschaftliche Leistungsfähigkeit, sondern ob eine Technologie den Sprung in den Massenmarkt schafft. Denn nur dann werde die Technologie industriell in ausreichendem Maßstab gefertigt und für den Einsatz in Supercomputern verfügbar.

Stand der Forschung und Perspektiven

Am HLRS wird derzeit intensiv an Technologien gearbeitet, die langfristig die Leistung und Effizienz von Supercomputern steigern sollen. Resch betont, dass sich die Forschung nicht nur auf bestehende Prozessoren konzentriert:

„Wir diskutieren, welche Ideen es gibt, wie sich Technologie weiterentwickeln kann, was evolutionär und was revolutionär möglich ist.“ Insbesondere photonische Ansätze stehen im Fokus, bei denen Daten nicht mehr über Elektronen, sondern über Licht übertragen werden, um Energieverbrauch und Abwärme drastisch zu reduzieren.

Das ist ein Teil des Innenlebens des HLRS-Supercomputers. (Bild:  uo/Vogel IT-Medien GmbH)
Das ist ein Teil des Innenlebens des HLRS-Supercomputers.
(Bild: uo/Vogel IT-Medien GmbH)

Resch unterstreicht, dass die Industrie frühzeitig in Forschungsprojekte einbezogen wird, um Prototypen und experimentelle Systeme praxisnah zu testen. Dies ermögliche nicht nur eine bessere wissenschaftliche Vorbereitung, sondern auch ein Verständnis dafür, wie Technologien später industriell umgesetzt werden könnten.

Digitale Souveränität: Autarkie bleibt ein Trugschluss

Beim Thema Souveränität plädiert Resch für eine realistische Sicht: „Wir wollen das bestmögliche System, das die bestmögliche Wissenschaft in Deutschland ermöglicht.“ Doch eine absolute Unabhängigkeit sei illusorisch: „Die Grundprodukte kommen aus Bergwerken in Asien und Afrika, die Fertigung findet in Taiwan statt, Spezialmaschinen stammen aus den Niederlanden und diese wiederum basieren auf Lasertechnologie aus Deutschland.“

Europa müsse entscheiden, ob es wie China Milliarden in eine eigenständige Chip-Industrie investieren oder auf Kooperation setzen soll. „Es ist meiner Ansicht nach eine Illusion zu glauben, dass man kurzfristig, in den nächsten drei bis fünf Jahren, Autarkie erreicht.“

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Nachhaltigkeit als Herausforderung

Resch verweist auf den steigenden Energiebedarf eines Teils neuer Technologien und von Rechenzentren insgesamt. Diese könnten langfristig bis zu ein Viertel des gesamten Stromverbrauchs beanspruchen: „Die große Herausforderung heißt Energieverbrauch, CO2-Ausstoß und Energieversorgung.“ Reine Software-Optimierungen reichten hier nicht aus: „Wenn Sie einen Rechner mit 100 Megawatt Leistungsaufnahme haben, dann ist es kein Durchbruch, wenn er nach Optimierungen 95 Megawatt braucht.“ Wirklich viel einsparen könne man erst, wenn die Hardware selbst grundlegend anders arbeitet und nicht mehr hunderte Kilowatt pro Rechenoperation benötigt.

Deshalb seien neue Ansätze in der Hardware entscheidend. Dazu gehören alternative Materialien und Technologien wie photonische Prozessoren, die Daten nicht mit Elektronen, sondern mit Licht verarbeiten. „Doch vom Prototyp bis zur breiten Anwendung ist es ein langer Weg, vergleichbar mit dem ersten Transistor der 1950er Jahre.“

Hunter ist das neue Flaggschiff

Der jüngste Supercomputer des HLRS trägt die Bezeichnung „Hunter“. Er basiert auf der Plattform „HPE Cray EX4000“ von Hewlett Packard Enterprise und ist ein Höchstleistungsrechner der Spitzenklasse. Hunter ermöglicht groß angelegte Anwendungen für Simulation, Künstliche Intelligenz (KI) und Datenanalyse sowie hybride Rechenansätze, die verschiedene Methoden zu Workflows kombinieren.

In dem wassergekühlten System, zu 100 Prozent lüfterlos, werden verstärkt GPUs eingesetzt. Bisher hatte das Zentrum einen CPU-orientierten Ansatz verfolgte.

Unter den Gästen bei der Einweihung von „Hunter“ waren (v.l.n.r.): Berthold Schmidt (TRUMPF), Michael Resch (HLRS), Peter Middendorf (Universität Stuttgart), Matthias Lederer (Porsche), Petra Olschowski (Ministerin für Wissenschaft, Forschung und Kunst Baden-Württemberg), Tom Schneider (TRUMPF), Brad McCredie (AMD), Anna Christmann (Mitglied des Deutschen Bundestages ), Heiko Meyer (HPE), Trish Damkroger (HPE), Marc Fischer (HPE) und Michael Rafii (BMBF).(Bild:  Max Kovalenko / Universität Stuttgart)
Unter den Gästen bei der Einweihung von „Hunter“ waren (v.l.n.r.): Berthold Schmidt (TRUMPF), Michael Resch (HLRS), Peter Middendorf (Universität Stuttgart), Matthias Lederer (Porsche), Petra Olschowski (Ministerin für Wissenschaft, Forschung und Kunst Baden-Württemberg), Tom Schneider (TRUMPF), Brad McCredie (AMD), Anna Christmann (Mitglied des Deutschen Bundestages ), Heiko Meyer (HPE), Trish Damkroger (HPE), Marc Fischer (HPE) und Michael Rafii (BMBF).
(Bild: Max Kovalenko / Universität Stuttgart)

Das Herzstück ist die „AMD Instinct MI300A APU“ (APU = Accelerated Processing Unit), die CPUs, GPUs und Speicher mit hoher Bandbreite vereint. Diese Technik bietet schnelle Datenübertragungsgeschwindigkeiten, Leistung, einfache Programmierbarkeit und hohe Energie-Effizienz. Bei seinem Debüt im Juni 2025 landete Hunter auf der „Green500“-Liste der Energie-effizientesten Supercomputer Hunter auf Platz 12.

Trotzdem ist Hunter mit einer theoretischen Spitzenleistung von 48,1 PetaFlop/s fast doppelt so schnell wie das Vorgängersystem „Hawk“ (siehe: Unter den Leistungsfähigsten der Top 500; Deutschlands schnellster Supercomputer werkelt nun in Stuttgart und senkt den Energiebedarf bei Spitzenleistung um etwa 80 Prozent.

Die Ausstattungsmerkmale

Jeder der 188 Knoten ist mit vier „HPE Slingshot“-Hochleistungs-Verbindungen ausgestattet. Die Maschine nutzt das HPE Cray Supercomputing Storage System „E2000“, das speziell für die anspruchsvollen Input/Output (I/O)-Anforderungen großer Supercomputer entwickelt wurde, sowie die HPE Cray Supercomputing Programming Environment Software, die ein umfassendes Set an Tools für die Entwicklung, Portierung, Fehlersuche und Optimierung von Anwendungen im großen Maßstab bietet. Der HPE Performance Cluster Manager wird auch für das Monitoring und die Verwaltung des Systemzustands sowie für das Energie-Management eingesetzt.

  • Theoretische Spitzenleistung: 48,1 PFlops
  • 752 APUs „MI300A“
  • 512 CPUs „AMD Epyc 9374F“
  • Anzahl Knoten: 188 APUs, 256 CPUs
  • Speichertechnologie: APU 512 GB HBM3 (~5.3 TB/s), CPU 768 GB DDR5-4800
  • 25 PB Speicherkapazität auf 2.120 Disks
  • Netzwerk: „HPE Slingshot 11 Dragonfly“ (APU: 4 x 200 Gbps pro Knoten)
  • Stromverbrauch (im Durchschnitt): 560 kW

Das HLRS hat Hunter als Übergangssystem konzipiert, mit dem sich die Nutzer:innen auf den kommenden Supercomputer „Herder“ vorbereiten können.HPE wird auch dieses System der nächsten Generation herstellen, dessen Installation für das Jahr 2027 geplant ist.

Die Gesamtkosten für Hunter betrugen 15 Millionen Euro. Die Hälfte der Mittel stellte das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg im Rahmen seiner Strategie für Höchstleistungsrechnen/Datenintensives Rechnen (HPC/DIC) zur Verfügung. Die zweite Hälfte kommt vom Bundesministerium für Bildung und Forschung innerhalb des SiVeGCS-Projekts. Die Förderung wurde vom Gauss Centre for Supercomputing (GCS), dem Zusammenschluss der drei Bundeshöchstleistungsrechenzentren, ermöglicht.

Artikelfiles und Artikellinks

(ID:50562659)