Auf der Suche nach Energie-effizienter Rechenleistung jenseits klassischer Supercomputer für Anwendungen wie die KI wenden sich Rechenzentren hybriden Architekturen zu: mit Quantencomputern, neuromorphischen Chips & Co.
Im Bild: Die Kühlanlagen auf dem Dach des „Modular Data Centre“, in dem „Jupiter“untergebracht ist. Mit mehr als 60 Milliarden Rechenoperationen pro Watt ist Jupiter der effizienteste unter den fünf leistungsfähigsten Superrechnern der Welt.
(Bild: Forschungszentrum Jülich/Sascha Kreklau)
Innerhalb von nur acht Monaten hat das Jülich Supercomputing Centre (JSC) gemeinsam mit Eviden (Atos‑Gruppe), Nvidia und dem EuroHPC Joint Undertaking ein containerisiertes hochmodulares Rechenzentrum auf dem Campus des Forschungszentrums Jülich aufgestellt, Europas erste Exascale-fähige Supermaschine: „Jupiter“.
Europas schnellster Supercomputer, ein Rechner der Superlative, wurde in nur acht Monaten aus 50 Containern modular aufgebaut.
(Bild: Forschungszentrum Jülich)
Jupiter, kurz für 'Joint Undertaking Pioneer for Innovative and Transformative Exascale Research', ist eine voll betriebsfähige KI-Fabrik der Sonderklasse. Die Anlage erreichte Platz 4 auf der Top500 Liste der Supercomputer und Platz 1 auf der GreenTop500 mit dem Teilsystem „Jedi“, obwohl das komplette Exascale-System noch nicht voll ausgebaut ist.
Der modulare Gedanke
Von Beginn an wurde Jupier als dynamische Modulare Supercomputing‑Architektur (dMSA) konzipiert. Jeder Funktionsblock steckt in einem eigenen Rack‑Modul, das sich bei Bedarf ein‑ und ausbauen lässt, ohne den Takt des Gesamtsystems zu stören. Containerisierte Technikmodule lassen sich im Live‑Betrieb ein‑ und ausstecken, ohne das Gesamtsystem anzuhalten.
Diese modular orchestrierte KI-Gigafactory vereint klassische Simulation, KI-Training, Cloud-nativeWorkloads, Quanten- und neuromorphe Ressourcen in einem fein abgestimmten Gesamtsystem. Kristel Michielsen, Leiterin der Aktivitäten im Bereich Quantencomputing am Jülich Supercomputing Centre und der „Juniq“-Infrastruktur, erläutert: „Für praktisches Quantencomputing müssen wir Hochleistungsrechnen mit dem Quantenvorteil kombinieren.“
Professorin Kristel Michielsen, Leiterin der Abteilung „HPC for Quantum Systems“ und „Juniq“ am Forschungszentrum Jülich, hat die internationale Quantenforschung maßgeblich geprägt – insbesondere im Bereich der Simulation von Quantencomputern und der Validierung von Quantenalgorithmen.
(Bild: Forschungszentrum Jülich)
Die Architektur von Jupiter unterstützt die Integration von neuen Rechenparadigmen in den dMSA Modulrahmen, ohne hierzu einen grundlegenden Umbau erforderlich zu machen. Zwei Technologien stehen in der Umsetzung: Quantenbeschleuniger für kombinatorische Optimierung und variationales Computing auf der einen Seite und neuromorphe Prozessoren für ereignisgetriebene KI-Lasten auf der anderen Seite. Jupiter weist somit den Weg für hybridisierte Rechenzentren der Zukunft.
Der GPU-Booster von Jupiter
Im Herzen der Anlage arbeitet das GPU-beschleunigte Booster-Modul – das Kraftzentrum für massiv-paralleles KI-Training und GenAI-Workloads. Speziell auf Transformer-Modelle, LLMs mit Hunderten Milliarden Parametern, Multi-Agent-Systeme und neuronale Simulationen zugeschnitten, bildet es die kognitive Speerspitze der Anlage.
In 24.000 „Nvidia GH200 Grace‑Hopper‑Superchips“ verschmelzen ARM‑CPU‑Kerne, High‑Bandwidth‑Memory und Hopper‑GPU in einem gemeinsamen Package. Die Knoten kommunizieren über „NVLink‑C2C“ und „Quantum‑2‑Infiniband“ mit 400 Gigabit pro Sekunde (Gb/s). Als mechanisches Rückgrat dient die „Bullsequana XH3000“‑Schrankreihe von Eviden, deren Kühlplatten von Direct‑Liquid‑Cooling (DLC) durchströmt werden.
So macht man es richtig: Strukturierte Verkabelung ohne Hitzestau im „Jupiter“ am Forschungszentrum Jülich.
(Bild: Forschungszentrum Jülich/Sascha Kreklau)
Beim offiziellen Linpack‑Lauf zur Konferenz „ISC 2025“ erzielte das Booster‑Subsystem 793 PFlop/s (FP64). Nach vollständigem Ausbau soll die HPC‑Performance die ExaFLop/s‑Schwelle überschreiten: ein erklärtes Designziel des JSC und noch nicht durch Messungen bestätigt. Nvidia nennt für den voll ausgebauten Booster eine theoretische Peak‑Leistung von über 90 EFlop/s (Int8) – ein Marketing‑Spitzenwert ohne anerkannte Benchmark‑Messung.
Für unser jüngstes Kompendium hat das Team von DataCenter-Insider Avatare eingesetzt, um den Artikel vorlesen zu lassen. Die Künstliche Intelligenz dahinter: „ChatGPT“, „Descipt“, „Midjourney“ und „Monavi“. Hier ist das "Video":
Ein Direct Liquid Cooling‑System führt die Abwärme der rund 18 Megawatt (MW) elektrischen Anschlussleistung (Booster‑Sollwert) direkt am Chip ab; 45 Grad warmen Wasser wird in das Wärmenetz des Campus eingespeist. Die anvisierte PUE liegt bei einem Planwert von etwa 1,05.
Blick auf die Rückseite der Racks des „Jupiter“-Booster mit seiner hocheffizienten Warmwasserkühlung: Die im Betrieb erzeugte Abwärme soll künftig zum Heizen von Gebäuden im Wärmenetz des Jülicher Campus genutzt werden.
(Bild: Forschungszentrum Jülich/Sascha Kreklau)
Thermisch wird die Rechenpower über direkte Flüssigkeitskühlung (DLC) im Closed-Loop-Verfahren gebändigt; die Abwärme fließt in ein benachbartes Wärmerückgewinnungssystem ab. Damit demonstriert Jupiter exemplarisch, wie Exascale-Leistung mit energetischer Nachhaltigkeit Hand in Hand gehen kann.
Die HPC-Partition: der Jupiter-Modul-Cluster
Das Cluster‑Modul, die HPC-Partition von Jupiter, ergänzt den Booster um speicherstarke Kapazitäten. Hier arbeitet der europäische Chip „Sipearl Rhea1“, ein „ARM Neoverse‑V“‑Design mit gestapeltem HBM2E. Ein 20‑PByte‑NVMe‑Flash‑Puffer stellt allen Partitionen schnellen Datenzugriff bereit.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Während der Booster neuronale Netze trainiert oder molekulare Muster erkennt, führt das Cluster deterministische Simulationen aus, datenintensive Analyse-Aufgaben und numerische Langzeitberechnungen – etwa für digitale Zwillinge, Materialdesign, – prüft Plausibilitätskriterien und archiviert Ergebnisse. Diese Partition dient außerdem als Preprocessing-Instanz für KI-Trainingsdaten, zur Plausibilisierung und strukturierten Rückkopplung von Ergebnissen aus den neuronalen Modellen.
Durch eng verzahnte Pipeline-Strukturen sind beide Partitionen – KI und HPC – wechselseitig nutzbar. Simulationen und neuronale Netze greifen somit iterativ aufeinander zu.
Wechselwirkungen
Die enge Kopplung beider Module ermöglicht hybride Workflows: KI Modelle identifizieren Anomalien oder generieren Hypothesen, die das Cluster anschließend mit hochauflösenden physikalischen Simulationen validieren. So kann beispielsweise ein Transformer neue Legierungskandidaten vorschlagen, während der Cluster in Echtzeit deren quantenchemische Stabilität bewertet.
Souveräne KI‑Services und AIOps
Ein drittes, eigenständiges Segment bildet eine Kubernetes‑basierte Service-Ebene, die Jupiter Cloud firmiert, mitsamt ihrer Kontrollschicht „Jupiter AI Factory“(JAIF). Dieses souveräne, Kubernetes-basierte Orchestrierungs-Overlay für Cloud-native Workloads, CI/CD-Prozesse und MLOps vereint klassische HPC‑Scheduler („Slurm“/„Parastation“) mit Container‑Orchestrierung. Dadurch schafft die Jupiter Cloud einen Brückenschlag zwischen Batch‑Jobs und Cloud‑nativen Workloads.
Jupiter umfasst die komplette Infrastruktur des modularen Rechenzentrums: GPU-Booster, CPU-Cluster, Cloud, das zugrunde liegende Netzwerk (NVLink -C2C, Quantum-2 Infiniband etc.), das Energie- und Kühlsystem sowie alle darüber liegenden Software-Stacks (HPC-Scheduler, Kubernetes-basierte Jupiter Cloud, JAIF-Self-Service-Layer, „Jarvis“-Inferenz, AIOps-Monitoring und -Steuerung) - künftig auch Quanten- und neuromorphe Module.
Lediglich Campus-übergreifende Dienste wie externe Stromnetze oder universitätsweite Fernwärme zählen nicht mehr direkt zu Jupiter selbst. Sie bilden die Versorgungsperipherie.
Geschichtet
Die Self-Service- und Ressourcen-Broker-Schicht innerhalb der Jupiter Cloud ist die Jupiter AI Factory. Diese Kontrollschicht sitzt eine Ebene oberhalb der Hardware-Plattform der Cloud. Sie stellt den Benutzern Portale und APIs zur Verfügung, mit denen sie gezielt Booster-Knoten oder andere Ressourcen buchen, Workflows automatisiert starten und abrechnen können.
JAIF ist Self‑Service‑Portal und Ressourcen‑Broker zugleich: Per Web‑UI oder API reservieren Nutzer ihre Wunschkonfiguration , also etwa: 4 mal „GH200“ mit 2 TB HBM für 24 Stunden bitte!. Quoten‑ und Kostenkontrolle übernimmt eine „Kost‑API“; ein Dashboard zeigt sekundengenau den Verbrauch. Ein AIOps‑Stack aus „Prometheus“, „Grafana Mimir“ und Reinforcement‑Learning („Jscrl“ ) optimiert Kühlmittelfluss, Pumpendrehzahl und Job‑Placement.
Jarvis für staufreie Inferenz
Fertig trainierte Modelle landen in Jarvis, einer Inferenz-Ebene auf „Grace“‑CPU-Knoten mit gemeinsamem HBM‑Pool. „Nvidia Triton“ in MicroVMs (Firecracker) liefert Latenzen unterhalb 20 ms für 13‑B‑LLMs.
Blick in ein „Jupiter“-Rack mit Compute-Blades.
(Bild: Forschungszentrum Jülich/Sascha Kreklau)
Multi‑Tenancy wird via Namespaces, Network Policies und SR‑IOV‑basiertem Infiniband‑Passthrough realisiert. Forschungseinrichtungen, Behörden und Industriepartner erhalten über föderierte Identitätsdienste wie „Elexir“, Gaia-X und „Eosc“ rollenbasierten Zugang zu skalierbarer Rechenleistung – ohne Umweg über Hyperscaler-Infrastrukturen. Die mehrmandantenfähige Umgebung bietet isolierte Zonen für vertrauliche Anwendungen mit Unterstützung für GitOps, Containerisierung und Infrastruktur-as-Code (IaC).
So bleibt jede Recheninstanz innerhalb europäischer Rechtsräume mit garantierter Datenresidenz. Sensible Daten verarbeitet Jupiter in 'Trusted Execution Environments'.
Continuous‑Integration‑Pipelines nutzen GitOps‑Workflows („Argo CD“) und Infrastructure‑as‑Code („Helm“, „Terraform“), um Infrastruktur dynamisch nachzuladen. Ein Policy‑Engine‑Layer („OPA“/„Gatekeeper“) erzwingt Compliance nach dem Kriterienkatalog „C5“ des Bundesamt für Sicherheit in der Informationstechnik (BSI) und ISO 27001.
Die „Quantifizierung“ von Jupiter
Seit Januar 2025 läuft im Gebäudetrakt „Juniq Hall 2“ ein „D‑Wave Advantage“‑System mit 5 000 Qubits. Die Anbindung erfolgt über eine dedizierte Glasfaserstrecke (50 m) an Jupiters 400‑Gb/s‑Fabric.
Die „Qbridge“ ‑Middleware stellt REST‑ und „gRPC“‑Endpunkte bereit, über die Slirm Jobs Teilprobleme an den Annealer auslagern. Für Gate‑basierte Algorithmen steht ein IQM Spark‑Prototyp (5 supraleitende Qubits, 20 mK) bereit. Ein FPGA‑Adapter konvertiert NVLink‑Paketformate zu QIR‑Instruktionen.
Die Ankopplung ist extrem latenzarm: Zwischen Booster und D‑Wave‑Annealer vergehen weniger als eine Millisekunde End‑to‑End, während der Datentransfer vom Booster zur supraleitenden Gate‑QPU mit etwa 250 Nanosekunden – NVLink‑Pakete, FPGA‑Übersetzer und Kryo‑Controller eingerechnet – praktisch in Echtzeit erfolgt.
Auf der technischen Roadmap steht für 2026 ein OpenSuperQ‑plus‑Chassis mit rund 30 logisch fehlerkorrigierten Qubits mit einer Fidelity von über 99,9 %, gefolgt von QSolid‑Modulen mit etwa 100 Logik‑Qubits ab 2028.
Jupiter „SpiNNt“!
Parallel testet das JSC einen „Spinnaker“‑2‑Rack-Einschub (152 ARM‑Kerne pro Die, 10 GSpikes/s, 20 W) sowie „BrainscaleS‑2“‑Wafer für analoge Spike-Verarbeitung. Beide Einheiten hängen über einen Multicast‑Adapter an der Infiniband‑Fabric.
Die geplante Datenpipeline beginnt damit, dass Rohsensorströme in spezialisierten Event‑ASICs lokal gefiltert und zeitlich korreliert werden. Die resultierenden Spike‑Trains durchlaufen anschließend den Grace‑Hopper‑Booster, der mittels TensorOperatoren hochdimensionale Merkmalsvektoren extrahiert.
Diese verdichteten Features fließen schließlich zurück in den Spinnaker‑Verbund, der die Feedback‑Regelung übernimmt. Die Gesamtumlaufzeit des Lastpfades liegt deutlich unter einer Millisekunde.
Zielanwendungen reichen von Echtzeit‑Plasmasteuerung (Fusionsforschung) bis zur hochaufgelösten Roboterkinematik. Die Partec‑Roadmap schreibt explizit die „Integration zukünftiger Technologien inklusive Neuromorphic Computing“ fest und verankert damit Spinnaker‑ und BrainscaleS‑Slots dauerhaft im dMSA‑Ausbauplan.
Orchestrierung, Hybridisierung und Betrieb
Ein erweiterter Device‑Plugin registriert pro Knoten eigene Ressourcenklassen im Kubernetes‑Node‑Status – beispielsweise nvidia.com/gpu für Nvidia‑Beschleuniger, jsc.eu/qpu für Quantenprozessoren oder jsc.eu/npu für neuromorphe Spike‑CPUs. Ein Pod, der im Ressourcenblock limits: etwa nvidia.com/gpu: 4 anmeldet, wird vom Scheduler nur auf Nodes platziert, die mindestens vier dieser GPU‑Einheiten frei haben.
Dasselbe Prinzip gilt für QPU‑ oder NPU‑Jobs. Slurm greift über das gemeinsame Geräteregister auf dieselben IDs zu, und Prometheus schreibt Leistung wie Energieverbrauch unter identischen Labels mit – so landen alle Jobs, ob klassisch, Quanten‑ oder Spike-basiert, nachvollziehbar in einer einheitlichen Abrechnungs‑ und Überwachungsstruktur.
Die Kühlkonzepte dieser Zusatzmodule unterscheiden sich bewusst von den GPU‑/CPU‑Racks: Quantenprozessoren zirkulieren in abgeschlossenen Dilution‑Kryostaten bei 10 bis 20 Millikelvin, also ein Tausendstel Kelvin (1 mK = 0,001 K), während neuromorphe Dies in 30 Grad warmem Kühlwasser betrieben werden. Beide Anlagentypen führen ihre Abwärme kontrolliert dem campusweiten Energie-Management zu.
Bis 2028 soll ein Hybridbetrieb aus GPU, CPU, QPU und NPU zum Standard-Workflow gehören.
Quantenintelligenz
Während klassische Rechenzentren gerade mit der Integration generativer KI auf GPU-Basis beschäftigt sind, arbeiten einige der weltweit renommiertesten Forschungsinstitute und Technologiekonzerne bereits an der nächsten Stufe: Quantum Generative Models (QGMs).
Was heute noch wie Grundlagenforschung wirkt, nimmt hinter den Kulissen längst industrielle Gestalt an – getragen von einem Netzwerk aus Forschung, Startups, Konzernen und Pilotanwendern. Den theoretischen Unterbau liefern renommierte Einrichtungen wie eben das Forschungszentrum Jülich, und das Fraunhofer-Institut für Angewandte Festkörperphysik (IAF), das MIT, die ETH Zürich und andere.
Die Quantencomputing-Infrastruktur am Jülich Supercomputing Centre (JSC) wurde in Zusammenarbeit mit Nvidia und der Partec AG entwickelt und ist Teil der „Jülich Unified Infrastructure for Quantum Computing“ (Juniq)
(Bild: Nvidia)
An der ETH Zürich prägt etwa Professor Andreas Wallraff die internationale Forschung zur supraleitenden Quantenphysik. Seine Gruppe entwickelt Quantenschaltkreise und untersucht deren Anwendungen im maschinellen Lernen. Am MIT ist Professor William Oliver führend auf dem Gebiet des Quantum Engineering und der Verbindung zwischen Qubit-Architekturen und algorithmischer Optimierung – auch im Kontext von variationalen und generativen Quantenverfahren.
Am Forschungszentrum Jülich treibt unter anderem Professorin Michielsen die Entwicklung hybrider Quantenalgorithmen und Simulationsarchitekturen voran. Sie koordiniert unter anderem die Quanten-Simulationsumgebung im „Jülich Unified Infrastructure for Quantum Computing“, eben Juniq. Dort arbeitet ihr Team auch an Quanten-HPC-Coprozessoren, die explizit für hybride KI-Workloads mit generativen Anteilen vorgesehen sind – eine strategische Brücke zwischen klassischer Rechenzentrumsarchitektur und Quantenprozessoren.
Laserbasierte Adressieroptik für eine Ionenfalle des Quantencomputers der nächsten Generation, der im Rahmen vom Projekt „Aqtion“ entwickelt wird.
(Bild: Fraunhofer IOF)
Am Fraunhofer IAF in Freiburg forscht Dr. Andreas W. Dreyhaupt an Festkörper-basierten Qubit-Technologien mit Blick auf die industrielle Skalierbarkeit. In Zusammenarbeit mit dem Fraunhofer Quantencomputing-Netzwerk werden dort unter anderem photonische und Spin-basierte Systeme für die Erzeugung quantenmechanischer Wahrscheinlichkeiten evaluiert – ein Schlüsselelement für realisierbare QGMs.
Die Grundlagen sind gelegt. Jetzt beginnt die Übersetzung in die Praxis
Besonders dynamisch zeigt sich die Start-up-Szene. Xanadu, die Macher hinter dem Open-Source-Framework „Pennylane“, fokussieren auf photonenbasierte Qubits und erlauben die Programmierung von QGMs in Python – direkt integriert in „Pytorch“ oder „Tensorflow“. QC Ware positioniert sich als Brückenbauer zwischen klassischer Industrie und Quantenalgorithmen – mit Fokus auf Simulation und Optimierung.
Im Projekt „Aqtion“, einem Bestandteil des Quanten-Flaggschiff-Programms der EU, entstand an der Universität Innsbruck, dem Konsortialführer des Projektverbunds, ein skalierbarer Ionenfallen-basierter Quantencomputer. In der Abbildung: Laboraufbau der Adressieroptik.
(Bild: Fraunhofer IOF)
Etablierte Tech-Giganten von Google Quantum AI, über D-Wave und Ionq bis hin zu IBM liefern sich bereits einen regelrechten Schlagabtausch in Sachen Quantencomputing.
Google entwickelt seine Sycamore-Prozessoren weiter und experimentiert mit Quantum GANs in Bereichen wie Bildsynthese und Quantenchemie. IBM hat mit „Qiskit Machine Learning“ eine quelloffene Umgebung für den leichten Einstieg in QGMs geschaffen. D-Wave verfolgt einen alternativen QGM-Ansatz mit Quanten-Annealern und Boltzmann-Maschinen. Ionq vermarktet seine Trapped-Ion-Qubits aktiv für probabilistische Modelle.
Wie nah die Industrie dem Thema bereits ist, zeigen Kooperationen mit einer konkreten wirtschaftlichen Zielsetzung. Boehringer Ingelheim arbeitet mit Quanten-Start-ups an der automatisierten Generierung von Molekülen für die Wirkstoffforschung. BBVA erforscht QGANs zur realistischeren Modellierung von Marktverteilungen und Stressszenarien in der Finanzanalyse.
BASF nutzt quantengestützte generative Modelle in der Materials Discovery, etwa zur Vorhersage von Kristallstrukturen mit gewünschten thermischen oder elektrischen Eigenschaften. Auch die BMW Group und Volkswagen haben für Quanten-KI praktische Anwendungen gefunden.
Auch die BMW Group experimentiert mit dem Quantencomputing.
(Bild: BMW Group)
Was all diese Akteure vereint, ist der Wille, sich nicht auf klassischen Wegen mit inkrementellen Fortschritten zufriedengeben. Sie sehen in Quantum Generative Models (QGMs) eine technologische Sprunginnovation, die sich besonders dort lohnt, wo Daten knapp, Suchräume riesig und klassische Modelle zu limitiert sind.
Hybridbetrieb in der Erprobung
Was heute noch wie akademische Zukunftsmusik klingt, wird in Forschungsabteilungen großer Konzerne und Start-ups bereits getestet – und teilweise in hybriden Architekturen praktisch erprobt. Diese quantenklassische Hybridisierung bedeutet die schrittweise Integration von Quantenalgorithmen zur Lösung bestimmter Problemklassen wie Faktorisierung oder kombinatorischer Optimierungen zur Beschleunigung bestehender Arbeitslasten um den sprichwörtlichen Quantensprung.
Wer künftig generative KI-Modelle trainieren will, die über klassisches Sampling hinausgehen, kommt an quanteninspirierten Verfahren nicht vorbei.
Die Hybridisierung schafft eine Architektur, bei der sich die Stärken der jeweiligen IT-Welten ergänzen:
Der klassische Rechner übernimmt das Daten-Management, die Vorverarbeitung, die Steuerung des Ablaufs und gegebenenfalls die Ergebnisinterpretation.
Der Quantencomputer springt für jene Berechnungsschritte ein, in denen er mit Quantenmechanik einen Leistungsvorteil bringt.
Den hybriden Ansatz hat unter anderem Dell Technologies aufgegriffen. Dell erweitert klassische HPC-Infrastrukturen um Quantenressourcen über Cloud-APIs der Hybrid Quantum Platform. Die Rede ist hier von einem Quantencomputing-Backend mit Dell-Hardware im Rechenzentrum, die beide Ressourcenklassen über eine gemeinsame Runtime koppelt.
Dells Plattform integriert Quantenhardware von Ionq, Rigetti, D-Wave und IBM Q – teils mit nativer Unterstützung für QGMs über Bibliotheken wie Qiskit Machine Learning oder PennyLane.qml. QGM steht als Abkürzung für Quantum Generative Model – also quantenmechanische generative Modelle. Es handelt sich um eine spezielle Form des Quantum Machine Learning (QML), bei der ein Quantencomputer neue synthetische Datenpunkte erzeugt, die eine Zielverteilung möglichst genau abbilden – etwa die Wahrscheinlichkeit bestimmter Molekülzustände, Marktbewegungen oder Materialkonfigurationen.
Während klassische generative Modelle wie GANs oder Boltzmann-Maschinen schnell an Komplexitätsgrenzen stoßen, können QGMs durch quantenmechanische Überlagerung und Verschränkung extrem hochdimensionale Räume durchqueren, ohne in exponentiellen Rechenaufwand zu verfallen. Beispiele konkreter Algorithmen beinhalten QGAN, Quantum Boltzmann Machine und Born Machine.
Das macht QGM attraktiv für die Chemie-, Pharma- und Materialindustrie. Firmen wie Boehringer Ingelheim oder Roche erproben bereits Quantenansätze zur Molekülgenerierung. Auch im Finanzsektor – etwa bei BBVA oder Goldman Sachs – untersucht man den Einsatz von QGANs (Quantum Generative Adversarial Networks), um realistischere Marktszenarien - inklusive extremer Black-Swan-Ereignisse - zu simulieren.
Der Markt für QGMs steckt noch in der Aufbauphase; verlässliche Hardware ist rar. Doch mit hybriden Plattformen lässt sich bereits heute anwendungsnah experimentieren, simulieren und modellieren.
Programmieren mit KI-Algorithmen
Vor diesem Hintergrund entsteht ein ganzes Ökosystem von hybriden Algorithmen – von den Variational Quantum Algorithms (VQAs) über Quantenoptimierung, lineare Algebra bis hin zu quantenunterstütztem Maschinellen Lernen. Dieser hybride Ansatz erlaubt es, schon heute praktisch einsetzbare Algorithmen zu entwickeln – etwa so genannte variational quantum algorithms, bei denen klassische Optimierungslogik mit quantenmechanischen Berechnungsschleifen kombiniert wird.
*Das Autotenduo
Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.
Ihr Fazit lautet:Rechenzentren bereiten sich auf die Quantencomputing-Revolution mit hybriden Architekturen vor. Spezialisierte Arbeitslasten, ob Kryptografie oder quantengestützte Künstliche Intelligenz, lassen sich so bereits heute mit quantenunterstützter Rechenleistung im beispiellosen Umfang realisieren.
Die Quantencomputing-Revolution beginnt mit der Bereitschaft, hybride Modelle in klassische Architekturen zu integrieren. Diese quantenklassische Hybridisierung ruft eine neue Klasse von Infrastrukturen auf den Plan, die bisherige Leistungsbarrieren sprengt. „Jupiter“ vom Forschungsrechenzentrum Jülich zeigt exemplarisch, wie sich quantenhybride KI-Workloads unter einem Dach orchestrieren lassen.
Neuromorphe Chips dürften in Zukunft dieses Leistungsspektrum erweitern, indem sie neuronale Prozesse hardwareseitig nachbilden und so Energie-effizientere, biologisch inspirierte KI-Modelle ermöglichen. Als Blaupause definiert Jupiter also nicht nur, wie klassische und KI-gestützte Rechenleistungen in einer modularen Architektur koexistieren, sondern auch, wie zukünftige Komponenten wie sich Quanten- und neuromorphe Prozessoren in klassische digitale Infrastrukturen nahtlos einbetten lassen. Das Ergebnis ist ein flexibles, zukunftsweisendes Rechenzentrum, das technologische Sprünge souverän bewältigt.