Ach! Fujitsu entwickelt Quantencomputer? Echte Quantum-inspired Apps, die Optimierungsaufgaben lösen

Von Ulrike Ostler 5 min Lesedauer

Anbieter zum Thema

Quantencomputing gilt als nächste Rechenrevolution. In der Praxis scheitern Projekte jedoch (noch) oft an Erwartungs-Management, fehlenden Datenpipelines und der ungeklärten Frage, welche Hardware sich durchsetzt. Dazu gibt es eine Podcast-Folge mit Anne-Marie Tumescheit von Fsas Technologies.

In der Podcast-Folge #62 der „DataCenter Diaries“ mit Anne-Marie Tumescheit geht es unter anderem um Diamant-Spin-Quantencomputer. (Bild: ©  Thaweechai - stock.adobe.com / KI-genereiert)
In der Podcast-Folge #62 der „DataCenter Diaries“ mit Anne-Marie Tumescheit geht es unter anderem um Diamant-Spin-Quantencomputer.
(Bild: © Thaweechai - stock.adobe.com / KI-genereiert)

Bisher noch vergleichsweise unbekannt sind die Quantencomputer, die Fujitsu entwickelt, darunter auch eine Diamant-Spin-Technik. Bekannt ist aber der Digital Annealer von Fujitsu, mit dem sich Anwendungen entwickeln lassen, die auch Quantencomputer-tauglich sind. Erklären kann das alles Anne‑Marie Tumescheit. Im Gespräch erläutert sie, warum Unternehmen heute häufig mit „Quanten-inspirierter“ Optimierung schneller zu messbaren Ergebnissen kommen als mit echten Quantenprozessoren und was das für Rechenzentren und deren Architekturen bedeutet.

Anne-Marie Tumescheid, Quantum Enablement Lead bei der Fujitsu-Tochterfirma Fsaas, erlläutert Ulrike Ostler, Chefredakteurin von DataCenter-Insider, unter anderem, wie ein Quantencomputer auf der Basis von Diamant-Spin funktioniert. (Bild:  Vogel IT-Medien GmbH)
Anne-Marie Tumescheid, Quantum Enablement Lead bei der Fujitsu-Tochterfirma Fsaas, erlläutert Ulrike Ostler, Chefredakteurin von DataCenter-Insider, unter anderem, wie ein Quantencomputer auf der Basis von Diamant-Spin funktioniert.
(Bild: Vogel IT-Medien GmbH)

Tumescheit arbeitet seit sieben Jahren mit beim Quantencomputing sowie an Verfahren, die Konzepte aus der Quantenwelt übernehmen, aber auf klassischer Spezialhardware laufen. Denn Quantencomputer werden absehbar nicht „alles“ besser können. Ihre Stärken liegen bei mathematisch schwierigen Problemklassen wie kombinatorischer Optimierung und bestimmten Simulationen (Materialien, Moleküle). Für datengetriebene Workloads à la Large‑Language‑Models fehlen hingegen bislang praxistaugliche Wege, sehr große Datenmengen effizient in Quanteninformationen zu überführen.

Als Brücke zwischen klassischer IT und künftiger Quantenhardware positioniert Fujitsu/FSAS das „Digital Annealing“. Der Ansatz knüpft an Simulated Annealing an und übersetzt komplexe Optimierungsaufgaben in Quadratic Unconstrained Binary Optimization, QUBOs. Das Lösen dieser QUBOs liefert in einem riesigen Suchraum eine sehr gute und idealerweise optimale Lösung.

Quanten‑Annealer setzen dafür Quantenhardware ein; Fujitsu integriert den Annealing‑Algorithmus in klassische Hardware, um ihn extrem schnell auszuführen, ohne die typischen Quanten‑Nebenbedingungen wie Millikelvin‑Kühlung, hochkomplexe Steuerung und heutige Fehlerraten. Die Kehrseite: Digital Annealing skaliert nicht unbegrenzt. Als Übergangstechnologie ist es aber attraktiv, weil Unternehmen reale Problemgrößen bearbeiten, QUBO‑Modellierung lernen und gleichzeitig die eigene Datenbereitstellung auf Echtzeit‑Optimierung trimmen können.

In der Folge #62 der DataCenter Diaries „#62: Anne-Marie Tumescheit, Fsas, über Quantum und Quantum-inspirierte Anwendungen und Algorithmen sowie diverse Quantencomputertechniken“ liefert das Gespräch weniger Hype als eine Handlungsanleitung: 1. müssen Use Cases zu den Stärken der Technologie passen. 2. entscheidet die Daten‑ und Prozessreife über den ROI. 3. wird Infrastruktur von Edge‑Datenerfassung bis Kryotechnik zum Differenzierungsfaktor. Und 4. können Übergangstechnologien wie Digital Annealing schon heute Effekte liefern und gleichzeitig das Know‑how aufbauen, das Unternehmen für die Quantenära benötigen.

Die Podcast-Folge #62 der DataCenter Diaries findet sich auf Spotify, Apple Podcasts, Deezer und Amazon Musik.

Wie nah das an produktiven Anforderungen liegt, zeigen drei deutsche Anwendungsfälle:

Erstens: Verkehrsflussoptimierung im Hamburger Hafen: Weil das Areal räumlich begrenzt ist, muss die vorhandene Infrastruktur effizienter genutzt werden. Statt einzelne Fahrzeuge zu tracken, wird aggregiert erfasst, wie viele Pkw und Lkw an welchen Spuren und Kreuzungen warten .

Dazu dienen etwa die über Induktionsschleifen und Infrarot-Kameras. Eine personenbezogene Verarbeitung ist dafür unnötig. Optimiert wird nicht pro Kreuzung, sondern im Verbund: Ampelphasen werden so koordiniert, dass die Gesamtfahrzeit aller Verkehrsteilnehmer sinkt.

Entscheidend für die Übertragung in eine echte Anwendung ist die Echtzeitfähigkeit. Verkehr ist chaotisch; unregelmäßige Peaks entstehen im Hafen etwa durch ankommende Containerschiffe und die plötzliche Lkw‑Welle bei der Entladung. Deshalb wird die optimale Schaltung laut Tumescheit minütlich neu berechnet, inklusive vorausschauender Simulation vieler Schaltkombinationen.

In Simulationen resultierten rund 20 Prozent kürzere Reisezeiten, weniger Stop‑and‑Go und damit geringerer Treibstoffverbrauch. Nach einem Proof of Concept wurde die Lösung ausgeschrieben; die Umsetzung läuft derzeit in einem Implementierungsprojekt.

Zweitens: Deutsche Bahn, Fahrplanoptimierung im Güterverkehr: Das Problem ist ein Klassiker der kombinatorischen Planung: begrenzte Trassen, harte Randbedingungen wie Sicherheitsabstände und Blocklogik plus weiche Randbedingungen wie Personalverfügbarkeit und Umläufe. Das Optimierungsmodell zeigte theoretisch etwa zehn Prozent zusätzliche Züge im bestehenden Plan.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Betriebspraktisch ist das jedoch nicht automatisch sinnvoll: Je dichter das Netz, desto weniger Puffer bleibt, um Störungen zu absorbieren. Das Beispiel unterstreicht, dass mathematische Optima im Betrieb an Resilienz‑ und Stabilitätsanforderungen scheitern können.

Drittens: Lieferlogistik bei Media Markt Saturn: Ausgangspunkt waren mehrere Hundert Filialen, ein Zentrallager, Rücklieferungen, Lieferfenster und eine heterogene Fahrzeugflotte. Ziel war es, Sendungen passend zu Fahrzeuggrößen zu bündeln und Routen unter Einhaltung aller Restriktionen zu minimieren.

Im Modell ließen sich die Lieferkosten im Schnitt um 4,7 Prozent senken. Dennoch wurde der Use Case nicht weiterverfolgt. Das lag laut Tumescheit weniger an der fehlender Wirkung, sondern wegen der Investitionen, die nötig wären, um eine solche Optimierung stabil in produktive Software, Prozesse und Schnittstellen zu integrieren.

Kein Automatismus vom Piloten zur Anwendung

Damit ist der rechenzentrumsrelevante Kern getroffen: Quanten‑ und quanteninspirierte Lösungen scheitern selten am Algorithmus allein. Häufig fehlt die Betriebsgrundlage, vor allem Datenpipelines, die in der erforderlichen Qualität und Frequenz liefern. Wenn Optimierungsdaten nur monatlich als Excel‑Export eintreffen, ist der Flaschenhals nicht die Rechenmethode, sondern die Datenversorgung.

Erfolgreiche Szenarien koppeln Sensorik bezihungsweise Edge‑Erfassung, schnelle Integration, Low‑Latency‑Verarbeitung und robuste Steuerung. Für Betreiber heißt das: Wer „Quantum“ plant, plant zuerst die Architektur, die Datenflüsse, Security und Hochverfügbarkeit.

Tumescheit warnt zugleich vor überzogenen Erwartungen. Schlagworte wie „Quantum Advantage“ suggerieren breite Überlegenheit bereits heute. Tatsächlich sind Use Cases zu modellieren, zu Bewerten und iterativ zu verfeinern. Einen „perfekten Algorithmus per Rezept“ gibt es nicht.

Die Übertragbarkeit

Genau hier kann Digital Annealing helfen: Die QUBO‑Modellierung ist fachlich nah an dem, was später auch auf gate‑basierten Quantencomputern genutzt wird, zum Beispiel über QAOA‑Ansätze (Quantum Approximate Optimization Algorithm). Unternehmen bauen damit Kompetenz auf, ohne auf zukünftige Qubit‑Skalierung warten zu müssen.

Die Fujitsu-Quantencomputer

Parallel treibt Fujitsu nach Tumescheits Angaben zwei Hardwarelinien voran: supraleitende Quantencomputer, in Japan gemeinsam mit Riken, sowie gemeinsam mit der TU Delft Diamant‑Spin-basierte Systeme. Supraleitende Systeme sind das bekannte „Kronleuchter“-Design:

Die eigentliche Quantenlogik entsteht auf einer kleinen QPU am Ende diese Aufbaur in einem Kryostaten. Der güldene, sichtbare Aufbau dient der präzisen Mikrowellen‑Zuleitung und dem Auslesen. Die dafür nötigen Temperaturen liegen im Millikelvin‑Bereich nahe dem absoluten Nullpunkt. Bis jetzt gibt es ein 64‑Qubit‑System, ein 256‑Qubit‑System, das tatsächlich bereits kommerziell verkauft wird, und ein 1024‑Qubit‑System im Aufbau – jeweils als physikalische, nicht fehlerkorrigierte Qubits.

Diamant‑Spin‑Quantencomputer nutzen hingegen Defektzentren in einem Diamantgitter (häufig NV‑Zentren), um Spin‑Qubits zu erzeugen. Gesteuert wird über Magnetfelder und Mikrowellen.

Die gezielte Positionierung der Defekte ist technologisch anspruchsvoll. Der infrastrukturelle Reiz liegt im Temperaturfenster: Spin‑Systeme können bei höheren Temperaturen stabil arbeiten und werden typischerweise im einstelligen Kelvin‑Bereich betrieben. Somit ist weiterhin Kryotechnik notwendig, aber weniger extrem als Millikelvin. Das könnte perspektivisch kompaktere, modularere Systeme ermöglichen, auch wenn die Plattform in Qubit‑Zahlen und industrieller Reife noch hinter supraleitenden Ansätzen liegt.

Ob am Ende eine Technologie „das Rennen macht“, lässt Tumescheit bewusst offen: Photonische oder Ionenfallen‑Ansätze können ebenfalls Vorteile bieten, je nach Problemklasse. Für Entscheider ist die Konsequenz klar: nicht auf eine Wette setzen, sondern Kompetenzen, hybride Toolchains und belastbare Integrationspfade aufbauen.

Cloud oder on premises?

Auch Cloud versus on‑prem bleibt eine Architekturfrage. Für Echtzeit‑Steuerung, wie in Verkehrsfluss notwendig, können Latenz und Sicherheitsanforderungen gegen reine Cloud‑Abhängigkeiten sprechen. Gleichzeitig gewinnt in Europa die Debatte um digitale Souveränität an Gewicht. Tumescheit wünscht sich daher, Quantenhardware auch physisch in Europa zu installieren und ein europäisches Team zu stärken, das Industrie‑ und Forschungsprojekte lokal umsetzt.

Artikelfiles und Artikellinks

(ID:50779230)