Quantencomputing gilt als nächste Rechenrevolution. In der Praxis scheitern Projekte jedoch (noch) oft an Erwartungs-Management, fehlenden Datenpipelines und der ungeklärten Frage, welche Hardware sich durchsetzt. Dazu gibt es eine Podcast-Folge mit Anne-Marie Tumescheit von Fsas Technologies.
In der Podcast-Folge #62 der „DataCenter Diaries“ mit Anne-Marie Tumescheit geht es unter anderem um Diamant-Spin-Quantencomputer.
Bisher noch vergleichsweise unbekannt sind die Quantencomputer, die Fujitsu entwickelt, darunter auch eine Diamant-Spin-Technik. Bekannt ist aber der Digital Annealer von Fujitsu, mit dem sich Anwendungen entwickeln lassen, die auch Quantencomputer-tauglich sind. Erklären kann das alles Anne‑Marie Tumescheit. Im Gespräch erläutert sie, warum Unternehmen heute häufig mit „Quanten-inspirierter“ Optimierung schneller zu messbaren Ergebnissen kommen als mit echten Quantenprozessoren und was das für Rechenzentren und deren Architekturen bedeutet.
Anne-Marie Tumescheid, Quantum Enablement Lead bei der Fujitsu-Tochterfirma Fsaas, erlläutert Ulrike Ostler, Chefredakteurin von DataCenter-Insider, unter anderem, wie ein Quantencomputer auf der Basis von Diamant-Spin funktioniert.
(Bild: Vogel IT-Medien GmbH)
Tumescheit arbeitet seit sieben Jahren mit beim Quantencomputing sowie an Verfahren, die Konzepte aus der Quantenwelt übernehmen, aber auf klassischer Spezialhardware laufen. Denn Quantencomputer werden absehbar nicht „alles“ besser können. Ihre Stärken liegen bei mathematisch schwierigen Problemklassen wie kombinatorischer Optimierung und bestimmten Simulationen (Materialien, Moleküle). Für datengetriebene Workloads à la Large‑Language‑Models fehlen hingegen bislang praxistaugliche Wege, sehr große Datenmengen effizient in Quanteninformationen zu überführen.
Als Brücke zwischen klassischer IT und künftiger Quantenhardware positioniert Fujitsu/FSAS das „Digital Annealing“. Der Ansatz knüpft an Simulated Annealing an und übersetzt komplexe Optimierungsaufgaben in Quadratic Unconstrained Binary Optimization, QUBOs. Das Lösen dieser QUBOs liefert in einem riesigen Suchraum eine sehr gute und idealerweise optimale Lösung.
Quanten‑Annealer setzen dafür Quantenhardware ein; Fujitsu integriert den Annealing‑Algorithmus in klassische Hardware, um ihn extrem schnell auszuführen, ohne die typischen Quanten‑Nebenbedingungen wie Millikelvin‑Kühlung, hochkomplexe Steuerung und heutige Fehlerraten. Die Kehrseite: Digital Annealing skaliert nicht unbegrenzt. Als Übergangstechnologie ist es aber attraktiv, weil Unternehmen reale Problemgrößen bearbeiten, QUBO‑Modellierung lernen und gleichzeitig die eigene Datenbereitstellung auf Echtzeit‑Optimierung trimmen können.
In der Folge #62 der DataCenter Diaries „#62: Anne-Marie Tumescheit, Fsas, über Quantum und Quantum-inspirierte Anwendungen und Algorithmen sowie diverse Quantencomputertechniken“ liefert das Gespräch weniger Hype als eine Handlungsanleitung: 1. müssen Use Cases zu den Stärken der Technologie passen. 2. entscheidet die Daten‑ und Prozessreife über den ROI. 3. wird Infrastruktur von Edge‑Datenerfassung bis Kryotechnik zum Differenzierungsfaktor. Und 4. können Übergangstechnologien wie Digital Annealing schon heute Effekte liefern und gleichzeitig das Know‑how aufbauen, das Unternehmen für die Quantenära benötigen.
Wie nah das an produktiven Anforderungen liegt, zeigen drei deutsche Anwendungsfälle:
Erstens: Verkehrsflussoptimierung im Hamburger Hafen: Weil das Areal räumlich begrenzt ist, muss die vorhandene Infrastruktur effizienter genutzt werden. Statt einzelne Fahrzeuge zu tracken, wird aggregiert erfasst, wie viele Pkw und Lkw an welchen Spuren und Kreuzungen warten .
Dazu dienen etwa die über Induktionsschleifen und Infrarot-Kameras. Eine personenbezogene Verarbeitung ist dafür unnötig. Optimiert wird nicht pro Kreuzung, sondern im Verbund: Ampelphasen werden so koordiniert, dass die Gesamtfahrzeit aller Verkehrsteilnehmer sinkt.
Entscheidend für die Übertragung in eine echte Anwendung ist die Echtzeitfähigkeit. Verkehr ist chaotisch; unregelmäßige Peaks entstehen im Hafen etwa durch ankommende Containerschiffe und die plötzliche Lkw‑Welle bei der Entladung. Deshalb wird die optimale Schaltung laut Tumescheit minütlich neu berechnet, inklusive vorausschauender Simulation vieler Schaltkombinationen.
In Simulationen resultierten rund 20 Prozent kürzere Reisezeiten, weniger Stop‑and‑Go und damit geringerer Treibstoffverbrauch. Nach einem Proof of Concept wurde die Lösung ausgeschrieben; die Umsetzung läuft derzeit in einem Implementierungsprojekt.
Zweitens: Deutsche Bahn, Fahrplanoptimierung im Güterverkehr: Das Problem ist ein Klassiker der kombinatorischen Planung: begrenzte Trassen, harte Randbedingungen wie Sicherheitsabstände und Blocklogik plus weiche Randbedingungen wie Personalverfügbarkeit und Umläufe. Das Optimierungsmodell zeigte theoretisch etwa zehn Prozent zusätzliche Züge im bestehenden Plan.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Betriebspraktisch ist das jedoch nicht automatisch sinnvoll: Je dichter das Netz, desto weniger Puffer bleibt, um Störungen zu absorbieren. Das Beispiel unterstreicht, dass mathematische Optima im Betrieb an Resilienz‑ und Stabilitätsanforderungen scheitern können.
Drittens: Lieferlogistik bei Media Markt Saturn: Ausgangspunkt waren mehrere Hundert Filialen, ein Zentrallager, Rücklieferungen, Lieferfenster und eine heterogene Fahrzeugflotte. Ziel war es, Sendungen passend zu Fahrzeuggrößen zu bündeln und Routen unter Einhaltung aller Restriktionen zu minimieren.
Im Modell ließen sich die Lieferkosten im Schnitt um 4,7 Prozent senken. Dennoch wurde der Use Case nicht weiterverfolgt. Das lag laut Tumescheit weniger an der fehlender Wirkung, sondern wegen der Investitionen, die nötig wären, um eine solche Optimierung stabil in produktive Software, Prozesse und Schnittstellen zu integrieren.
Kein Automatismus vom Piloten zur Anwendung
Damit ist der rechenzentrumsrelevante Kern getroffen: Quanten‑ und quanteninspirierte Lösungen scheitern selten am Algorithmus allein. Häufig fehlt die Betriebsgrundlage, vor allem Datenpipelines, die in der erforderlichen Qualität und Frequenz liefern. Wenn Optimierungsdaten nur monatlich als Excel‑Export eintreffen, ist der Flaschenhals nicht die Rechenmethode, sondern die Datenversorgung.
Erfolgreiche Szenarien koppeln Sensorik bezihungsweise Edge‑Erfassung, schnelle Integration, Low‑Latency‑Verarbeitung und robuste Steuerung. Für Betreiber heißt das: Wer „Quantum“ plant, plant zuerst die Architektur, die Datenflüsse, Security und Hochverfügbarkeit.
Tumescheit warnt zugleich vor überzogenen Erwartungen. Schlagworte wie „Quantum Advantage“ suggerieren breite Überlegenheit bereits heute. Tatsächlich sind Use Cases zu modellieren, zu Bewerten und iterativ zu verfeinern. Einen „perfekten Algorithmus per Rezept“ gibt es nicht.
Die Übertragbarkeit
Genau hier kann Digital Annealing helfen: Die QUBO‑Modellierung ist fachlich nah an dem, was später auch auf gate‑basierten Quantencomputern genutzt wird, zum Beispiel über QAOA‑Ansätze (Quantum Approximate Optimization Algorithm). Unternehmen bauen damit Kompetenz auf, ohne auf zukünftige Qubit‑Skalierung warten zu müssen.
Die Fujitsu-Quantencomputer
Parallel treibt Fujitsu nach Tumescheits Angaben zwei Hardwarelinien voran: supraleitende Quantencomputer, in Japan gemeinsam mit Riken, sowie gemeinsam mit der TU Delft Diamant‑Spin-basierte Systeme. Supraleitende Systeme sind das bekannte „Kronleuchter“-Design:
Die eigentliche Quantenlogik entsteht auf einer kleinen QPU am Ende diese Aufbaur in einem Kryostaten. Der güldene, sichtbare Aufbau dient der präzisen Mikrowellen‑Zuleitung und dem Auslesen. Die dafür nötigen Temperaturen liegen im Millikelvin‑Bereich nahe dem absoluten Nullpunkt. Bis jetzt gibt es ein 64‑Qubit‑System, ein 256‑Qubit‑System, das tatsächlich bereits kommerziell verkauft wird, und ein 1024‑Qubit‑System im Aufbau – jeweils als physikalische, nicht fehlerkorrigierte Qubits.
Diamant‑Spin‑Quantencomputer nutzen hingegen Defektzentren in einem Diamantgitter (häufig NV‑Zentren), um Spin‑Qubits zu erzeugen. Gesteuert wird über Magnetfelder und Mikrowellen.
Die gezielte Positionierung der Defekte ist technologisch anspruchsvoll. Der infrastrukturelle Reiz liegt im Temperaturfenster: Spin‑Systeme können bei höheren Temperaturen stabil arbeiten und werden typischerweise im einstelligen Kelvin‑Bereich betrieben. Somit ist weiterhin Kryotechnik notwendig, aber weniger extrem als Millikelvin. Das könnte perspektivisch kompaktere, modularere Systeme ermöglichen, auch wenn die Plattform in Qubit‑Zahlen und industrieller Reife noch hinter supraleitenden Ansätzen liegt.
Ob am Ende eine Technologie „das Rennen macht“, lässt Tumescheit bewusst offen: Photonische oder Ionenfallen‑Ansätze können ebenfalls Vorteile bieten, je nach Problemklasse. Für Entscheider ist die Konsequenz klar: nicht auf eine Wette setzen, sondern Kompetenzen, hybride Toolchains und belastbare Integrationspfade aufbauen.
Cloud oder on premises?
Auch Cloud versus on‑prem bleibt eine Architekturfrage. Für Echtzeit‑Steuerung, wie in Verkehrsfluss notwendig, können Latenz und Sicherheitsanforderungen gegen reine Cloud‑Abhängigkeiten sprechen. Gleichzeitig gewinnt in Europa die Debatte um digitale Souveränität an Gewicht. Tumescheit wünscht sich daher, Quantenhardware auch physisch in Europa zu installieren und ein europäisches Team zu stärken, das Industrie‑ und Forschungsprojekte lokal umsetzt.