Quantencomputer stehen kurz davor, die Datacenter-Landschaft radikal umzuwälzen, nicht nur durch ihre fundamental neuen Anforderungen an die Infrastruktur. Die schiere Rechenleistung von Quantenchips eröffnet neue Angriffsmöglichkeiten auf bestehende Verschlüsselungsmethoden und droht, die Geheimnisse klassischer Sicherheitsarchitekturen auf einen Schlag offenzulegen.
So kann eine hybrides Rechenzentrum aussehen. Außer der Digitaltechnik werkelt im Hintergrund ein Quantencomputer von OQC.
(Bild: OQC,)
Quantencomputing bringt für Rechenzentren neue Herausforderungen mit sich. Anbieter von Quantencomputern wollen gemeinsam mit Herstellern klassischer KI-Beschleuniger und ihren Anwenderorganisationen Geschichte schreiben – für einzelne Unternehmen ist die Lernkurve zu steil.
Quantensysteme und KI-Beschleuniger in einem New Yorker Rechenzentrum
So errichten Digital Realty, Oxford Quantum Circuits (OQC) und Nvidia mitten in New York City das weltweit erste Quantum-AI Datacenter, ein revolutionäres Rechenzentrum, das Quantentechnologie und Künstliche Intelligenz (KI) unter einem Dach vereint. Im „JFK10“-Komplex treffen OQCs fortschrittlicher „Genesis“-Quantencomputer und die leistungsstarken „Nvidia Grace Hopper Superchips“ aufeinander. Dieses Zusammenspiel schafft eine zukunftsweisende Infrastruktur, die sowohl klassische Aufgaben bewältigt als auch das Fundament für die Quantum-AI-Ära legt.
Aufbau einer quantenbeschleunigten Supercomputing-Architektur von Nvidia.
(Bild: Nvidia)
In dieser Umgebung verschmelzen Quantensysteme mit klassischen KI-Beschleunigern. Damit können Unternehmen erstmals direkt auf hybride Rechenressourcen zugreifen – etwa um KI-Modelle schneller zu trainieren, komplexe Finanzanalysen zu optimieren oder neue Ansätze in der Cyber-Sicherheit zu verfolgen. Besonderes Augenmerk gilt Anwendungen, die heute an die Grenzen klassischer Supercomputing-Architekturen stoßen: Risikomodellierung, Betrugserkennung, Materialsimulation und fortschrittliche Entscheidungsunterstützung in kritischen Branchen.
Animation: Kohärenzmessung mit Oszillationen zwischen den logischen Zuständen 0L (grün) und 1L (orange). Das Messvolumen mit Löschfehlererkennung (blau) steigt exponentiell an. Quelle: OQC
Oxford Quantum Circuits (OQC) ist Europas erster Anbieter von Quantum-Compute-as-a-Service und der einzige mit aktiven Quantencomputer-Installationen in kommerziellen Co-Location-Rechenzentren. Das Quantum-AI Datacenter soll Unternehmen jeder Größe den Zugang zu modernster Hybridtechnologie ermöglichen. Die Integration erfolgt über globales „Platform-Digital“-Ökosystem von Digital Realty.
Quantenrechner im Co-Location
Mit dem Chip „Toshiko“ entwickelte OQC den weltweit ersten Quantenprozessor der Enterprise-Klasse – benannt nach Toshiko Yuasa, der ersten japanischen Physikerin. Der Chip läuft in kommerziellen Rechenzentren bei Equinix (Tokio, UK, bald New York) und Digital Realty (JFK10 NYC).
Der Toshiko-QPU basiert auf supraleitenden Schaltungen und ist für 24/7-Betrieb in Co-Location-Rechenzentren angebunden. Über sichere, latenzarme Verbindungen wird er direkt in bestehende IT- und HPC-Fabrics integriert, oft in hybrider Kopplung mit „Grace Hopper Superchips“ von Nvidia.
Bildergalerie
Daraus entsteht eine schlüsselfertige QCaaS-Bereitstellung – direkt im Herzen der digitalen Infrastruktur, nicht isoliert im Labor oder in der Public Cloud. Zugriff erfolgt über API.
Superchips und OQC
Nvidia konzipierte das 'Accelerated Quantum Computing Research Center' (NVAQC) für reale industrielle Anwendungen. Hier verbindet Quantum-Hardware von Nvidia-Partnern direkt mit den eigenen „GB200 NVL72“ Grace Blackwell Superchips via „DGX“ Quantum-Architektur.
Forschende orchestrieren hybride Systeme über die „CUDA-Q“-Plattform von Nvidia mit Tools für Fehlerkorrektur und hybrides Design. Die Implementierung des OQC-Quantencomputers im „Cyxtera LHR3“ der Londoner Docklands gilt als erste weltweit in Co-Location-Infrastruktur und dient als eine Blaupause für die kommerzielle Bereitstellung von Quantencomputern mit sicherer latenzarmer Konnektivität.
Quantencomputing-Standort Deutschland
Auch Deutschland investiert massiv. Noch im vergangenen Jahr (2024) eröffnete IBM das erste europäische Quantum Datacenter in Ehningen bei Stuttgart, ausgestattet mit leistungsstarken IBM-Quantencomputern vom Typ „Eagle“ und „Heron“.
In München betreibt IQM ein Zentrum für bis zu zwölf Quantenrechner. Planqc entwickelt am Leibniz-Rechenzentrum einen 1.000-Qubit-Computer, unterstützt vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMBF).
Diese Projekte legen den Grundstein für Anwendungen in Materialforschung und Kryptographie am Quantumstandort Deutschland. Der Unterschied zum New Yorker Modell: Deutsche Projekte fokussieren bisher starker auf isolierte Quantenanwendungen oder Co-Location mit Supercomputing. Eine direkte Integration mit KI-Plattformen wie „Nvidia Grace Hopper“ steht noch aus.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Arbeiten an hybriden Integrationen aber laufen bereits. Projekte wie „Qsolid“ in Jülich erforschen zukunftsweisende hardwarebasierte Fehlerkorrektur und Cloud-Zugänge für die Industrie.
KI und Quanten
„Quanten-Co-Location“, also die strategische Integration quantenbasierter Hardware in bestehende Co-Location-Rechenzentren, kann sowohl physische Integration von Quantenhardware wie QPUs und Quanten-Sensorik als auch als die Anbindung an Quantenkommunikationsnetze umfassen. In Europa arbeiten Projekte wie OpenQKD, Qunet oder QCI an der Einrichtung quantensicherer Kommunikationsknoten, die mittelfristig auch in kommerziellen Co-Location-Zentren Einzug halten sollen.
Während die IT-Branche auf die Ära des Quantencomputing zusteuert, geraten Rechenzentren als kritische Infrastrukturen in den Fokus einer neuen Sicherheits- und Infrastrukturdebatte: Wie lassen sich digitale Infrastrukturen gegen die Bedrohung durch Quantencomputer absichern?
Die Bedrohung durch Quantenrechner
Die gegenwärtige — klassische — Kryptographie basiert auf mathematischen Problemen wie der Faktorisierung großer Zahlen oder der Lösung diskreter mathematischer Probleme, die für klassische Computer praktisch unlösbar sind. Mit dem Aufkommen von Quantencomputern verliert die mathematische Basis Bestand.
Quantenalgorithmen wie Shor können bewährte klassische Verschlüsselungsmethoden mit einem deutlich geringeren Aufwand aushebeln. Betroffen sind nahezu alle klassisch verschlüsselten Daten, darunter auch etwa Blockchains oder öffentlich zugängliche Archive und digitale Signaturen. Nach der einmaligen Veröffentlichung verschlüsselter Daten - nach dem Versenden via Internet oder der Einbindung in Blockchains - ist ein nachträglicher Schutz unmöglich.
Die Zeit bis zum „Q-Day“, an dem Quantenrechner kryptografische Verfahren im großen Maßstab brechen können, wird von Experten als zunehmend greifbar eingeschätzt. Studien warnen vor gravierenden Folgen für Datenschutz, Compliance und IT-Sicherheit im gesamten Datacenter-Ökosystem.
Während einige Prognosen noch von Jahren sprechen, warnen andere vor einer deutlich kürzeren Vorlaufzeit. Klar ist: Je näher der Q-Day rückt, desto dringender müssen Unternehmen und Institutionen auf quantenresiliente Sicherheitsmechanismen umstellen, um ihre Daten und Kommunikation zu schützen.
Bitcoin, das erste Blockchain-Netzwerk von Satoshi Nakamoto aus dem Jahre 2009, entstand, um Zahlungen ohne Vermittler zu ermöglichen (Stichwort: Peer-to-Peer). Die zugrunde liegende Technologie, die Blockchain, zeichnet alle Transaktionen in einem öffentlichen Register auf, das kollektiv von einem Netzwerk von Computern und nicht von einer zentralen Autorität geführt wird. Als Verschlüsselungsmethode kommt ECDSA zum Einsatz.
Sollten Angreifer den privaten Schlüssel zu einer bekannten Adresse berechnen, können sie auf das zugehörige Guthaben zugreifen. Besonders gefährdet sind Wallets, deren Adresse und damit der Public Key bereits on-chain erschienen sind; das passiert meist nach der ersten Transaktion.
Lösungsvorschläge?
Adressen, die bisher nie verwendet wurden und deren Public Key nicht bekannt ist, sind wesentlich besser geschützt – auch gegen einen Quantencomputerangriff. Die Studie beschreibt mögliche Gegenmaßnahmen, kommt aber zu dem Schluss, dass keine davon wirklich eine Lösung bietet.
Die Erschaffung einer neuen, quantenresistenten Version der Blockchain, so genannter Hard Fork, könnte zukünftige Transaktionen schützen, aber nicht die alten.
Die Verpflichtung zur Verwendung von PQC-kompatiblen Adressen in allen Wallets und Börsen würde die zukünftige Angriffsfläche reduzieren, könnte jedoch in einem dezentralen Netzwerk keine universelle Einhaltung durchsetzen. Selbst vorbildliches Nutzerverhalten vermag zu dem aktuellen Zeitpunkt nicht zu verhindern, dass bereits gesammelte historische Daten in Zukunft entschlüsselt werden können.
Kein Entkommen
Die Offenlegung ist unvermeidbar. Sobald private Schlüssel, verschlüsselte Nachrichten oder andere verschlüsselte Daten in fremde Hände geraten, kann ihre Vertraulichkeit nicht mehr wiederhergestellt werden.
Selbst die so genannte „Crypto-Agility“, also die Fähigkeit, Verschlüsselungsalgorithmen im Stack schnell zu aktualisieren, dieses rückwärtsgerichtete Risiko nicht adressieren kann. Zu diesem Ergebnis kommt auch die Studie der Federal Reserve.
Mit fortschreitender Entwicklung von Quantencomputing nimmt die Gefahr für klassische Implementierungen der Datensicherheit zu. In der Übergangszeit zwischen heute und dem gefürchteten „Q-Day“ kann Post-Quantum-Kryptographie (PQC) schaffen. Das U.S. National Institute of Standards and Technology (NIST) hat bereits mehrere dieser Methoden standardisiert.
Der Begriff bezeichnet neue mathematische Algorithmen, die speziell so entwickelt wurden, dass sie mit klassischen Chips funktionieren und dennoch Angriffen von Quantencomputern standhalten. Die Anschaffung eines Quantencomputers ist zum Glück nicht erforderlich.
Wer zuerst kommt, ....
Die Vorbereitung auf die technologische Disruption durch Quantencomputer zählt zu den anspruchsvollsten Herausforderungen der Informationstechnik von heute. Auf dem Spiel steht unter anderem die Sicherheit von Bestandsdaten und die Integrität von digitalen Signaturen.
Die NSA und das BSI warnen seit Jahren vor dem „Harvest now, decrypt later“-Risiko: Heute abgefangene Daten werden sich bereits in naher Zukunft leicht entschlüsseln lassen. Für Betreiber von Rechenzentren ergibt sich daraus dringender Handlungsbedarf – sowohl auf infrastruktureller als auch auf kryptografischer Ebene.
Rechenzentren müssen mit Weitblick für die Post‑Quanten-Ära ausgelegt werden. Dies betrifft mehrere Dimensionen:
Kryptografische Resilienz und Krypto-Agilität: Migration zu quantensicheren Algorithmen und anpassungsfähigen -Stacks
Quantenkommunikation & Schlüsselverteilung: Integration von QKD, QCN, Quanten- und neuromorphes Computing, und mehr
Physikalische Infrastruktur für Quantencomputing: Kühlung, EM-Abschirmung, Raumplanung, Vibrationsdämmung, spezielle Kühlung von Quanten-Racks, Stromversorgung, optische Kopplung
Betriebs- und Sicherheitsarchitektur: Schlüssel-Management, Hardware-Sicherheitsmodule (HSMs) mit PQC-Unterstützung, Authentifizierung sowie Interoperabilitätsmechanismen und Umschaltlogiken zwischen klassischen und quantensicheren Kryptosystemen, also zum Beispiel hybride TLS-Stacks,
Anwendungsschicht und Orchestrierung: Monitoring der QKD-Qualität, Fehlerraten, Synchronisation, Alarmierung bei Streckenunterbrechung, bei Angriffen oder Anomalien
Externe Vernetzung: quantenvermittelte Verbindungen zu anderen sicheren Datacenter-Standorten; Kooperationen mit QKD-Netzen, nationalen oder internationalen Quantenkommunikationsknoten
Im Rechenzentrumskontext heißt das: Systeme sollen in der Lage sein, mit alten Protokollen zu kommunizieren, gleichzeitig, aber neue PQK-Verfahren (kurz für Post‑Quantum‑Kryptografie) einführen, ohne Sicherheitslücken zu erzeugen oder den Betrieb zu gefährden. Rechenzentren müssen zudem ihre bestehende Infrastruktur auf PQK-Readiness prüfen. Dies betrifft insbesondere:
Unternehmen wie IBM, Google Cloud, Thales und mittlerweile auch HPE mit ihren neuesten Server-Generationen bieten bereits erste PQK-kompatible Lösungen für den Rechenzentrumsbetrieb an.
*Das Autorenduo
Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.
Ihr Fazit lautet: Die Ära des Quantencomputings steht nicht mehr vor der Tür; sie hat begonnen. Unternehmen, Rechenzentrumsbetreiber und IT-Architekten müssen sich jetzt mit der Realität der Quantenüberlegenheit gegenüber klassischen Infrastrukturen auseinandersetzen.
Die Vorreiter zeigen, wie Quantenprozessoren produktiv und sicher in bestehende digitale Ökosysteme eingebunden werden können und zwar in enger Kopplung mit KI-Beschleunigern und im operativem Dauerbetrieb.
Gleichzeitig macht die wachsende Bedrohung durch Quantencomputer deutlich, dass klassische Kryptografie nicht mehr ausreicht. Quantenresilienz ist kein Zukunftsthema, sie ist zur strategischen Pflichtaufgabe geworden. Die Post-Quantum-Zeit verlangt nicht zwingend die Anschaffung eines Quantencomputers, sondern vielmehr ein Umdenken in Infrastrukturplanung, Sicherheitsarchitektur und kryptografischer Agilität.