Das Quanten-resiliente Rechenzentrum Quantenrechner im Co-Location und die Notwendigkeit von neuen Sicherheitsstufen

Von Anna Kobylinska und Filipe Martins* 8 min Lesedauer

Anbieter zum Thema

Quantencomputer stehen kurz davor, die Datacenter-Landschaft radikal umzuwälzen, nicht nur durch ihre fundamental neuen Anforderungen an die Infrastruktur. Die schiere Rechenleistung von Quantenchips eröffnet neue Angriffsmöglichkeiten auf bestehende Verschlüsselungsmethoden und droht, die Geheimnisse klassischer Sicherheitsarchitekturen auf einen Schlag offenzulegen.

So kann eine hybrides Rechenzentrum aussehen. Außer der Digitaltechnik werkelt im Hintergrund  ein Quantencomputer von OQC.(Bild:  OQC,)
So kann eine hybrides Rechenzentrum aussehen. Außer der Digitaltechnik werkelt im Hintergrund ein Quantencomputer von OQC.
(Bild: OQC,)

Quantencomputing bringt für Rechenzentren neue Herausforderungen mit sich. Anbieter von Quantencomputern wollen gemeinsam mit Herstellern klassischer KI-Beschleuniger und ihren Anwenderorganisationen Geschichte schreiben – für einzelne Unternehmen ist die Lernkurve zu steil.

Quantensysteme und KI-Beschleuniger in einem New Yorker Rechenzentrum

So errichten Digital Realty, Oxford Quantum Circuits (OQC) und Nvidia mitten in New York City das weltweit erste Quantum-AI Datacenter, ein revolutionäres Rechenzentrum, das Quantentechnologie und Künstliche Intelligenz (KI) unter einem Dach vereint. Im „JFK10“-Komplex treffen OQCs fortschrittlicher „Genesis“-Quantencomputer und die leistungsstarken „Nvidia Grace Hopper Superchips“ aufeinander. Dieses Zusammenspiel schafft eine zukunftsweisende Infrastruktur, die sowohl klassische Aufgaben bewältigt als auch das Fundament für die Quantum-AI-Ära legt.

Aufbau einer quantenbeschleunigten Supercomputing-Architektur von Nvidia.(Bild:  Nvidia)
Aufbau einer quantenbeschleunigten Supercomputing-Architektur von Nvidia.
(Bild: Nvidia)

In dieser Umgebung verschmelzen Quantensysteme mit klassischen KI-Beschleunigern. Damit können Unternehmen erstmals direkt auf hybride Rechenressourcen zugreifen – etwa um KI-Modelle schneller zu trainieren, komplexe Finanzanalysen zu optimieren oder neue Ansätze in der Cyber-Sicherheit zu verfolgen. Besonderes Augenmerk gilt Anwendungen, die heute an die Grenzen klassischer Supercomputing-Architekturen stoßen: Risikomodellierung, Betrugserkennung, Materialsimulation und fortschrittliche Entscheidungsunterstützung in kritischen Branchen.

Kohärenzmessung mit Oszillationen zwischen logischen Zuständen 0L und 1L
Animation: Kohärenzmessung mit Oszillationen zwischen den logischen Zuständen 0L (grün) und 1L (orange). Das Messvolumen mit Löschfehlererkennung (blau) steigt exponentiell an. Quelle: OQC

Oxford Quantum Circuits (OQC) ist Europas erster Anbieter von Quantum-Compute-as-a-Service und der einzige mit aktiven Quantencomputer-Installationen in kommerziellen Co-Location-Rechenzentren. Das Quantum-AI Datacenter soll Unternehmen jeder Größe den Zugang zu modernster Hybridtechnologie ermöglichen. Die Integration erfolgt über globales „Platform-Digital“-Ökosystem von Digital Realty.

Quantenrechner im Co-Location

Mit dem Chip „Toshiko“ entwickelte OQC den weltweit ersten Quantenprozessor der Enterprise-Klasse – benannt nach Toshiko Yuasa, der ersten japanischen Physikerin. Der Chip läuft in kommerziellen Rechenzentren bei Equinix (Tokio, UK, bald New York) und Digital Realty (JFK10 NYC).

Der Toshiko-QPU basiert auf supraleitenden Schaltungen und ist für 24/7-Betrieb in Co-Location-Rechenzentren angebunden. Über sichere, latenzarme Verbindungen wird er direkt in bestehende IT- und HPC-Fabrics integriert, oft in hybrider Kopplung mit „Grace Hopper Superchips“ von Nvidia.

Bildergalerie

Daraus entsteht eine schlüsselfertige QCaaS-Bereitstellung – direkt im Herzen der digitalen Infrastruktur, nicht isoliert im Labor oder in der Public Cloud. Zugriff erfolgt über API.

Superchips und OQC

Nvidia konzipierte das 'Accelerated Quantum Computing Research Center' (NVAQC) für reale industrielle Anwendungen. Hier verbindet Quantum-Hardware von Nvidia-Partnern direkt mit den eigenen „GB200 NVL72“ Grace Blackwell Superchips via „DGX“ Quantum-Architektur.

Forschende orchestrieren hybride Systeme über die „CUDA-Q“-Plattform von Nvidia mit Tools für Fehlerkorrektur und hybrides Design. Die Implementierung des OQC-Quantencomputers im „Cyxtera LHR3“ der Londoner Docklands gilt als erste weltweit in Co-Location-Infrastruktur und dient als eine Blaupause für die kommerzielle Bereitstellung von Quantencomputern mit sicherer latenzarmer Konnektivität.

Quantencomputing-Standort Deutschland

Auch Deutschland investiert massiv. Noch im vergangenen Jahr (2024) eröffnete IBM das erste europäische Quantum Datacenter in Ehningen bei Stuttgart, ausgestattet mit leistungsstarken IBM-Quantencomputern vom Typ „Eagle“ und „Heron“.

In München betreibt IQM ein Zentrum für bis zu zwölf Quantenrechner. Planqc entwickelt am Leibniz-Rechenzentrum einen 1.000-Qubit-Computer, unterstützt vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMBF).

Diese Projekte legen den Grundstein für Anwendungen in Materialforschung und Kryptographie am Quantumstandort Deutschland. Der Unterschied zum New Yorker Modell: Deutsche Projekte fokussieren bisher starker auf isolierte Quantenanwendungen oder Co-Location mit Supercomputing. Eine direkte Integration mit KI-Plattformen wie „Nvidia Grace Hopper“ steht noch aus.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Arbeiten an hybriden Integrationen aber laufen bereits. Projekte wie „Qsolid“ in Jülich erforschen zukunftsweisende hardwarebasierte Fehlerkorrektur und Cloud-Zugänge für die Industrie.

KI und Quanten

„Quanten-Co-Location“, also die strategische Integration quantenbasierter Hardware in bestehende Co-Location-Rechenzentren, kann sowohl physische Integration von Quantenhardware wie QPUs und Quanten-Sensorik als auch als die Anbindung an Quantenkommunikationsnetze umfassen. In Europa arbeiten Projekte wie OpenQKD, Qunet oder QCI an der Einrichtung quantensicherer Kommunikationsknoten, die mittelfristig auch in kommerziellen Co-Location-Zentren Einzug halten sollen.

Während die IT-Branche auf die Ära des Quantencomputing zusteuert, geraten Rechenzentren als kritische Infrastrukturen in den Fokus einer neuen Sicherheits- und Infrastrukturdebatte: Wie lassen sich digitale Infrastrukturen gegen die Bedrohung durch Quantencomputer absichern?

Die Bedrohung durch Quantenrechner

Die gegenwärtige — klassische — Kryptographie basiert auf mathematischen Problemen wie der Faktorisierung großer Zahlen oder der Lösung diskreter mathematischer Probleme, die für klassische Computer praktisch unlösbar sind. Mit dem Aufkommen von Quantencomputern verliert die mathematische Basis Bestand.

Quantenalgorithmen wie Shor können bewährte klassische Verschlüsselungsmethoden mit einem deutlich geringeren Aufwand aushebeln. Betroffen sind nahezu alle klassisch verschlüsselten Daten, darunter auch etwa Blockchains oder öffentlich zugängliche Archive und digitale Signaturen. Nach der einmaligen Veröffentlichung verschlüsselter Daten - nach dem Versenden via Internet oder der Einbindung in Blockchains - ist ein nachträglicher Schutz unmöglich.

Die Zeit bis zum „Q-Day“, an dem Quantenrechner kryptografische Verfahren im großen Maßstab brechen können, wird von Experten als zunehmend greifbar eingeschätzt. Studien warnen vor gravierenden Folgen für Datenschutz, Compliance und IT-Sicherheit im gesamten Datacenter-Ökosystem.

Während einige Prognosen noch von Jahren sprechen, warnen andere vor einer deutlich kürzeren Vorlaufzeit. Klar ist: Je näher der Q-Day rückt, desto dringender müssen Unternehmen und Institutionen auf quantenresiliente Sicherheitsmechanismen umstellen, um ihre Daten und Kommunikation zu schützen.

Alarmstufe Rot

Die US-Notenbank (Federal Reserve) hat in einer Studie vom September 2025 Alarmstufe Rot ausgerufen. Laut der Veröffentlichung „Harvest Now Decrypt Later: Examining Post-Quantum Cryptography and the Data Privacy Risks for Distributed Ledger Networks“ stehen insbesondere Blockchain-Netzwerke kurz davor, offengelegt zu werden — einschließlich historischer Bitcoin-Transaktionen (siehe: Jillian Mascelli, Megan Rodden: “Harvest Now Decrypt Later”: Examining Post-Quantum Cryptography and the Data Privacy Risks for Distributed Ledger Networks. Finance and Economics Discussion Series 2025-093, Board of Governors of the Federal Reserve System, September 2025).

Bitcoin, das erste Blockchain-Netzwerk von Satoshi Nakamoto aus dem Jahre 2009, entstand, um Zahlungen ohne Vermittler zu ermöglichen (Stichwort: Peer-to-Peer). Die zugrunde liegende Technologie, die Blockchain, zeichnet alle Transaktionen in einem öffentlichen Register auf, das kollektiv von einem Netzwerk von Computern und nicht von einer zentralen Autorität geführt wird. Als Verschlüsselungsmethode kommt ECDSA zum Einsatz.

Sollten Angreifer den privaten Schlüssel zu einer bekannten Adresse berechnen, können sie auf das zugehörige Guthaben zugreifen. Besonders gefährdet sind Wallets, deren Adresse und damit der Public Key bereits on-chain erschienen sind; das passiert meist nach der ersten Transaktion.

Lösungsvorschläge?

Adressen, die bisher nie verwendet wurden und deren Public Key nicht bekannt ist, sind wesentlich besser geschützt – auch gegen einen Quantencomputerangriff. Die Studie beschreibt mögliche Gegenmaßnahmen, kommt aber zu dem Schluss, dass keine davon wirklich eine Lösung bietet.

Die Erschaffung einer neuen, quantenresistenten Version der Blockchain, so genannter Hard Fork, könnte zukünftige Transaktionen schützen, aber nicht die alten.

Die Verpflichtung zur Verwendung von PQC-kompatiblen Adressen in allen Wallets und Börsen würde die zukünftige Angriffsfläche reduzieren, könnte jedoch in einem dezentralen Netzwerk keine universelle Einhaltung durchsetzen. Selbst vorbildliches Nutzerverhalten vermag zu dem aktuellen Zeitpunkt nicht zu verhindern, dass bereits gesammelte historische Daten in Zukunft entschlüsselt werden können.

Kein Entkommen

Die Offenlegung ist unvermeidbar. Sobald private Schlüssel, verschlüsselte Nachrichten oder andere verschlüsselte Daten in fremde Hände geraten, kann ihre Vertraulichkeit nicht mehr wiederhergestellt werden.

Selbst die so genannte „Crypto-Agility“, also die Fähigkeit, Verschlüsselungsalgorithmen im Stack schnell zu aktualisieren, dieses rückwärtsgerichtete Risiko nicht adressieren kann. Zu diesem Ergebnis kommt auch die Studie der Federal Reserve.

Mit fortschreitender Entwicklung von Quantencomputing nimmt die Gefahr für klassische Implementierungen der Datensicherheit zu. In der Übergangszeit zwischen heute und dem gefürchteten „Q-Day“ kann Post-Quantum-Kryptographie (PQC) schaffen. Das U.S. National Institute of Standards and Technology (NIST) hat bereits mehrere dieser Methoden standardisiert.

Der Begriff bezeichnet neue mathematische Algorithmen, die speziell so entwickelt wurden, dass sie mit klassischen Chips funktionieren und dennoch Angriffen von Quantencomputern standhalten. Die Anschaffung eines Quantencomputers ist zum Glück nicht erforderlich.

Wer zuerst kommt, ....

Die Vorbereitung auf die technologische Disruption durch Quantencomputer zählt zu den anspruchsvollsten Herausforderungen der Informationstechnik von heute. Auf dem Spiel steht unter anderem die Sicherheit von Bestandsdaten und die Integrität von digitalen Signaturen.

Die NSA und das BSI warnen seit Jahren vor dem „Harvest now, decrypt later“-Risiko: Heute abgefangene Daten werden sich bereits in naher Zukunft leicht entschlüsseln lassen. Für Betreiber von Rechenzentren ergibt sich daraus dringender Handlungsbedarf – sowohl auf infrastruktureller als auch auf kryptografischer Ebene.

Rechenzentren müssen mit Weitblick für die Post‑Quanten-Ära ausgelegt werden. Dies betrifft mehrere Dimensionen:

  • Kryptografische Resilienz und Krypto-Agilität: Migration zu quantensicheren Algorithmen und anpassungsfähigen -Stacks
  • Quantenkommunikation & Schlüsselverteilung: Integration von QKD, QCN, Quanten- und neuromorphes Computing, und mehr
  • Physikalische Infrastruktur für Quantencomputing: Kühlung, EM-Abschirmung, Raumplanung, Vibrationsdämmung, spezielle Kühlung von Quanten-Racks, Stromversorgung, optische Kopplung
  • Betriebs- und Sicherheitsarchitektur: Schlüssel-Management, Hardware-Sicherheitsmodule (HSMs) mit PQC-Unterstützung, Authentifizierung sowie Interoperabilitätsmechanismen und Umschaltlogiken zwischen klassischen und quantensicheren Kryptosystemen, also zum Beispiel hybride TLS-Stacks,
  • Anwendungsschicht und Orchestrierung: Monitoring der QKD-Qualität, Fehlerraten, Synchronisation, Alarmierung bei Streckenunterbrechung, bei Angriffen oder Anomalien
  • Externe Vernetzung: quantenvermittelte Verbindungen zu anderen sicheren Datacenter-Standorten; Kooperationen mit QKD-Netzen, nationalen oder internationalen Quantenkommunikationsknoten

Im Rechenzentrumskontext heißt das: Systeme sollen in der Lage sein, mit alten Protokollen zu kommunizieren, gleichzeitig, aber neue PQK-Verfahren (kurz für Post‑Quantum‑Kryptografie) einführen, ohne Sicherheitslücken zu erzeugen oder den Betrieb zu gefährden. Rechenzentren müssen zudem ihre bestehende Infrastruktur auf PQK-Readiness prüfen. Dies betrifft insbesondere:

  • Firewalls, Load Balancer, VPNs
  • Storage-Systeme und Backup-Lösungen
  • Netzwerkgeräte und Firmware
  • Kunden-APIs und Mandantenkommunikation

Unternehmen wie IBM, Google Cloud, Thales und mittlerweile auch HPE mit ihren neuesten Server-Generationen bieten bereits erste PQK-kompatible Lösungen für den Rechenzentrumsbetrieb an.

*Das Autorenduo

Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.

Ihr Fazit lautet: Die Ära des Quantencomputings steht nicht mehr vor der Tür; sie hat begonnen. Unternehmen, Rechenzentrumsbetreiber und IT-Architekten müssen sich jetzt mit der Realität der Quantenüberlegenheit gegenüber klassischen Infrastrukturen auseinandersetzen.

Die Vorreiter zeigen, wie Quantenprozessoren produktiv und sicher in bestehende digitale Ökosysteme eingebunden werden können und zwar in enger Kopplung mit KI-Beschleunigern und im operativem Dauerbetrieb.

Gleichzeitig macht die wachsende Bedrohung durch Quantencomputer deutlich, dass klassische Kryptografie nicht mehr ausreicht. Quantenresilienz ist kein Zukunftsthema, sie ist zur strategischen Pflichtaufgabe geworden. Die Post-Quantum-Zeit verlangt nicht zwingend die Anschaffung eines Quantencomputers, sondern vielmehr ein Umdenken in Infrastrukturplanung, Sicherheitsarchitektur und kryptografischer Agilität.

(ID:50647374)