Quantum-Ambassador Jan-Rainer Lahmann im Gespräch IBM: Quantenvorteil noch 2026, fehlertoleranter Quantenchip bis 2029

Von Daniel Schrader 6 min Lesedauer

Anbieter zum Thema

Bis Ende 2026 will IBM einen Quantenvorteil in Feldern wie der Materialforschung und Quantenchemie nachweisen. ML- und KI-Anwendungsfälle sollen bald folgen, wobei Quantenchips Big-Data-Systeme ergänzen, nicht ersetzen werden. In jedem Fall gehöre eine Quantenstrategie dringend auf die Agenda jedes IT-Unternehmens.

Das Innere eines IBM-Quanten-Kryostaten: drei Quantum Processing Units unter Kupferschirmen mit Hochfrequenz- und Gleichspannungsleitungen.(Bild:  IBM)
Das Innere eines IBM-Quanten-Kryostaten: drei Quantum Processing Units unter Kupferschirmen mit Hochfrequenz- und Gleichspannungsleitungen.
(Bild: IBM)

Im Quanten-Rennen geizt IBM nicht mit Gelöbnissen. Bis Ende 2026 will der Konzern einen Quantenvorteil (Quantum Advantage) demonstrieren, so dass Quantenberechnungen bei spezifischen Aufgaben klassische Rechner konsistent übertreffen. Bis 2029 soll ein fehlertoleranter IBM-Quantencomputer praxistauglich sein.

IBM geht es dabei betont nicht um eine „Quantenüberlegenheit“, erklärt der Distinguished Engineer und IBM-Quantum-Experte Jan-Rainer Lahmann. Seit kurzem ist Lahmann für ein globales Team von 300 Botschaftern für Quantentechnologien des Konzerns zuständig, welches zwischen dem Forscherteam und potenziellen Anwendern vermitteln soll. Quantenüberlegenheit suggeriere Dominanz über klassische Rechenmethoden. IBM spreche stattdessen von einem Quantenvorteil. Es gehe um eine besonders guten Eignung von Quantencomputern für spezifische Aufgaben. Damit sollen sich Quantum Processing Units (QPU) neben CPUs, GPUs und andere Beschleuniger gesellen, statt diese zu ersetzen.

In der Podcast-Folge #58 „Distingished Engineer Jan-Rainer Lahmann, IBM: '2026 erreichen wir Quantum Advantage.' Was heißt das?“ diskutiert der Quantum Ambassador von IBM mit DataCenter-Insider-Chefredakteurin Ulrike Ostler die Unterschiede von Quantenüberlegenheit und Quantum Advantage, die technologischen Herausforderungen insbesondere bei der Skalierung von Quanetenrechnern sowie die Art und Weise der Programmierung für und Einsatzszenarien von Quantencomputern. Zudem wird die strategische Notwendigkeit für Unternehmen hervorgehoben, sich frühzeitig mit Quantencomputing auseinanderzusetzen, um von den zukünftigen Vorteilen zu profitieren und Souveränität beziehungsweise Entscheidungshoheit zu gewährleisten.

Die Folge findet sich auf Spotify, Apple Podcasts, Deezer und Amazon Musik.

Quantenvorteil bis Ende 2026 in Feldern wie der Quantenchemie

In jedem Fall müssen allerdings Quantenrechner einen klar messbaren Vorteil demonstrieren. Nach IBM-Kriterien müssen dafür Quantencomputer bei Praxisaufgaben entweder signifikant schneller, signifikant genauer oder signifikant effizienter operieren. „Stand heute bieten Quantencomputer noch keine Vorteile gegenüber klassischen Rechnern“, macht Lahmann explizit. Zugleich gäbe es schon jetzt „Beispiele, wo wir mit Quantencomputern gleichauf liegen mit den besten klassischen Ansätzen“. Damit „erwarten wir bei IBM, dass erste Fälle einer Quantum Advantage bis Ende 2026 erreicht werden können“.

Lahmann geht dabei von erst wenigen und speziellen Einsatzgebieten aus, die den Weg für den breiteren Einsatz von Quantentechnologien ebnen sollen. Ein naheliegender Anwendungsfall wäre es so, Quantencomputer für Berechnungen der Quantenwelt selbst einzusetzen, welche auf klassischen Rechnern einen deutlichen Overhead erfordern. Dies könnten etwa Simulationen quantenchemischer Reaktionen sein. In der Materialforschung erwarte IBM ebenfalls, dass Quantencomputer in absehbarer Zeit klassische Rechner um den Faktor Zehn übertreffen werden.

Auf solche ersten Anwendungsfälle sollen breitere IT-Bereiche folgen. Quantencomputer böten so klare Potenziale für Künstliche Intelligenz (KI). Dabei gehe es, so Lahmann, gar nicht primär um schnelleres Rechnen, sondern darum, mit Quantencomputern bei weniger Trainingsdaten genauere Machine-Learning-Modelle (ML) zu entwickeln. Dies würde GPUs nicht obsolet machen, auf denen wohl auch weiterhin die Modelle laufen werden. Denn Quantencomputer seien keine Big-Data-Maschinen, sondern würden vielmehr in einem „Small Data, Big Compute“-Einsatz glänzen.

Weitere naheliegende Anwendungsgebiete seien mathematische Optimierungsaufgaben, etwa bei „Operations Research, Routenoptimierung, Produktionsplanung, Supply-Chain-Optimierung. Hier erwartet man, dass [Quantencomputer] komplexere Probleme lösen können als klassische Optimierungsverfahren“. Einen klaren Vorteil sollen Quantensysteme zudem, so Lahmann, bei partiellen Differenzialgleichungen bieten, etwa bei Strömungssimulationen, oder bei der Faktorisierung von Zahlen, wie sie besonders für die Kryptografie entscheidend ist.

IBM setzt auf tiefgekühlte, supraleitende Qubits

Im harten Rennen um einen praxistauglichen Quantencomputer setzt IBM auf einen spezifischen Ansatz, kontrollierbare quantenmechanische Zustände, Qubits, zu erzeugen. In IBM-Quantencomputern entstehen diese in elektrischen Schwingkreisen aus tiefgekühlten und supraleitenden Materialien. Mitbewerber verfolgen teils ganz andere Ansätze wie manipulierte Kohlenstoffgitter bei Raumtemperatur, Ionenfallen oder photonische Qubits. Das IBM-Team in Zürich untersuche solche Alternativen aktiv. Dennoch ist Lahmann überzeugt, dass die Unternehmenstechnologie mit supraleitenden Qubits den momentan kürzesten Weg zu praxistauglichen und skalierbaren Quantenrechnern darstelle.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Während der Ansatz eine aufwendige Kühlung auf 15 bis 20 Millikelvin (etwa -273 Grad Celsius) erfordert, teilt er sich mit anderen Herangehensweisen signifikante Herausforderungen bei der Skalierung und Fehlerresistenz. Diese stellt auch der IBM-Quantenbotschafter klar: Das Quantensystem müsse von der (Gesetzen der klassischen Physik folgenden) Außenwelt möglichst stark isoliert und dennoch von außen kontrollierbar sein. Zudem komme es oft zu einer ungewollten gegenseitigen Beeinflussung von Qubits, einem sogenannten Crosstalk.

Schon bei der ersten Initialisierung des Quantencomputers könne man damit momentan noch nicht gewährleisten, dass sämtliche Qubits auf 0 schalten, wobei aber die Fehlerrate mittlerweile gering sei. Auch bei den Rechenoperationen habe man jüngst Fehlerraten auf etwa ein Tausendstel senken können. Damit soll auch der für 2029 angekündigte fehlertolerante IBM-Quantencomputer die Fehlerkorrektur eigenständig auf Chip-Ebene übernehmen, wo bislang nachträgliche Berichtigungen durch klassische Rechner erforderlich sind.

Eine Engineering-Herausforderung, kein Forschungsproblem

Damit sind die Herausforderungen bei der Skalierung der Quantenhardware von IBM, so Lahmann, nicht mehr unüberwindbar. „Unsere Aussage ist, dass es inzwischen kein Forschungsproblem mehr gibt, sondern ein Engineering-Problem. Das heißt, man hat alle Fragestellungen und Herausforderungen identifiziert und Lösungsansätze entwickelt. Dennoch ist das Engineering-Problem sehr herausfordernd und es wird Jahre dauern, die Systeme weiter zu skalieren“.

Versuche man dabei durch eine einfache Addition weiterer Qubits zu skalieren – wie es IBM für den 1123-Qubit-Rechner „Condor“ 2023 erprobt hat – entstünden allerdings Inkonsistenzen bei der Qualität von Qubits und somit neue Fehlerquellen. Deswegen seien aktuellere, kleinere Systeme wie der IBM-Chip „Heron R2“ mit 156 Qubits weniger fehleranfällig und eher zukunftsweisend.

Diese könnten dann modular skaliert werden, und zwar mit einer direkten Quanten-Kopplung: „Wir werden nicht klassische Bits zwischen den Chips übertragen. Stattdessen können durch die Kopplung über die der Chips hinweg Quanten-Eigenschaften wie Verschränkung hergestellt und genutzt werden.“ In ersten Studien habe IBM drei Chips auf solche Weise koppeln können, in den „nächsten Jahren“ sei aber eine „ganz erhebliche Erweiterung“ in Greifweite.

Auch die Software muss auf die Quantenwelt abgestimmt sein

Schließlich spiele auch die Software eine entscheidende Rolle. Die Framework-Ebene sei bereits weit fortgeschritten. Das von IBM angestoßene Open-Source-SDK (Software Development Kit) „Qiskit“ unterstütze mittlerweile mehrere Projekte verschiedener Hersteller. Zugleich reiche es nicht, die einzigartigen Effekte der Quantenwelt wie Superposition und Verschränkung Hardware-seitig nutzbar zu machen und dann klassische Software einzusetzen, macht Lahmann deutlich.

Erst wenn auch die einzelnen Algorithmen auf Quanten-Effekte ausgerichtet seien, könnte das volle Potenzial der Technologie bei Geschwindigkeit und Effizienz genutzt werden. Solche komplexen Algorithmen seien bereits von Theoretikern entwickelt worden. Es gelte nun, sie in Bezug auf die konkreten Möglichkeiten der entstehenden Hardware zu verstehen und die eigenen Fragestellungen an sie anzupassen. Für bestimmte Optimierungsaufgaben und chemische Simulationen stünden dabei in Qiskit bereits komplette Workflows zu Verfügung.

Unternehmen sollten dringend an einer Quanten-Strategie arbeiten

Während also der Quantenvorteil noch nicht erreicht ist, seien seien praktische Anwendungsfälle für Quantencomputing so nahe, dass sich aus Sicht des IBM-Ingenieurs jedes Unternehmen und jede Organisation schon heute, und zwar dringend, mit einer Quantencomputing-Strategie beschäftigen müsse. Es wäre höchste Zeit, aus mathematisch und physisch veranlagten Mitarbeitern informelle Arbeitsgruppen zu bilden oder sich für externe Experten-Unterstützung zu entscheiden. Wenn 2026 erste Ergebnisse zu Quantenvorteilen öffentlich werden sollen, würde zwar vielen die Dringlichkeit des Themas einleuchten. Bis dahin seien allerdings Unternehmen gut beraten, bereits Grundzüge einer eigenen Strategie formuliert zu haben.

Für Lahmann ist es entscheidend, keine übereilige Euphorie zu erzeugen, aber zugleich die erwarteten transformativen Effekte eines Quantum-Durchbruchs zu explizieren. Die Kommunikation von IBM beinhalte so zwangsläufig einen Spagat: „Wir schildern sehr offen und nüchtern den derzeitigen Stand der Technologie, aber auch das enorme Potenzial und eine realistische Zeitachse, um es zu realisieren".

Auf keinen Fall sei Quantencomputing mit solchen Technologien vergleichbar, „die in 20 Jahren so weit sein sollen, wo aber dieses Zeitfenster immer weiter vor sich hergeschoben wird“. Quantencomputing sei weit genug, dass klare Meilensteine wie ein Quantenvorteil für 2026 formuliert und auch ein erster „Endtermin“ mit einem fehlertoleranten Quantencomputer für 2029 festgesetzt werden könne. IBM habe zudem gezeigt, dass diese Roadmap realistisch sei: „Bislang haben wir jedes Jahr ziemlich genau das geliefert, was wir in unserer Roadmap formuliert haben“, betont Lahmann.

(ID:50600318)