Quantencomputer und Künstliche Intelligenz wachsen zusammen. Einige Algorithmen gibt es schon, die Teilaufgaben aus der KI oder dem Maschinellen Lernen auf Quantencomputern lauffähig machen. Bei wenigen sehr spezifischen Algorithmen könnten Quantenrechner 2026 überlegen werden.
Quanten-KI heißt nicht, einfach bestehende KI-Modelle beziehungsweise -Algorithmen auf schnellere Rechner zu portieren; auf Quantencomputern gelten andere Gesetzmäßigkeiten als in der Digitalwelt, die überraschende Ergebnisse liefern.
(Bild: IBM/Flickr)
Quanten-AI, Quanten-KI oder Quanten-Maschinelles Lernen (QML, Bezeichnung des Fraunhofer IAIS Institut für AI-Systeme) bedeutet das synergistische Zusammenwirken von konventionellen KI-Algorithmen mit den technischen Möglichkeiten von Quantencomputern. Letztere arbeiten grundsätzlich anders als „ChatGPT“ und Konsorten, die heute als das Nonplusultra der KI-Welt gelten.
Im Gegensatz zu diesen Systemen brauchen sie nicht viele Daten, in denen dann mit dem Prinzip der großen Harke nach Korrelationen gesucht wird. Dr. Jan-Rainer Lahmann, Distinguished Engineer Quantum Computing bei IBM: „Quantencomputer sind keine Big-Data-Maschinen!“
Weniger Daten, aber mehr Ungenauigkeit
Vielmehr operieren sie mit, relativ betrachtet, sehr wenigen Daten, die aber das Problem logisch richtig erfassen müssen. Zur Darstellung der Zusammenhänge nutzen sie physikalische Quantenzustände und arbeiten mit hoher Rechenintensität. Grundeinheit sind nicht Bits, sondern Qbits.
Die einzelnen Qubits werden gezielt in bestimmte Zustände wie Überlagerung oder Verschränkung gebracht, die dann wiederum mit Hilfe spezieller Verschaltungen miteinander verbunden werden. Diese Verschaltungen ähneln den Gattern der digitalen Elektronik, funktionieren aber, da es sich um Quantensysteme und auch so genannte Quantengatter handelt, grundsätzlich anders.
Sie gehorchen quantenphysikalischen Prinzipien. Die Qubits werden je nach der Technologie des Quantenrechners zur Erzeugung der Qbits beispielsweise durch Mikrowellen angeregt, nicht durch elektrischen Strom wie bei Digitalrechnern.
Andere Arbeitsprinzipien
Die Kunst besteht unter anderem darin, das zu lösende Problem mental so zu durchdringen und zu beschreiben , dass man dessen Struktur in Form von Qbits, deren Verknüpfungen durch Quantengatter und durch entsprechende Daten im Quantensystem repräsentieren kann, Dafür müssen die Daten in ins Quantensystem überführt werden. Dabei entspricht in der Regel jeder Datenpunkt einem Qubit.
Anschließend muss das Verhalten beobachtet, die Ergebnisse gelesen und in menschenverständliche Terminologie übersetzt werden. Daraus ergeben sich mehrere wichtige Probleme, die zu überwinden sind.
Quantenalgorithmen erfordern anderes Denken
Das erste und sehr grundlegende besteht darin, dass das Denken in quantenmechanischen Zuständen und die Übertragung dieser Prinzipien auf konkrete zu lösende Probleme schlicht die mentalen Kapazitäten eines digital geschulten Gehirns an seine Grenzen bringt. Die Hoffnung ruht auf der Generation junger Informatiker und Ingenieure, die spätestens während ihres Studiums ins Arbeiten mit Quantensystemen und ihren Algorithmen eingeführt werden und sie dann entsprechend selbstverständlich entwickeln und anwenden können.
IBM hat mit „Quiskit“ eine Schnittstelle veröffentlicht, über die jeder kostenlos Algorithmen auf Quantencomputern ausprobieren kann. Das Tool setzt die Algorithmen in ein Quantenrechner-taugliches Format um. Eine weitere Schnittstelle, fokussiert auf QML, ist Pennylane.
Instabilität und zu viele Fehler
Zweitens fehlt es den Systemen heute noch an Zuverlässigkeit. Die qantenmechanischen Zustände sind nur für Sekundenbruchteile stabil. Die so genannte Kohärenzzeit einer Verschränkung liegt derzeit bei IBM in der Größenordnung von einer Millisekunde. Man kann aktuell Algorithmen mit maximal 5.000 Verschränkungen zwischen Qbits ausführen.
Der IBM-Quantenchip „Nighthawk“, die jüngste Variante von IBM-Quantenchips aus dem Jahr 2025, ermöglicht Quanten-Schaltkreise mit 30 Prozent höherer Komplexität als die Vorgänger.
(Bild: IBM/Flickr)
Und nur während dieser Millisekunde kann man sicher rechnen. Damit zusammen hängen die Fehler, die entstehen, wenn Qbits respektive Verschränkungen instabil werden. Es entsteht heute ein Fehler auf zwischen 1.000 und 10.000 Operationen – im digitalen Bereich wäre das undenkbar unzuverlässig.
Quanten-Fehlerkorrektur noch nicht praxisreif
Um diese Fehler herauszurechnen, koppelt man viele physische Qbits zu so genannten logischen Qbits, so dass die Fehler sozusagen ausgemittelt werden. Dabei ist das stark vereinfacht, in der Realität wird kein Durchschnitt oder Median geblidet, sondern wesentlich komplexer verfahren.
DIe hier verwendeten Methoden, die Quantum Error Correction (QEC) in Echtzeit möglich machen, sind laut IBM derzeit noch nicht praktisch anwendbar und, wie man sich denken kann, eines der heißesten Forschungsthemen der Quantentechnologie.
Mehrere Fehlerkorrekturverfahren in der Diskussion
Es gibt hier mehrere Verfahren: Bei Surface Codes, wie sie häufig diskutiert werden, sind für ein logisches Qbit mehrere Hundert, wenn nicht Tausende physischer Qbits nötig. IBM schafft derzeit nach eigenen Angaben 156 physische Qubits.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Andere Verfahren – wie die von IBM veröffentlichten qLDPC (Quantum Low Density Parity Check) Codes - brauchen weniger physische Qbits, dafür aber mehr Verbindungen zwischen ihnen.. IBMs Ziel für 2029: 200 stabile logische Qbits.
Skalierung: Viel Luft nach oben
Um sicher komplexe Probleme rechnen zu können, muss man also über möglichst viele physische Qbits verfügen. Mit ihnen kann man dann operieren und sie zu logischen Qbits zusammenfassen.
Das führt zur Notwendigkeit der Skalierung. Manche Hersteller hoffen hier auf die digitale Simulation von Qubits. IBM ist dem Ansatz gegenüber eher skeptisch, was das Erreichen praktischer Anwendungsvorteile (Quantum Advantage).
Die Simulation gelinge derzeit bis etwa 50-60 Qbits. Um eine Vorstellung zu vermitteln: Für eine wirksame Unterstützung des Drug Design benötige man heute einige Tausend physische Qbits, um Fehler wirksam auszumitteln, noch sehr viel mehr, und zwar reale, keine simulierten. Dies werde definitiv nicht mit digitaler Simulation von Qubits erreichbar sein.
Noch keine praktische Überlegenheit von Quantenrechnern
Lahmann: „Heute gibt es noch kein einziges praktisches Problem, wo Quantencomputing besser, schneller oder billiger wäre als konventionelle Datentechnik.“ Andere Behauptungen seien aktuell schlicht falsch.
Blick in ein IBM-Quantenlabor: Es sieht anders aus als in einem Rechenzentrum mit Digitaltechnik.
(Bild: Connie Zhou)
Es würden zwar Quanten-Algorithmen ausprobiert. Doch ihre Ergebnisse seien noch zu fehlerbehaftet oder die Zahl der Qbits ist noch nicht groß genug, um wirklich komplexe Probleme zu durchdringen und sich vor allem allein auf deren Ergebnisse im Geschäftsleben zu verlassen.
Erste Quantum Advantages bei Spezialalgorithmen 2026 möglich
Allerdings sollte man den Fortschritt auch nicht herunterspielen: Es könne, so Lahmann, schon 2026 erste Durchbrüche geben. Das heißt, dass spezifische Aufgaben mit Quantentechnik effizienter und effektiver lösbar sind als konventionell. Klassische KI gehöre aber nicht dazu, die komme erst später, so vermutet jedenfalls IBM.
Quantenrechner können beispielsweise Muster einfacher erkennen und ganze Datenfelder (Matritzen) auf einmal durchforsten. Von unscharfen oder unvollständigen Daten lassen sie sich nicht verunsichern. Für solche Teilaufgaben innerhalb des maschinellen Lernens könne man schon sehr bald KI im Echtbetrieb verwenden.
Klassifikation und Sortierung als Beispiel für potentielle Quanten-Überlegenheit
Ein Beispiel ist eine von IBM entwickelte Kernel-basierte Methode zur Klassifikation. Hier übernimmt der Quantenrechner die sehr schnelle Bearbeitung von Matritzenrechnungen, die sonst sehr langwierig wären. Die Ergebnisse werden dann wieder in die konventionelle ML-Umgebung übergeben und dort weiterverarbeitet.
Klassische Sortieralgorithmen sind ebenfalls eine Domäne, auf der Quantenrechnen schnelle Durchbrüche bringen könnte. Ein Beispiel ist ein Handelssystem bei HSBC, das den Handel mit Unternehmensanleihen optimieren soll (siehe: „Im Schweizer IBM-Labor treffen sich KI- und Quanten-Algorithmen; Echte Anwendungen und ein Hauch Quantum Advantage“). Dieses System im Teststadium kombiniert Quanten- und klassisches Computing. Eine Teilaufgabe des Systems ist zu ermitteln, wie wahrscheinlich es ist, ob ein HSBC-Preisangebot angenommen wird.
Quantenrechner erledigt Vorverarbeitung
Das Quantencomputing-System übernimmt hier die Vorverarbeitung der Daten, das ist ein Teil des Trainings und erfolgt nicht in Echtzeit. Sie dient dazu, das Gesamtsystem zu kalibrieren und zu parametrisieren. Dadurch konnte die Genauigkeit des gesamten Datenmodells, das für die Berechnung verwendet wird, um ein Drittel verbessert werden.
Zu den Algos, bei denen Lahmann den Durchbruch fürs Quantencomputing 2026 erwartet, gehören die so genannten Hamilton-Simulationen. Sie arbeiten beschränkt quantenmechanisch und werden etwa in der Materialforschung verwendet.
Fürs klassische Maschinelle Lernen oder die Lösung von Partialgleichungen mag Lahmann kein Datum angeben. „Das kommt irgendwann später“, sagt er.
Erfolgversprechende Quanten-Algorithmen
Heute schon auf Quantencomputern lauffähig ist die Quantum-Fouriertransformation, die zum Beispiel im Shor-Algorithmus zur Faktorisierung von Primzahlen vorkommt. Sie beschleunigt die Verarbeitung großer Datensätze. Das kann dabei helfen, bisherige Verschlüsselungsalgorithmen auszuhebeln.
Dr. Jan-Rainer Lahman, Distinguished Engineer Quantum Computing bei IBM: "Praktische Vorteile erwarten wir bei ersten spezifischen Aufgaben im Jahr 2026."
(Bild: IBM)
Auch Grovers Algorithmus sehen manche als 'quantenreif'. Er beschleunigt das Durchsuchen großer Datenmengen. IBM sieht auch dies allerdings nicht als praktikabel an: Man brauche zu viele Quantengates hintereinander, also eine zu große Circuit-Tiefe.
Woran andere Quantenforscher arbeiten
Doch IBM ist nicht der einzige Ort, an dem man die Quantentechnik und -informatik voranbringt. Das tut auch das Kompetenzzentrum Maschinelles Lernen Rhein-Ruhr (ML2R), heute Lamarr-Institut. Es befasst sich etwa damit, dass nicht alle der frühzeitig entwickelten Quantenalgorithmen auf den heute existierenden Quantencomputern auch tatsächlich lauffähig sind.
Das läge, so das Projekt, an dreierlei: Manche Berechnungen brauchten Bauelemente wie etwa Quanten-Speicher mit Zufallszugriff (Quantum Random Access Memory), die es noch nicht gibt. Zweiter Grund sind wie oben schon erwähnt zu wenige Qbits, der dritte die ebenfalls schon erwähnten Fehler.
Neuronale Netze und Wissensaustausch
Ein Forschungsprojekt am Lamar-Institut versucht, diese Hindernisse zu beseitigen und gleichzeitig Algorithmen zu entwickeln, die auf heutigen Quantencomputern lauffähig sind. Dazu gehören Hopfield-Netze, also rekursive neuronale Netze, die auf Qanten-Annealern (adiabatischen Quantenrechnern) lauffähig sein könnten. Weiter versucht man, Quantengatterschaltungen als Dichteschätzer zu nutzen, ohne die statistischen Garantien klassischer Verfahren zu verlieren.
Ein weiteres Projekt, „PlanQK“, betreibt Fraunhofer Fokus. Hier wollen 14 Partner gemeinsam eine Plattform für den bereichsübergreifenden Wissens- und Erfahrungsaustausch zu quantenunterstützter Künstlicher Intelligenz entwickeln.
*Das Fazit der Autorin Ariane Rüdiger ist freie Journalistin und lebt in München. Ihre Einschätzung lautet: Quanten-KI wird kommen, doch das dauert. Heute arbeitet Quantencomputing innerhalb von KI-Szenarien durchaus erfolgversprechend, aber experimentell und innerhalb sehr spezifischer Teilaufgaben. Die Zusammenarbeit mit klassischen KI-Umgebungen ist wegen der spezifischen Stärken der Quantencomputer bis auf Weiteres vorgegeben. Erste Durchbrüche zur Praxistauglichkeit und Überlegenheit sind für dieses Jahr zu erwarten.