Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Künstliche Intelligenz, aber anders Was ist, was kann und was hemmt Quanten-KI?

Von lic.rer.publ. Ariane Rüdiger 7 min Lesedauer

Anbieter zum Thema

Quantencomputer und Künstliche Intelligenz wachsen zusammen. Einige Algorithmen gibt es schon, die Teilaufgaben aus der KI oder dem Maschinellen Lernen auf Quantencomputern lauffähig machen. Bei wenigen sehr spezifischen Algorithmen könnten Quantenrechner 2026 überlegen werden.

Quanten-KI heißt nicht, einfach bestehende KI-Modelle beziehungsweise -Algorithmen auf schnellere Rechner zu portieren; auf Quantencomputern gelten andere Gesetzmäßigkeiten als in der Digitalwelt, die überraschende Ergebnisse liefern. (Bild:  IBM/Flickr)
Quanten-KI heißt nicht, einfach bestehende KI-Modelle beziehungsweise -Algorithmen auf schnellere Rechner zu portieren; auf Quantencomputern gelten andere Gesetzmäßigkeiten als in der Digitalwelt, die überraschende Ergebnisse liefern.
(Bild: IBM/Flickr)

Quanten-AI, Quanten-KI oder Quanten-Maschinelles Lernen (QML, Bezeichnung des Fraunhofer IAIS Institut für AI-Systeme) bedeutet das synergistische Zusammenwirken von konventionellen KI-Algorithmen mit den technischen Möglichkeiten von Quantencomputern. Letztere arbeiten grundsätzlich anders als „ChatGPT“ und Konsorten, die heute als das Nonplusultra der KI-Welt gelten.

Im Gegensatz zu diesen Systemen brauchen sie nicht viele Daten, in denen dann mit dem Prinzip der großen Harke nach Korrelationen gesucht wird. Dr. Jan-Rainer Lahmann, Distinguished Engineer Quantum Computing bei IBM: „Quantencomputer sind keine Big-Data-Maschinen!“

Weniger Daten, aber mehr Ungenauigkeit

Vielmehr operieren sie mit, relativ betrachtet, sehr wenigen Daten, die aber das Problem logisch richtig erfassen müssen. Zur Darstellung der Zusammenhänge nutzen sie physikalische Quantenzustände und arbeiten mit hoher Rechenintensität. Grundeinheit sind nicht Bits, sondern Qbits.

Die einzelnen Qubits werden gezielt in bestimmte Zustände wie Überlagerung oder Verschränkung gebracht, die dann wiederum mit Hilfe spezieller Verschaltungen miteinander verbunden werden. Diese Verschaltungen ähneln den Gattern der digitalen Elektronik, funktionieren aber, da es sich um Quantensysteme und auch so genannte Quantengatter handelt, grundsätzlich anders.

Sie gehorchen quantenphysikalischen Prinzipien. Die Qubits werden je nach der Technologie des Quantenrechners zur Erzeugung der Qbits beispielsweise durch Mikrowellen angeregt, nicht durch elektrischen Strom wie bei Digitalrechnern.

Andere Arbeitsprinzipien

Die Kunst besteht unter anderem darin, das zu lösende Problem mental so zu durchdringen und zu beschreiben , dass man dessen Struktur in Form von Qbits, deren Verknüpfungen durch Quantengatter und durch entsprechende Daten im Quantensystem repräsentieren kann, Dafür müssen die Daten in ins Quantensystem überführt werden. Dabei entspricht in der Regel jeder Datenpunkt einem Qubit.

Anschließend muss das Verhalten beobachtet, die Ergebnisse gelesen und in menschenverständliche Terminologie übersetzt werden. Daraus ergeben sich mehrere wichtige Probleme, die zu überwinden sind.

Quantenalgorithmen erfordern anderes Denken

Das erste und sehr grundlegende besteht darin, dass das Denken in quantenmechanischen Zuständen und die Übertragung dieser Prinzipien auf konkrete zu lösende Probleme schlicht die mentalen Kapazitäten eines digital geschulten Gehirns an seine Grenzen bringt. Die Hoffnung ruht auf der Generation junger Informatiker und Ingenieure, die spätestens während ihres Studiums ins Arbeiten mit Quantensystemen und ihren Algorithmen eingeführt werden und sie dann entsprechend selbstverständlich entwickeln und anwenden können.

IBM hat mit „Quiskit“ eine Schnittstelle veröffentlicht, über die jeder kostenlos Algorithmen auf Quantencomputern ausprobieren kann. Das Tool setzt die Algorithmen in ein Quantenrechner-taugliches Format um. Eine weitere Schnittstelle, fokussiert auf QML, ist Pennylane.

Instabilität und zu viele Fehler

Zweitens fehlt es den Systemen heute noch an Zuverlässigkeit. Die qantenmechanischen Zustände sind nur für Sekundenbruchteile stabil. Die so genannte Kohärenzzeit einer Verschränkung liegt derzeit bei IBM in der Größenordnung von einer Millisekunde. Man kann aktuell Algorithmen mit maximal 5.000 Verschränkungen zwischen Qbits ausführen.

Der IBM-Quantenchip „Nighthawk“, die jüngste Variante von IBM-Quantenchips aus dem Jahr 2025, ermöglicht Quanten-Schaltkreise mit 30 Prozent höherer Komplexität als die Vorgänger.(Bild:  IBM/Flickr)
Der IBM-Quantenchip „Nighthawk“, die jüngste Variante von IBM-Quantenchips aus dem Jahr 2025, ermöglicht Quanten-Schaltkreise mit 30 Prozent höherer Komplexität als die Vorgänger.
(Bild: IBM/Flickr)

Und nur während dieser Millisekunde kann man sicher rechnen. Damit zusammen hängen die Fehler, die entstehen, wenn Qbits respektive Verschränkungen instabil werden. Es entsteht heute ein Fehler auf zwischen 1.000 und 10.000 Operationen – im digitalen Bereich wäre das undenkbar unzuverlässig.

Quanten-Fehlerkorrektur noch nicht praxisreif

Um diese Fehler herauszurechnen, koppelt man viele physische Qbits zu so genannten logischen Qbits, so dass die Fehler sozusagen ausgemittelt werden. Dabei ist das stark vereinfacht, in der Realität wird kein Durchschnitt oder Median geblidet, sondern wesentlich komplexer verfahren.

DIe hier verwendeten Methoden, die Quantum Error Correction (QEC) in Echtzeit möglich machen, sind laut IBM derzeit noch nicht praktisch anwendbar und, wie man sich denken kann, eines der heißesten Forschungsthemen der Quantentechnologie.

Mehrere Fehlerkorrekturverfahren in der Diskussion

Es gibt hier mehrere Verfahren: Bei Surface Codes, wie sie häufig diskutiert werden, sind für ein logisches Qbit mehrere Hundert, wenn nicht Tausende physischer Qbits nötig. IBM schafft derzeit nach eigenen Angaben 156 physische Qubits.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Andere Verfahren – wie die von IBM veröffentlichten qLDPC (Quantum Low Density Parity Check) Codes - brauchen weniger physische Qbits, dafür aber mehr Verbindungen zwischen ihnen.. IBMs Ziel für 2029: 200 stabile logische Qbits.

Skalierung: Viel Luft nach oben

Um sicher komplexe Probleme rechnen zu können, muss man also über möglichst viele physische Qbits verfügen. Mit ihnen kann man dann operieren und sie zu logischen Qbits zusammenfassen.

Das führt zur Notwendigkeit der Skalierung. Manche Hersteller hoffen hier auf die digitale Simulation von Qubits. IBM ist dem Ansatz gegenüber eher skeptisch, was das Erreichen praktischer Anwendungsvorteile (Quantum Advantage).

Die Simulation gelinge derzeit bis etwa 50-60 Qbits. Um eine Vorstellung zu vermitteln: Für eine wirksame Unterstützung des Drug Design benötige man heute einige Tausend physische Qbits, um Fehler wirksam auszumitteln, noch sehr viel mehr, und zwar reale, keine simulierten. Dies werde definitiv nicht mit digitaler Simulation von Qubits erreichbar sein.

Noch keine praktische Überlegenheit von Quantenrechnern

Lahmann: „Heute gibt es noch kein einziges praktisches Problem, wo Quantencomputing besser, schneller oder billiger wäre als konventionelle Datentechnik.“ Andere Behauptungen seien aktuell schlicht falsch.

Blick in ein IBM-Quantenlabor: Es sieht anders aus als in einem Rechenzentrum mit Digitaltechnik. (Bild:  Connie Zhou)
Blick in ein IBM-Quantenlabor: Es sieht anders aus als in einem Rechenzentrum mit Digitaltechnik.
(Bild: Connie Zhou)

Es würden zwar Quanten-Algorithmen ausprobiert. Doch ihre Ergebnisse seien noch zu fehlerbehaftet oder die Zahl der Qbits ist noch nicht groß genug, um wirklich komplexe Probleme zu durchdringen und sich vor allem allein auf deren Ergebnisse im Geschäftsleben zu verlassen.

Erste Quantum Advantages bei Spezialalgorithmen 2026 möglich

Allerdings sollte man den Fortschritt auch nicht herunterspielen: Es könne, so Lahmann, schon 2026 erste Durchbrüche geben. Das heißt, dass spezifische Aufgaben mit Quantentechnik effizienter und effektiver lösbar sind als konventionell. Klassische KI gehöre aber nicht dazu, die komme erst später, so vermutet jedenfalls IBM.

Quantenrechner können beispielsweise Muster einfacher erkennen und ganze Datenfelder (Matritzen) auf einmal durchforsten. Von unscharfen oder unvollständigen Daten lassen sie sich nicht verunsichern. Für solche Teilaufgaben innerhalb des maschinellen Lernens könne man schon sehr bald KI im Echtbetrieb verwenden.

Klassifikation und Sortierung als Beispiel für potentielle Quanten-Überlegenheit

Ein Beispiel ist eine von IBM entwickelte Kernel-basierte Methode zur Klassifikation. Hier übernimmt der Quantenrechner die sehr schnelle Bearbeitung von Matritzenrechnungen, die sonst sehr langwierig wären. Die Ergebnisse werden dann wieder in die konventionelle ML-Umgebung übergeben und dort weiterverarbeitet.

Klassische Sortieralgorithmen sind ebenfalls eine Domäne, auf der Quantenrechnen schnelle Durchbrüche bringen könnte. Ein Beispiel ist ein Handelssystem bei HSBC, das den Handel mit Unternehmensanleihen optimieren soll (siehe: „Im Schweizer IBM-Labor treffen sich KI- und Quanten-Algorithmen; Echte Anwendungen und ein Hauch Quantum Advantage“). Dieses System im Teststadium kombiniert Quanten- und klassisches Computing. Eine Teilaufgabe des Systems ist zu ermitteln, wie wahrscheinlich es ist, ob ein HSBC-Preisangebot angenommen wird.

Quantenrechner erledigt Vorverarbeitung

Das Quantencomputing-System übernimmt hier die Vorverarbeitung der Daten, das ist ein Teil des Trainings und erfolgt nicht in Echtzeit. Sie dient dazu, das Gesamtsystem zu kalibrieren und zu parametrisieren. Dadurch konnte die Genauigkeit des gesamten Datenmodells, das für die Berechnung verwendet wird, um ein Drittel verbessert werden.

Zu den Algos, bei denen Lahmann den Durchbruch fürs Quantencomputing 2026 erwartet, gehören die so genannten Hamilton-Simulationen. Sie arbeiten beschränkt quantenmechanisch und werden etwa in der Materialforschung verwendet.

Fürs klassische Maschinelle Lernen oder die Lösung von Partialgleichungen mag Lahmann kein Datum angeben. „Das kommt irgendwann später“, sagt er.

Erfolgversprechende Quanten-Algorithmen

Heute schon auf Quantencomputern lauffähig ist die Quantum-Fouriertransformation, die zum Beispiel im Shor-Algorithmus zur Faktorisierung von Primzahlen vorkommt. Sie beschleunigt die Verarbeitung großer Datensätze. Das kann dabei helfen, bisherige Verschlüsselungsalgorithmen auszuhebeln.

Dr. Jan-Rainer Lahman, Distinguished Engineer Quantum Computing bei IBM: "Praktische Vorteile erwarten wir bei ersten spezifischen Aufgaben im Jahr 2026."(Bild:  IBM)
Dr. Jan-Rainer Lahman, Distinguished Engineer Quantum Computing bei IBM: "Praktische Vorteile erwarten wir bei ersten spezifischen Aufgaben im Jahr 2026."
(Bild: IBM)

Auch Grovers Algorithmus sehen manche als 'quantenreif'. Er beschleunigt das Durchsuchen großer Datenmengen. IBM sieht auch dies allerdings nicht als praktikabel an: Man brauche zu viele Quantengates hintereinander, also eine zu große Circuit-Tiefe.

Woran andere Quantenforscher arbeiten

Doch IBM ist nicht der einzige Ort, an dem man die Quantentechnik und -informatik voranbringt. Das tut auch das Kompetenzzentrum Maschinelles Lernen Rhein-Ruhr (ML2R), heute Lamarr-Institut. Es befasst sich etwa damit, dass nicht alle der frühzeitig entwickelten Quantenalgorithmen auf den heute existierenden Quantencomputern auch tatsächlich lauffähig sind.

Das läge, so das Projekt, an dreierlei: Manche Berechnungen brauchten Bauelemente wie etwa Quanten-Speicher mit Zufallszugriff (Quantum Random Access Memory), die es noch nicht gibt. Zweiter Grund sind wie oben schon erwähnt zu wenige Qbits, der dritte die ebenfalls schon erwähnten Fehler.

Neuronale Netze und Wissensaustausch

Ein Forschungsprojekt am Lamar-Institut versucht, diese Hindernisse zu beseitigen und gleichzeitig Algorithmen zu entwickeln, die auf heutigen Quantencomputern lauffähig sind. Dazu gehören Hopfield-Netze, also rekursive neuronale Netze, die auf Qanten-Annealern (adiabatischen Quantenrechnern) lauffähig sein könnten. Weiter versucht man, Quantengatterschaltungen als Dichteschätzer zu nutzen, ohne die statistischen Garantien klassischer Verfahren zu verlieren.

Ein weiteres Projekt, „PlanQK“, betreibt Fraunhofer Fokus. Hier wollen 14 Partner gemeinsam eine Plattform für den bereichsübergreifenden Wissens- und Erfahrungsaustausch zu quantenunterstützter Künstlicher Intelligenz entwickeln.

*Das Fazit der Autorin
Ariane Rüdiger ist freie Journalistin und lebt in München. Ihre Einschätzung lautet: Quanten-KI wird kommen, doch das dauert. Heute arbeitet Quantencomputing innerhalb von KI-Szenarien durchaus erfolgversprechend, aber experimentell und innerhalb sehr spezifischer Teilaufgaben.
Die Zusammenarbeit mit klassischen KI-Umgebungen ist wegen der spezifischen Stärken der Quantencomputer bis auf Weiteres vorgegeben. Erste Durchbrüche zur Praxistauglichkeit und Überlegenheit sind für dieses Jahr zu erwarten.

Bildquelle: Vogel IT-Medien GmbH

Artikelfiles und Artikellinks

(ID:50695364)