Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Das Rechnen mit dem Rauschen Was ist Noisy Intermediate-Scale Quantum Computers, kurz: NISQ?

Von Anna Kobylinska und Filipe Pereia Martins*

Der Begriff „Noisy Intermediate-Scale Quantum (NISQ)-Technologie“ (NISQ) bezeichnet logikgatterbasierte Quantencomputer mit einer Rechenkapazität von 50 bis zu mehreren Hundert Qubits.

IBM Chief Executive Officer Arvind Krishna (links) und Director of IBM Research Dario Gil (rechts) neben dem Super-Freezer eines Quantencomputers von IBM.
IBM Chief Executive Officer Arvind Krishna (links) und Director of IBM Research Dario Gil (rechts) neben dem Super-Freezer eines Quantencomputers von IBM.
(Bild: Connie Zhou/IBM)

Die untere Grenze von etwa 50 Qubits gilt als der Schwellenwert, ab dem sich Quantenchips durch digitale Computer nicht mehr sinnvoll simulieren lassen. Bis zu mehreren Hundert Qubits bieten die Chips zudem auch noch kaum Spielraum für eine quantenbasierte Fehlerkorrektur und so geht die NISQ-Technik mit einer geringen Rauschresistenz einher - daher die Bezeichnung „noisy“.

Der Overhead durch Rauschunterdrückung

Den Begriff Noisy Intermediate-Scale Quantum (NISQ)-Technologie hat der US-amerikanische theoretische Physiker Professor John Phillip Preskill von Caltech, ein Experte für Elementarteilchenphysik, Kosmologie und Quanteninformatik, geschmiedet. In seiner wissenschaftlichen These unter dem Titel „Quantum Computing in the NISQ era and beyond“ aus dem Jahre 2018 (siehe: Link) hatte er die Ära von NISQ-Geräten verkündet. Der Quantencomputing-Pionier und Erfinder des Begriffs der Quantenüberlegenheit basierte sein Urteil auf der Beobachtung, dass das Rauschen in Quanten-Gattern (zum Beispiel auf Grund von Phänomena wie Crosstalk oder Dekohärenz) die sinnvoll erzielbare Größe von zuverlässig nutzbaren Quantenschaltungen begrenzte.

Denn reale physische Qubits wie der Zustand eingefangener Ionen oder der Elektronenspin unterliegen thermischen, elektromagnetischen und sonstigen Interferenzen und anderen Phänomena, die zu Berechnungsfehlern führen. Das Verwalten dieser Fehler erfordert das Hinzufügen weiterer Qubits auf dem Chip, um den Fehlerkorrekturcode auszuführen.

Professor John Phillip Preskill vom California Institute of Technology (CalTech, USA)
Professor John Phillip Preskill vom California Institute of Technology (CalTech, USA)
(Bild: CalTech)

Professor Preskill argumentierte, dass in der NISQ-Ära Quantencomputer mittlerer Größe – bestehend aus 50 bis zu einigen Hundert physischen Qubits – noch voll „berauscht“ ihre Arbeit verrichten werden. Die Anzahl der realen physischen Qubits der NIST-Generation der Quantencomputer würde für eine quantenbasierte Fehlerkorrektur nicht ausreichen. Die Bezeichnung „Intermediate-Scale“ soll eben der geringen Rechenkapazität der Qubit-armen rauschempfindlichen Quantencomputer Rechnung tragen.

„Quantencomputer mit 50 nis 100 Qubits können [unter gewissen Bedingungen] Aufgaben ausführen, welche die Fähigkeiten heutiger klassischer digitaler Computer übertreffen“, so Preskill. Auf Grund der rauschbedingt beschränkten Tiefe von Quantenschaltungen würde NISQ-Technologie vorübergehend einen Workaround bieten, glaubt der Quantencomputing-Pionier und Erfinder unter anderem des Begriffs der Quantenüberlegenheit. NISQ-Geräte könnten sich trotz ihrer Unzulänglichkeiten etwa in der Vielkörper-Quantenphysik und vielen anderen Anwendungsfeldern bereits nützlich machen.

Ausblick: auf dem Weg zu rauschresistenten Quantencomputern

Angesichts der schwerwiegenden Ressourcenbeschränkungen, der geringen Zuverlässigkeit und der hohen Variabilität der physikalischen Eigenschaften wie Kohärenzzeit oder Fehlerraten von NISQ ist es von elementarer Bedeutung, Quanten-Algorithmen auf den verfügbaren Qubits so abzubilden, um die Wahrscheinlichkeit erfolgreicher Berechnungen zu maximieren. Ohne diese architektonischen Optimierungen sind je nach Arbeitslast möglicherweise signifikante Verluste der Wiedergabetreue nicht auszuschließen.

Hersteller von Quanten-Chips haben inzwischen diverse Workarounds entwickelt, um die Zuverlässigkeit ihrer NISQ-Chips zu steigern. So führt beispielsweise Honeywell im System Model „H1“ eine Messung im mittleren Schaltkreis durch und macht sich die Qubit-Wiederverwendung (MCMR) zu Nutze, um die Quanteninformation der verbleibenden Qubits im System zu wahren. Mit diesem einzigartigen Ansatz der Honeywell-Architektur lassen sich tiefere Schaltkreise implementieren als jene, welche die begrenzte Anzahl physikalischer Qubits im Normalfall zulässt.

Ein weiterer Ansatz trägt die Bezeichnung Qubit Re-Allocation (QURE). Durch die verringerte Tiefe des Quantum-Schaltkreises lässt sich hierbei die dekohärenzbedingte Leistung verbessern.

Die Auswahl von Qubits mit einer besseren durchschnittlichen Wiedergabetreue auf Gatter-Ebene (oder einer geringeren Fehlerwahrscheinlichkeit pro Qubit) reduziert Fehler von 1-Qubit- und 2-Qubit-Gattern und verbessert somit die Wiedergabetreue der gesamten Schaltung. QURE konnte die Wiedergabetreue einer Arbeitslast um das bis zu 1,54-fache in Simulationen und um das 1,7-fache in Experimenten auf einem Quantencomputer von IBM verbessern.

Bildergalerie
Bildergalerie mit 6 Bildern

Das Beste daran: Die Methode verursacht keinen realen Overhead.

Aus Sicht von Experten wie Preskill würden NISQ-Geräte eine Übergangsphase auf dem Weg zur Entwicklung vollständig fehlertoleranter Quantencomputer darstellen.

* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali Inc.(USA).

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Artikelfiles und Artikellinks

(ID:46994848)