IBM Quantum Summit 2021 Kein Supercomputer kann ihn simulieren: den 127-Qubit-Prozessor in 3-D-Architektur

Von Jürgen Höfling und M.A. Jürgen Höfling

Die 100-Qubit-Marke ist geknackt: Mit einem neuem Design für Steuerung und Kühlung wartete IBM auf seinem „Quantum Summit 2021“ auf. Damit sieht man den Weg frei für ein „Quantenrechenzentrum der Zukunft“. Schon jetzt lasse sich der Quantenprozessor „Eagle“ nicht mehr von einem traditionellen Supercomputer simulieren; denn dafür wären „mehr klassische Bits [notwendig], als es Atome in jedem menschlichen Wesen auf dem Planeten gibt“, so IBM.

Firmen zum Thema

3-D-Architektur für das "Quantenrechenzentrum der Zukunft": Eagle-Prozessor mit 127 Qubit
3-D-Architektur für das "Quantenrechenzentrum der Zukunft": Eagle-Prozessor mit 127 Qubit
(Bild: IBM)

Auf dem diesjährigen IBM Quantum Summit, den jedes Jahr abgehaltenen „Rapport-Tagen“ zu Fortschritten in der konzerninternen Quantencomputer-Entwicklung, präsentierte IBM mit „Eagle“ einen neuen Quantenprozessor, der mit 127 Quantenbits fast die doppelte Menge an Qubits aufweist als der Vorgänger „Hummingbird“ (65 Qubits).

„Um die Fehlerrate der Qubits zu reduzieren und weniger Komponenten verbauen zu müssen, wurde die Steuerverdrahtung auf mehreren physikalischen Ebenen innerhalb des Prozessors verlegt, während die Qubits auf einer einzigen Ebene verbleiben“, hieß es in einem Vortrag auf der Konferenz. Die Qubits seien allesamt funktionsfähig und miteinander verbunden. Die Aussage zu diesen beiden Merkmalen ist im Bereich Quantencomputing nicht so banal und selbstverständlich, wie sie beim ersten Hören klingen mag.

Eagle lässt sich nicht mehr so einfach „klassisch“ simulieren

Nach Aussagen auf der Konferenz handelt es sich bei Eagle um den ersten IBM-Quantenprozessor, den ein klassischer Computer nicht mehr zuverlässig simulieren kann. Diese Aussage deutet in Richtung des so genannten Quantenvorteils, also die Singularität eines Quantenrechners gegenüber traditionellen Hochleistungsrechnern.

Das ist zum einen erfreulich – wenn auch der Quantenvorteil für viele potenzielle Nutzer gar nicht so wichtig ist - enthält aber zum anderen auch neue Verpflichtungen zur Wachsamkeit, was die internen Fehlerkorrektur-Mechanismen der Qubits betrifft.

Da die Quantenzustände, die als Basis des Rechnens dienen, sehr labil sind und darüber hinaus Interferenzen zwischen den einzelnen Qubits berücksichtigt werden müssen, sagt die bloße Zahl der verbauten Qubits nur sehr bedingt etwas über die tatsächliche Leistungsfähigkeit des Prozessors aus. Tatsächlich sind eigentlich nur die fehlerkorrigierten Qubits interessant, die meist als logische Qubits bezeichnet werden.

Mit dem „Eagle“ hat IBM erstmals einen Quantenprozessor enthüllt, den man nicht mehr von einem traditionellen Supercomputer simulieren lassen könne: Für eine Simulation des „Eagle“ wären Unternehmensangaben zufolge „mehr klassische Bits [notwendig], als es Atome in jedem menschlichen Wesen auf dem Planeten gibt.“
Mit dem „Eagle“ hat IBM erstmals einen Quantenprozessor enthüllt, den man nicht mehr von einem traditionellen Supercomputer simulieren lassen könne: Für eine Simulation des „Eagle“ wären Unternehmensangaben zufolge „mehr klassische Bits [notwendig], als es Atome in jedem menschlichen Wesen auf dem Planeten gibt.“
(Bild: IBM)

Ein zweiter Aspekt in diesem Zusammenhang ist aber folgender: wenn das Quantenkonstrukt nicht mehr durch einen traditionellen Rechner simuliert werden kann, ist die angenommene Performance der Quantenrechners beziehungsweise Quantenprozessors nicht eben einfach zu verifizieren.

Interessante 3-D-Architektur

Diese Bemerkungen sollen die Leistung der IBM-Forscher nicht schmälern, sondern nur sinnvoll positionieren. Tatsächlich sind andere Aspekte bei Eagle wie zum Beispiel die oben schon erwähnte 3-D-Architektur, nach Ansicht des Autors weitaus spektakulärer als reine die Qubit-Zahl des neuen Quantenprozessors.

Diese Aspekte betreffen die Steuerungshardware und Konzepte für die kryogene Kühlung. Letztere ist unerlässlich, weil fast alle Quantencomputer-Konzepte mit „tiefstgekühlten Komponenten“ arbeiten, die nur in Richtung des absoluten Nullpunkts ihre beste Leistung erreichen beziehungsweise überhaupt funktionieren. Eine diesbezügliche Ausnahme ist eigentlich nur der Ansatz mit so genannten Stickstoff-Fehlstellen-Zentren der australisch-deutschen Firma Quantum Brilliance..

Hexagonale Architektur mit 3-D-Packaging

Mit dem geplanten „Quantum System Two“ stellte IBM auf dem Quantum Summit einen Rahmen vor, der weit in die Zukunft reicht, mindestens bis ins Jahr 2030.

Das Design des IBM Quantum System Two installiert eine neue Generation skalierbarer Qubit-Steuerelektronik. Darüber hinaus führt das IBM Quantum System Two eine neue kryogene Plattform ein, die in Zusammenarbeit mit Bluefors entwickelt wurde und deren Design den Platz für die Hardware, die für größere Prozessoren erforderlich ist, maximiert und g gleichzeitig einen leichten und sicheren Zugriff auf diese Komponenten gewährleistet, nicht zuletzt auch für die Wartung.

„Mit Quantum System Two wurden Techniken, die in früheren Generationen von IBM Quantum-Prozessoren entwickelt wurden, kombiniert und verbessert, so dass eine hexagonale Prozessorarchitektur mit fortschrittlichen 3D-Packaging-Techniken entstanden ist, die das Rückgrat von Prozessoren bilden kann, bis hin zu dem geplanten Condor-Prozessor mit über 1.000 Qubits“, hieß es auf dem Quantum Summit.

„Hexagonal“ heißt der Ansatz deshalb, weil dabei die Qubits mit zwei oder drei Nachbarn so verbunden sind, als säßen sie auf den Kanten und Ecken eines mosaikartigen Sechsecks. Diese besondere Verbindungsstruktur reduziert das Fehlerpotenzial, das durch Wechselwirkungen zwischen benachbarten Qubits entsteht und führt zu einer erheblichen Steigerung der Leistungsfähigkeit von Prozessoren. Darüber hinaus sind die Steuerungs- und Ausleseprozesse für die einzelnen Qubits in einer Multiplexing-Architektur realisiert, die Platz und (Kabel-) Material spart.

Quanten-Infrastruktur für die Zukunft

Ganz unbescheiden sehen die IBM-Forscher ihr Quantum System Two als „Quantenrechenzentrum der Zukunft“. Freilich kann man dieser Einschätzung ein gewisses Recht nicht absprechen, denn neben der puren Anzahl der Qubits bietet IBM mittlerweile eine bemerkenswerte Quanten-Infrastruktur, bei der Konnektivität, das Potenzial zur Fehlerkorrektur und die prinzipielle Skalierbarkeit sehr gut zusammenspielen.

All das lässt die seriöse Vermutung zu, dass man damit auch die Qualität der Gatter und Operationen deutlich steigern kann. Schließlich ist auch bei einem Quantencomputer das Zusammenspiel von Hardware und Software das A und O für den Erfolg.

(ID:47825610)