Aus den HP-Labs - Computing im Futur

Die „praktikablen“ Alternativen zum Quantencomputer

| Autor: Ulrike Ostler

Silicon Photonics ist eine der Technologien, die Computer sowohl schneller als auch bereit für eine große Vielfalt an Analysemöglichkeiten machen sollen - wenn möglich unter Umgehung der CPU.
Silicon Photonics ist eine der Technologien, die Computer sowohl schneller als auch bereit für eine große Vielfalt an Analysemöglichkeiten machen sollen - wenn möglich unter Umgehung der CPU. (Bild: HPE)

Marco Fiorentino arbeitet in den HP Labs und stellte auf der HPE-Kongressmesse jüngst die Company-eigenen Alternativen zum Quantencomputer vor, nachdem die Schwierigkeiten ein zuverlässiges und leistungsfähiges System zu bauen, als zu große Hürden identifiziert worden waren und HPE die eigenen Pläne kippte. Ziel ist das Memory-Driven Computing.

Einen großen Teil seiner Ausführungen beschäftigt sich mit den Unzulänglichkeiten des Quantencomputers: „Im Prinzip sind Qubits großartig“, so Fiorentino. Während ein klassischer Computer nur zwei Zustände kennt, ein und aus, also 1 oder Null darstellen kann, definiert sich ein Qubit dadurch, dass es 1 und 0 zur selben Zeit darstellt. Der auslesbare Wert eines Qubit bestimmt sich erst, wenn sozusagen hineingeschaut wird. Allerdings kann dann ein Qubit exponentiell mehr als zwei Bit an Informationen enthalten.

Das ist unabhängig davon, ob ein Qubit in Ionen realisiert wird und die Manipulation über Laser erfolgt, per Elektronen in quasi-nulldimensionale Halbleiterstrukturen, in denen Elektronen nur diskrete Zustände einnehmen können, so genannte Quantenpunkte, per SQUIDs - Systeme aus Supraleitern, die durch Spannung und Magnetfeld maniluliert werden, oder Spins der Atomkerne in Molekülen oder Photonen.

Um ein zuverlässiges Ergebnis zu erzielen, müssen die Zustände des Materials über einen, möglichst „langen“ Zeitraum stabil gehalten werden. Das ist zumeist mit einem sehr hohen Aufwand verbunden, etwa wie bei IBM auf das Herunterkühlen auf Supraleitfähigkeit. Trotzdem ergeben sich durch Quantenrauschen – die gegenseitige Beeinflussung „dreckige“ und „saubere“ Qubits, erläutert Fiorentino, und man brauche 1.000 verunreinigte Qubits um ein perfektes Qubit zu bauen.

Theoretisch aber könnten 50 perfekte Qubits ein Petabit an Informationen enthalten – mehr als 100 Terabyte. Un nur 10 weitere Qubits würde die Anzahl um den Faktor 1000 erhöhen., so dass 60 perfekte Qubits ein Exabyte und 70 ein Zetabyte enthalten könnten. Der derzeitige IBM-Rechner „Q“ verfügt über 50 saubere Qubits. Um saubere Ergebnisse zu bekommen, braucht es also rund 50.000 unreine und der Rechenaufwand erhöht sich entsprechend. Da man zudem nicht einfach einmal hineinschauen kann, ohne das Ergebnis zu beeinflussen, müssen die Rechenoperationen oft wiederholt werden, um verlässliche Ergebnisse zu erzielen.

Dennoch will Fiorentino den Quantencomputern, wenn sie eines Tages existieren, nicht in Abrede stellen, dass sie für spezielle Optimierungen sinnvoll zum Einsatz kommen können und somit vermutlich zu großen Erkenntnissprüngen verhelfen werden: In der Entdeckung neuer Medikamente, in der Materialforschung, in der Kryptographie und der Quantenforschung selbst. Was aber fehle bei all den möglichen Szenarien seinen etwa Big-Data-Analyse, mit oder ohne Artificial Intelligence.

Dazu bringt der Forscher das Beispiel eines KI-Trainings mit einem Petabit an Daten, die in einer klassischen Datenbank vorgehalten werden. Ein typisches Training-Model besteht aus 200 Schichten und 50 Knoten pro Layer. Zu managen sind also 25 Megabits (siehe: Abbildung 1).

Abbildung 1 und 2: Der Vergleich von Quantencomputer und klassischen Rechnern im Falle eines Trainings neuronaler Netze zeigt, dass ein Qunatencomuter 500.000 Wiederholungen bräuchte, um eine komplettes Modell zu erstellen.
Abbildung 1 und 2: Der Vergleich von Quantencomputer und klassischen Rechnern im Falle eines Trainings neuronaler Netze zeigt, dass ein Qunatencomuter 500.000 Wiederholungen bräuchte, um eine komplettes Modell zu erstellen. (Bild: HP Labs)

Laut Fiorentino läuft das mit einem Quantencomputer weder so elegant noch so effektiv ab (siehe: Abbildung 2). Das liegt zu einen daran, dass man die jetzt vorliegenden Daten nicht einfach in einen Quantencomputer laden kann. Deshalb ist diesem quasi ein Encoder vorgeschaltet. Das Problem sei aber, so der HPE-Forscher, dass niemand genau weiß, wie ein solcher auszusehen habe - zumindest zum jetzigen Zeitpunkt noch nicht.

Sodann lassen sich die 50 Petabit nicht einfach in 50 cleane Qubits packen. Wie schon gesagt, benötigt ein solches System 50.000 verrauschte Qubits - also bnötigte man eine tausendfache Verbesserung. Auch das sei - eventuell - irgendwann - in den Griff zu bekommen, räumt Fiorentino ein.

Letztlich jedoch besteht der Output jedoch gerade einmal in 50 Bits, gefordert sind aber 25 Megabit. Das aber bedeutete, dass der Quantencomputer das Experiment 500.000 Mal wiederholen müsse, um an das Ergebnis klassischer Computer heranzureichen.

Um noch eine weitere Komplikation hinzuzufügen, so der Forscher, gibt es nichts wie ein "Quantenlaufwerk". Also wie implementiert man ein Quantum-Memory und wie lassen sich diese Daten lesen? Dafür benötigt ein Quantencomputer klassische Computertechnik, „mit einer gewissen Wahrscheinlichkeit immer“.

Die Alternative Dot Product Engine

Doch um dem Ende von Moores´s Law zu entkommen, hat das Labor die „Dot Product Engine“ entwickelt. Sie beruht im Wesentlichen auf analogen Schaltkreiselementen und einer memristorischen Kreuzschienenanordnung, die als Speicheranordnung fungiert. Dabei wird ein Memristor an jedem Schnittpunkt der Reihenspalten positioniert, und sein Widerstand, niedrig oder hoch, stellt zwei logische Zustände dar. Der Zustand jedes einzelnen Memristors kann durch den Strom, der durch den Memristor fließt, erfasst werden.

Das System ist gedacht für Vector Matrix Multipikationen (VMM). Diese kommen in Applikationen wie Deep Learning, Video-Processing, Graphenanalysen und Streaming vor.Derzeit erreicht ein solches System eine VMM-Genauigkeit von 6 Bit, und für das handgeschriebene 1.000 Kilobit MNIST-Digitaltestset wird eine Erkennungsgenauigkeit von 89,9 Prozent erreicht. Prognosen zeigen, dass mit integrierten (on chip) und skalierten Memristoren eine Rechenleistung von mehr als 100 Billionen Operationen pro Sekunde und Watt möglich ist.

Fiorentino spricht davon, dass ein solches System 10 bis 100 mal schneller sei als eine typische GPU, aber 10 bis 1.000 mal weniger Energie benötige. Die Daten könnten konstant fließen - rein und raus. Ein Encoder sei überflüssig.

Abbildung 3: Das Bild zeigt den Prototypen des analogen Akzelerators „Dot Product Engine“. Die Vergrößerung entspricht einem Element der Memristor-Querschienenanordnung.
Abbildung 3: Das Bild zeigt den Prototypen des analogen Akzelerators „Dot Product Engine“. Die Vergrößerung entspricht einem Element der Memristor-Querschienenanordnung. (Bild: HP Labs)

Das Labor hat bis jetzt einen Microchip-Prototypen gebaut (siehe: Abbildung 3). Der nächste Schritt werde sein, ein System-on-a-Chip zu bauen, das sich in einen Computer einbauen lässt, wie heute GPUs. Außerdem arbeiten die Forscher an der Entwicklung eines Software-Stack, mit dem sich die Dot Product Engine so einfach wie eine Funktion über eine Programmierschnittstelle (API) ansprechen lässt.

Die Alternative Optical Coherent Ising Machine

Während die Dot Product Engine durchaus mit der „Google Tensor Engine“ konkurriert, steht die „Optical Coherent Ising Machine“ in Konkurrenz zu den Quantum-Annelaer von Fujitsu und D-Wave. Diese sind gut darin, das so genannte Traveling-Salesman-Problem zu lösen.

Es ist kombinatorisches Optimierungsproblem und besteht darin, eine Route für einen Handlungsreisenden so zu optimieren, dass er für den Besuch mehrerer Orte keine Station außer der ersten mehr als einmal besuchen müsste, die gesamte Reisestrecke des Handlungsreisenden möglichst kurz und die erste Station gleich der letzten Station ist. Der Fall lässt sich auf viele weitere Anwendungsfelder übertragen, in der Logistik, im Design eines Microchips, auf die Genomsequenzierung - mit unterschiedlichen Unterproblemen.

Das Problem: Die Aufgabe ist komplexer als sie zunächst erscheint. Würde der Handlungsreisende 15 Städte anfahren müssen, ergeben sich theoretisch 4,3 Milliarden Routen, die bei einer Optimierung durchgespielt werden müssten. Das aber sprengt jeglichen Rahmen an notwendiger Rechenzeit.

Um für derartige Optimierungsaufgaben eine universell einsetzbare Lösung zu entwickeln, setzen die HP Labs auf das „Ising-Modell“. Wikipedia beschreibt es wie folgt: „In dem Modell wird angenommen, dass die Spins, welche das magnetische Moment von Atome oder Ionen bestimmen, nur zwei diskrete Zustände annehmen können (Spinwert ± 1 {\displaystyle \pm 1} \pm 1). Die Richtung im Raum bleibt aber offen; es handelt sich also um Vektoren [...] quantenmechanisch um Vektoroperatoren.

Abbildung 4: Marco Fiorentino von den HP Labs erläutert aud der Veranstaltung HPE Discover, wie die „Optical Coherent Ising Machine“funktioniert.
Abbildung 4: Marco Fiorentino von den HP Labs erläutert aud der Veranstaltung HPE Discover, wie die „Optical Coherent Ising Machine“funktioniert. (Bild: HPE)

Doch zunächst zur Mathematik: Bezogen auf das Problem des Handlungsreisenden entspräche jeder Knoten einer Stadt und jede Straße einer Verbindung. Das Model zeigt an, dass alle Städte mit allen anderen verbunden sind und das Netzwerk ist quasi die Energie, die fließt. Die Aufgabe bestünde also darin, den Status zu finden, an dem am wenigsten Energie gebraucht wird.

Um das in Technik umzusetzen, „nutzen wir die Eigenschaften des Lichts im Mikrobereich", unter anderem, um ohne Transistoren zu berechnen, führt Fiorentino aus. Er erläutert: Wenn zwei Kieselsteine ins Wasser plumpsen, erzeugen beide Wellen. Die können sich addieren oder entgegenwirken und lassen die Kreise größer oder kleiner werden. Im Mikrobereich ist Silizium für Laserlicht transparent, so dass wir eine analoge Aktion durchführen können.

Dazu ist eine Siliziumkanalpaar (Waveguides) mit jeweils zwei Eingängen und zwei Ausgängen notwendig. Wenn wir nun die relative Phase von zwei Lasereingängen geändert wird, lässt sich das Licht auf den einen oder anderen Ausgang lenken. Dies wird als kohärente Interferenz bezeichnet.

Abbildung 5: Prototyp der Optical Coherent Ising Machine
Abbildung 5: Prototyp der Optical Coherent Ising Machine (Bild: HP Labs)

Heraus kommt die „Optical Coherent Ising Machine“ (CIM). Das Labor hat auch hier bereits einen Prototypen erstellt.„Es handelt sich weder um eine bloße Idee, noch um graue Theorie“, so Fiorentino. „Wir haben Prototypen mit Tausenden an optischen Komponenten und wissen, dass sie bis zu 100.000 Komponenten skalieren können, - einfach durch eine gewöhnlichen Chip-Produktion“. Außerdem seien mindestens 95 Prozent des notwendigen Compute-Stack bereits vorhanden.

„Unser CIM besteht aus einem Set an nicht-linearen Knoten, oder ´Neuronen`, die allesamt miteinander verbunden sind, in einer Weise, die es ermöglicht, den Output quasi zu addieren, wie in dem Wellenbeispiel“, erläutert der Wissenschaftler. „Wir programmieren den Ising-Solver, indem wir zu Beginn die Phasen der Wellen in einem speziellen Compilers einstellen. Die Solver-Einheit versetzt sie somit in einen stabilen Zustand. Das ist ein Prozess, der nur wenige Millisekunden dauert. Das Ergbnis lässt sich an den Knoten lesen, indem sie verriegelt werden.“

HPE ist nicht das einzige Unternehmen, das mit CIM arbeitet, arbeiten will. D-Wave nutzt Ähnliches in seinem Annealer. Außerdem hat die Technik das zumindest theoretische Problem, dass die Zeit zum Finden von Lösungen als Polynom mit Problemgröße wachsen wird.

Die Alternative Memory-Driven Computing

Im Memory-Driven Computing geht es im Wesentlichen darum, Vorteile aus den verschiedenen Speichermedien und Akzeleratoren zu ziehen, und zwar unter Umgehung der CPU. Denn diese wirkt als Bremse.

Realisiert werden soll das durch eine Fabric, die „Gen Z“ nutzt, ein neuer Industrie-Standard. Auf der Website des gen-Z-Konsortiums heißt es : „Gen-Z ist eine offene Systemverbindung, die entwickelt wurde, um speichersemantischen Zugriff auf Daten und Geräte über direkt angeschlossene, geschaltete oder Fabric-Topologien zu ermöglichen.

Fiorentino spricht auch von „precision compute“, das ermöglichen soll, den Zusammenbau genau der richtigen Elemente so schnell und effizient wie möglich abzuschließen, um eine Arbeit so schnell und effizient wie möglich abschließen zu können. Das bedeutet:

  • Mix and match verschiedener Prozessortypen - ARM, x86 und Open-Source RISC-V zum Beispiel
  • Kombination aus verschiedenen Memory-Typen, sowohl volatilen als auch non-volatilen Charakters - dabei soll es möglich sein, von neueartigen Speichermedien zu profitieren, ohne die CPU erneuern zu müssen
  • Hinzufügen von aufgabenspezifischen Akzeleratoren, etwa CIM oder GPUs

Abbildung 6: Vergleich einer traditionellen Computerarchitektur und dem Memory-Diven Computing
Abbildung 6: Vergleich einer traditionellen Computerarchitektur und dem Memory-Diven Computing (Bild: HPE)

Einsatzbereiche gibt es ohne Ende. In der Edge ist es vielleicht eine smarte Videokamera; hier wäre es doch schön, wenn sich ein Neuronaler-Netz-Akzelerator mit non-volatilem Memory kombinieren ließe, um ein System zu haben, das nur wenig Energie benötigt aber mit der Umgebung interagiert.

Aber auch im Hyperscale-Bereich ist ein geringerer Energieverbrauch gefragt. Zugleich ließen sich Microsorvices, Container und virtuelle Maschinen in Mikrossekunden auf- und abrüsten. Eine Maschine mit großen Memory-Speichern ist dann fähig, praktisch jeden Datensatz auf einmal zu speichern. Letztlich werde diese Technologie auch die Exascale-Computer ermöglichen, die notwendig sind, um mit Milliarden Rechenoperationen pro Sekunde anstehende Menschheitsprobleme zu lösen, so Fiorentino.

Erste Ansätze dieses Prinzips steckten übrigens im „Superdome“ von HPE.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45653069 / Komponenten)