Suchen

Neue Superrechner werden die Welt der Datacenter verändern Quantencomputer – wie schnell wird aus Science Fiction Realität?

| Autor / Redakteur: Joachim Sinzig* / Ulrike Ostler

„Wer jetzt diesen Artikel als Science Fiction überspringen möchte, möge bitte noch ein paar Zeilen weiterlesen“, bittet der Autor des Artikels, Physiker und Direktor Produkt Management bei Riedel Networks. den Grund liefert er gleich mit: „Denn die Rechnerleistung, die durch Quantencomputer zur Verfügung steht, wird Unternehmen schneller beschäftigen als den meisten lieb sein kann.“

Firmen zum Thema

Die zentrale Recheneinheit des Quantencomputing-Systems von D-Wave.
Die zentrale Recheneinheit des Quantencomputing-Systems von D-Wave.
(Bild: D-Wave)

Besonders beeindruckend sieht er heute nicht mehr aus, wie er so dasteht, zum Teil geöffnet, um einen Blick auf das Innenleben freizugeben, das vor allem aus Unmengen blauer Kabel besteht. Dennoch ist er eines der Glanzstücke der Informatik-Ausstellung im Deutschen Museum in München – der Superrechner „Cray 1“ von 1983. Vor rund 30 Jahren stellte er die Spitze der Leistungsfähigkeit im Computing dar. Den meisten Menschen sind diese Maschinen aber eher aus den Hollywood-Filmen dieser Zeit bekannt, wo sie schwarz oder metallglänzend als Kulisse zur Science-Fiction-Atmosphäre beitrugen.

Vieles was damals noch als Science Fiction galt, ist heute Realität. In der Datenökonomie des 21. Jahrhunderts wächst die Zahl der Datencenter immer weiter und mit ihr die Menge der Anwendungen und Daten, die in private oder öffentliche Cloud-Umgebungen ausgelagert werden. Als wichtigste Treiber für die Migration in Datencenter gelten Collaborations-Tools wie „Office365“, „Teams“ oder „Webex“, CRM-Systeme wie von Salesforce und Systeme zur Unterstützung der internen und externen Geschäftsprozesse wie „SAP HANA“ . So weit, so klar.

Unklar ist dagegen, wie lange das noch so weiter geht. Was ist die nächste große Innovation, die den nächsten Quantenschritt in der Digitalisierung der industriellen Prozesse hervorruft und eine weitere Welle an Auslagerung von Daten und Applikationen vorantreiben wird? Und wann kommt sie?

Die Innovation ist schon da

Die These dieses Beitrages ist, dass diese Innovation schon da ist, die meisten IT-Leiter das aber noch nicht realisiert haben. Diese Innovation kommt in einer Form daher, die dem Aussehen ihrer Vorgänger aus dem vergangenen Jahrhundert nicht ganz unähnlich ist. Es sind die Quantencomputer. Und sie werden in drei bis fünf Jahren die Welt der Datencenter verändern.

Der Supercomputer „Cray-1“ im Deutschen Museum (München).
Der Supercomputer „Cray-1“ im Deutschen Museum (München).
(Bild: Clemens Pfeiffer / CC BY / CC BY NaN)

Quantencomputer sind aus so genannten Qubits aufgebaut, besser auch Qudits, da sie nicht wie klassische Systeme nur zwei Zustände (0 und 1) annehmen können, sondern theoretisch eine Vielzahl von Zuständen. Dadurch wächst die Rechenleistung eines Quantencomputers exponentiell mit der Anzahl an Qudits und schon Rechner mit weniger als 50 Qudits sind leistungsstärker als jeder klassische Supercomputer.

Systeme mit über 70 Qudits wurden von Google schon gebaut und erste Systeme sind kommerziell verfügbar etwa von IBM. Warum werden diese noch in den Kinderschuhen der Entwicklung befindlichen Rechner Auswirkungen auf alle Unternehmen haben?

Cybersecurity als Treiber der Entwicklung

Wie häufig bei dramatischen technologischen Fortschritten, treiben leider kriminelle oder zumindest halblegale Anwendungsfälle die Entwicklung voran. In diesem Fall sind das Angriffe auf Unternehmensnetzwerke. Dabei geht es vor allem um die Entschlüsselung codierter Datenübertragungen und das Knacken von Passwörtern für Cyber-Angriffe.

Wo ein herkömmlicher Rechner mehrere tausend Jahre benötigen würde, um eine AES256-Verschlüsselung zu knacken, würde ein jetzt schon verfügbarer Quantenrechner dafür nur noch ein paar Tage benötigen. Absolut sicher geglaubte Datenübertragungen wären von einem Tag auf den anderen ungesichert und einsehbar.

Noch benötigen Quantencomputer Temperaturen nahe dem absoluten Nullpunkt. Doch schon in wenigen Jahren soll es erste kommerziell verfügbare Systeme geben, die sich in eigenen oder Co-Location-Rechenzentren betreiben lassen.
Noch benötigen Quantencomputer Temperaturen nahe dem absoluten Nullpunkt. Doch schon in wenigen Jahren soll es erste kommerziell verfügbare Systeme geben, die sich in eigenen oder Co-Location-Rechenzentren betreiben lassen.
(Bild: D-Wave)

Aufgrund dieser Sicherheitsrelevanz wird diese Innovation viele Unternehmen schneller betreffen, als viele von ihnen heute noch glauben mögen. Dass aufgrund der hohen Kosten und die noch sehr komplexe Programmiertechnik, sich derzeit vor allem Regierungen für die Technik interessieren und China, Russland und die USA führend sind in der Quantentechnologie und in der Planung, sie zu nutzen, mag dabei zusätzlich bedenklich stimmen. Alles, was bisher als Industriespionage bekannt ist, könnte völlig neue Dimensionen annehmen.

Deutschen Unternehmen wird nichts anderes übrigbleiben, als sich mit der neuen Technik zu befassen. Wie schon bei Blockchain und vorher bei Cloud Computing entwickelt sich wieder eine neue Technologie und die Wirtschaft weiß nicht so recht, was sie damit anstellen soll. Aber wie bei den Blockchain-Anwendungen wird sie erneut dazu gezwungen werden, sich mit dem Thema und den Auswirkungen auf das eigene Unternehmen auseinanderzusetzen.

Neue Anforderungen an Infrastruktur

Datencenter werden durch Quantencomputer vermutlich wieder zu echten „Rechenzentren“, mit großen zentralen Computern. Die notwendige Kühlung und schiere Größe von Quantencomputern erfordern eine andere Architektur als für gewöhnliche Datencenter. Die Qubits müssen mit flüssigem Stickstoff und Helium auf Temperaturen nahe dem absoluten Nullpunkt bei -273 Grad Celsius gekühlt werden, damit thermische Effekte die Quanteneffekte nicht überlagern.

Eine weitere Konsequenz ist, dass diese neuen Supercomputer mit reichlich Daten gefüttert werden müssen. Es ist also wahrscheinblich, dass um die Quantencomputer herum Rechnerfarmen entstehen, die den Zentralrechner füttern und die Ergebnisse aus dem Quantencomputer weiterverwenden. Wahrscheinlich ist auch, dass diese Daten von verteilten Sensoren beispielsweise aus autonom fahrenden Fahrzeugen, Wetterstationen oder Videokameras zum Rechenzentrum transportiert werden müssen.

Zudem wird die Unsicherheit der bestehenden Verschlüsselungstechniken neue Standards erfordern, die auch von Quantencomputern nicht mehr entschlüsselt werden können. Dies mag dazu führen, dass in Zukunft ein noch größerer Anteil der benötigten Bandbreite für Header inklusive der Verschlüsselungsinformation benötigt wird im Vergleich zu den zu transportierten Daten.

Anforderungen an die Datennetze

Dies wird die Bandbreitenanforderung an die Leitungsanschlüsse der Datencenter drastisch erhöhen. Mit Glasfaserleitungen und Software Defined Wide Area Networks (SD-WAN) als Netzwerk-Architektur stehen Technologien zur Verfügung, um diese Anforderungen zu bewältigen. SD-WAN-Router kategorisieren den Datenverkehr kontinuierlich nach Typ, Nutzer, Quelle und Ziel. Je nachdem wie kritisch eine Information ist, weist ihr die Technologie selbstständig den effizientesten Weg über das Netzwerk zu. So wird die verfügbare Bandbreite effizienter genutzt.

Der Text entstand auf der Basis eines Interviews, das der Autor, Dr. Joachim Sinzig von Riedel Networks, DataCenter-Insider gab. Ein Teil des Interviews findet sich im Kasten auf der Seite wieder.
Der Text entstand auf der Basis eines Interviews, das der Autor, Dr. Joachim Sinzig von Riedel Networks, DataCenter-Insider gab. Ein Teil des Interviews findet sich im Kasten auf der Seite wieder.
(Bild: Riedel Networks)

Datencenter und Bandbreitennetzwerke werden mit Quantencomputern eine andere Dimension haben. IT-Verantwortliche vor allem von Unternehmen mit sensiblen Daten sollten den Markt und die Entwicklung rund um Quantencomputer genau verfolgen. Anbieter von Verschlüsselungstechnik sollten am nächsten Level im Sicherheitsniveau arbeiten, damit er zur Verfügung steht, wenn er benötigt wird.

Die Netzwerkanbieter sollten ihre Infrastruktur auf den Anstieg der Bandbreite in und aus den Datencenter. Die Rechenzentrumsbetreiber schließlich sollten Pläne für Datencenter mit Quantencomputer-Infrastruktur in der Schublade haben. So würde sichergestellt, dass alle nicht von der technischen Entwicklung überrollt werden, wenn aus Science Fiction Realität wird.

* Dr. Joachim Sinzig ist Direktor Produkt Management bei Riedel Networks.

Artikelfiles und Artikellinks

(ID:46551728)