Die verteilte Rechenzentrumsinfrastruktur der Zukunft Quantencomputer im Rack?

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Ulrike Ostler

Die meisten IT-Infrastrukturen sind, gemessen an den Aufgaben, die auf sie zukommen, rettungslos veraltet. Das meint jedenfalls Hartwig Bazzanella, Gründer und Geschäftsführer der RZ-Beratung NCB GmbH und Vorstand im VIRZ e.V. Nur eine grundlegend überarbeitete Infrastruktur kann hier helfen. Hier steht nicht mehr die virtuelle Maschine im Vordergrund, sondern eine Vielzahl von Containern.

Firmen zum Thema

Infrastrukturvisionen für das Quantenzeitalter präsentierte auf dem „Datacenter & Colocation Day 2021“ NCD-CEO und VIRZ-Vorstand Hartwig Bazzanella.
Infrastrukturvisionen für das Quantenzeitalter präsentierte auf dem „Datacenter & Colocation Day 2021“ NCD-CEO und VIRZ-Vorstand Hartwig Bazzanella.
(Bild: Vogel IT-Medien GmbH)

Heute bestehen IT-Infrastrukturen noch häufig aus einem Flickenteppich unterschiedlicher Hardwaresilos. Dazu oder an ihre Stelle inzwischen eine Private Cloud. Weiter gibt es häufig eine oder mehrere, mehr oder minder damit verbundene Public Clouds, deren Services zu unterschiedlichen Zwecken genutzt werden.

Wenn nicht die Anwender ihre Infrastruktur gleich zum Co-Location-Anbieter auslagern. Dort müssen sie sich wenigstens nicht mehr um die Schränke, Unterbrechungsfreie Stromversorgung (USV) und Stromzuführung kümmern.

Doch sind solche Strukturen den im Datenzeitalter anfallenden Aufgaben gewachsen? Sind sie nicht viel zu klobig, zu teuer, überdimensioniert und unterausgelastet?

Dieser Meinung ist jedenfalls Hartwig Bazzanella, Gründer und Geschäftsführer der auf IT-Themen fokussierten Unternehmensberatung NCB GmbH. In einem viel beachteten Vortrag auf dem diesjährigen „Datacenter & Colocation Day“ machte er deutlich, wie er sich die Zukunft der IT vorstellt.

Die Infrastruktur der Zukunft kommuniziert mit verschränkten Quanten

Bazzanella glaubt an den großen Wurf: Ganz unten diverse Edge-Datacenter, in denen meistens HCI (Hyperkonvergente Infrastruktur) stehen dürfte, daneben Zentren für das High Performace Computin (HPC) und in Zukunft auch Quantencomputer.

Verteilte, durch gesicherte Lichtwellenleiter verbundene Rechenzentren ermöglichen höhere Leistung und bessere Auslastung der Ressourcen.
Verteilte, durch gesicherte Lichtwellenleiter verbundene Rechenzentren ermöglichen höhere Leistung und bessere Auslastung der Ressourcen.
(Bild: Bazzanella/NCB)

Über allem eine vereinigende, orchestrierende Instanz. Mit KI ausgerüstet, schiebt sie Applikationen aller Art, auch kommerzielle, immer dahin, wo sie gerade am besten aufgehoben sind. Schutz vor Übergriffen bietet ein umfassendes Rechte- und Zugriffs-Management.

All diese Instanzen sind durch superschnelle, akustisch-optisch kontrollierte Glasfasern miteinander verbunden. Sie garantieren sowohl schnellstmöglichen Datentransport, womöglich sogar zukünftig via Quantenverschränkung, als auch eine bestmögliche Sicherheit. „Mit einer akustisch-optischen Kontrolle entdeckt man jeden Versuch sofort, auf das Kabel und die sich darin bewegenden Daten zuzugreifen“, sagt Bazzanella.

Die Verschränkung von Quanten als quasi Echtzeit-Transportmittel gibt es bereits und sie funktioniert auch. So wurde von Professor Anton Zeilinger, der an der Universität Wien lehrt und der Österreichischen Akademie der Wissenschaften vorsteht, eine 144 Kilometer lange Verbindung zwischen Teneriffa und La Palma aufgebaut, die Daten zuverlässig überträgt. Diese Technik soll bald kommerzialisiert werden.

Co-Location: Kein Markt mehr für leere Schränke?

Für Co-Location-Anbieter alten Stils, die hohe Quadratmeterpreise abrechnen, sieht Bazzanella in dieser Welt eher keinen Platz mehr. „Sie decken lediglich die erste Ebene des Infrastruktur-Stack ab, dafür wird man in Zukunft kein Geld mehr in die Hand nehmen“, ist er überzeugt.

Auch die meisten bisherigen Angebote der Hyperscaler gingen noch längst nicht weit genug den Infrastruktur-Stack hinauf. Erst auf der Ebene des serverlosen Computing oder von FaaS (Function as a Service) werde es wirklich spannend.

Anwender sollen sich in Zukunft am besten nur um Funktionen und Daten kümmern, nicht um den ganzen Stack.
Anwender sollen sich in Zukunft am besten nur um Funktionen und Daten kümmern, nicht um den ganzen Stack.
(Bild: Bazzanella/NCB)

Richtungsweisend seien insgesamt die großen Hyperscaler. Sie verwendeten schon heute übergreifende Automatisierungsmechanismen, standardisierte, softwaregesteuerte und leicht auswechselbare Hardware.

Bazzanella sieht auch die derzeitigen CPU-Strukturen am Ende. Nvidia-GPUs setzten heute die Maßstäbe, weil anders den Datenmassen nun einmal nicht beizukommen sei. Dazu kämen neuartige CPUs, die sehr viel enger mit den GPUs zusammenarbeiten können als bisherige Infrastrukturen. Auch Intel sitze, so Herr Bazzanella, an derartigen Chips mit enger Anbindung an GPUs.

GPU-CPU-Kombi als Leistungsträger

Solche Kombinationen aus GPU und Prozessoren, so der Berater, gebe es im HPC-Bereich schon längst. Nun breiteten sie sich auch im HCI-Bereich aus, obwohl zwischen der HCI-Hardware und HCP-Umgebungen noch immer himmelweite Unterschiede bestünden. Die müssten überwunden werden, um eine solche vereinheitlichte Landschaft wahr werden zu lassen.

Mit einer verteilten, einheitlich gesteuerten IT-Infrastruktur könne man die Kapazitäten beispielsweise der Hochleistungsrechenzentren endlich auch kommerziellen Applikationen öffnen und Hardware insgesamt viel besser ausnutzen und vor allem dank effektiverer Prozessoren auch verkleinern. „Dann kostet ein Schrank nicht mehr Tausende Euro, sondern nur noch hundert oder nur noch zehn!“, prophezeit Bazzanella.

Er kennt einen Fall, in dem eine aus 25 Racks mit insgesamt 630 Kilowatt Leistung bestehendes System für Inferenz-Algorithmen mit 600 CPUs durch nur fünf „Nvidia DGX A100“ mit 28 kW Leistung in einem Rack ersetzt werden soll. Egal, ob diese Daten nun übertrieben sind wie manchmal oder tatsächlich stimmen – selbst wenn auch nur die Hälfte des Stroms und des Platzes eingespart würde, wäre dies schon viel.

Container als Universalvehikel

Das wichtigste Vehikel dabei, die Grenzen zwischen Infrastrukturen durchlässig zu machen, ist nicht eine bestimmte Hardware, sondern der Container, organisiert in Pods und orchestriert mit Kubernetes.

Alle Infrastrukturtypen nutzen in Zukunft GPU und verwenden Container, auf HPC spezielle Singularity-Container für die Parallelisierung.
Alle Infrastrukturtypen nutzen in Zukunft GPU und verwenden Container, auf HPC spezielle Singularity-Container für die Parallelisierung.
(Bild: Bazzanella/NCB)

Container könnten überall laufen: auf HCI am Edge, auf HPC-Clustern, die für spezifische Berechnungen durch Quantencomputer ergänzt werden. Allerdings auf HPC-Systemen nicht der gute alte Docker-Container, sondern so genannte Singularity-Container. Nur sie sind laut dem NCB-Chef im Stande, sich die Vorteile parallel arbeitender Strukturen der HPC-Datacenter zunutze zu machen.

Singularity-Container für HPC/HCI

In HPC-Umgebungen können parallel mehrere, durch Vererben miteinander verwandte Singularity-Container mit denselben Inhalten parallel abgearbeitet werden. Obwohl sie im Prinzip dasselbe enthalten, wird jede Instanz separat erkannt.

Allerdings gelte es, Schnittstellen zwischen konventionellen und Singularity-Containern zu schaffen, womit man gerade erst beginne. Damit sei die Tür offen für ein Zusammenwachsen von HCI und HPC, denn dann ließen sich Inhalte von einem in den anderen Container quasi übergeben.

Das mag so manchem Datacenter-Verantwortlichen weit weg erscheinen von seinem Alltag erscheinen. Da geht es um zu hohe Strompreise, knappe Flächen, stetig steigende Anwenderforderungen. Die IT-Leiter sind mit der Implementierung hybrider Clouds, ausufernden Public-Cloud-Kosten, sinkenden Budgets oder wachsenden Speicheranforderungen ebenfalls bestens ausgelastet.

Kristall-basierter Quantencomputer im Rack?

Und so mag sich Bazzanella auch nicht festlegen, wann mit solch einer Vereinheitlichung genau zu rechnen wäre. Immerhin sei denkbar und durch einige Hersteller geplant, Quantencomputing schon ab 2023 kommerziell anzubieten.

Stehen Kristall-basierte Quantencomputer schon bald im Rack? Hier ein supragekühlter Quantenrechner von IBM.
Stehen Kristall-basierte Quantencomputer schon bald im Rack? Hier ein supragekühlter Quantenrechner von IBM.
(Bild: NCB/IBM)

Quantenrechner, die auf Kristallen basierten, brauchten auch keine Tiefkühlung. Deshalb könne es sein, dass in nicht allzu ferner Zukunft Quantenrechner einfach neben andere IT-Varianten ins Rack montieren werden. Dazu lägen bereits erste Ergebnisse vor.

Kooperatives Vorgehen nötig

Trotzdem sind die Mühen der Ebene beträchtlich. Nur Kooperation dürfte zu den erwünschten Zielen führen, aber die hat bekanntlich ihre Tücken. So wurde gerade ein Gemeinschaftsprojekt europäischer Firmen aus zwölf Ländern vorläufig durch administrative Hürden ausgebremst. Entstehen sollte ein auf Containertechnik und Cloud-nativem OpenStack sowie umfassendem Rechte-Management aufbauende, grenzübergreifende und nach den von Bazzanella skizzierten Prinzipien strukturierte Infrastruktur.

„Einige deutsche Firmen machen jetzt erst einmal mit einer nationalen Initiative weiter“, sagt Bazzanella. Er ist sich sicher: Sein Konzept der über Container vereinheitlichten, zentral mit Kubernetes und KI orchestrierten räumlich verteilten Infrastrukturen unterschiedlicher Leistungsfähigkeit mit der Integration von High Performance und Quantencomputing wird kommen - wenn nicht schon in diesem Jahrzehnt, dann im nächsten.

DataCenter und Colocation Day 2021
Bildergalerie mit 40 Bildern

(ID:47774793)