Die meisten IT-Infrastrukturen sind, gemessen an den Aufgaben, die auf sie zukommen, rettungslos veraltet. Das meint jedenfalls Hartwig Bazzanella, Gründer und Geschäftsführer der RZ-Beratung NCB GmbH und Vorstand im VIRZ e.V. Nur eine grundlegend überarbeitete Infrastruktur kann hier helfen. Hier steht nicht mehr die virtuelle Maschine im Vordergrund, sondern eine Vielzahl von Containern.
Infrastrukturvisionen für das Quantenzeitalter präsentierte auf dem „Datacenter & Colocation Day 2021“ NCD-CEO und VIRZ-Vorstand Hartwig Bazzanella.
(Bild: Vogel IT-Medien GmbH)
Heute bestehen IT-Infrastrukturen noch häufig aus einem Flickenteppich unterschiedlicher Hardwaresilos. Dazu oder an ihre Stelle inzwischen eine Private Cloud. Weiter gibt es häufig eine oder mehrere, mehr oder minder damit verbundene Public Clouds, deren Services zu unterschiedlichen Zwecken genutzt werden.
Wenn nicht die Anwender ihre Infrastruktur gleich zum Co-Location-Anbieter auslagern. Dort müssen sie sich wenigstens nicht mehr um die Schränke, Unterbrechungsfreie Stromversorgung (USV) und Stromzuführung kümmern.
Doch sind solche Strukturen den im Datenzeitalter anfallenden Aufgaben gewachsen? Sind sie nicht viel zu klobig, zu teuer, überdimensioniert und unterausgelastet?
Dieser Meinung ist jedenfalls Hartwig Bazzanella, Gründer und Geschäftsführer der auf IT-Themen fokussierten Unternehmensberatung NCB GmbH. In einem viel beachteten Vortrag auf dem diesjährigen „Datacenter & Colocation Day“ machte er deutlich, wie er sich die Zukunft der IT vorstellt.
Die Infrastruktur der Zukunft kommuniziert mit verschränkten Quanten
Bazzanella glaubt an den großen Wurf: Ganz unten diverse Edge-Datacenter, in denen meistens HCI (Hyperkonvergente Infrastruktur) stehen dürfte, daneben Zentren für das High Performace Computin (HPC) und in Zukunft auch Quantencomputer.
Verteilte, durch gesicherte Lichtwellenleiter verbundene Rechenzentren ermöglichen höhere Leistung und bessere Auslastung der Ressourcen.
(Bild: Bazzanella/NCB)
Über allem eine vereinigende, orchestrierende Instanz. Mit KI ausgerüstet, schiebt sie Applikationen aller Art, auch kommerzielle, immer dahin, wo sie gerade am besten aufgehoben sind. Schutz vor Übergriffen bietet ein umfassendes Rechte- und Zugriffs-Management.
All diese Instanzen sind durch superschnelle, akustisch-optisch kontrollierte Glasfasern miteinander verbunden. Sie garantieren sowohl schnellstmöglichen Datentransport, womöglich sogar zukünftig via Quantenverschränkung, als auch eine bestmögliche Sicherheit. „Mit einer akustisch-optischen Kontrolle entdeckt man jeden Versuch sofort, auf das Kabel und die sich darin bewegenden Daten zuzugreifen“, sagt Bazzanella.
Die Verschränkung von Quanten als quasi Echtzeit-Transportmittel gibt es bereits und sie funktioniert auch. So wurde von Professor Anton Zeilinger, der an der Universität Wien lehrt und der Österreichischen Akademie der Wissenschaften vorsteht, eine 144 Kilometer lange Verbindung zwischen Teneriffa und La Palma aufgebaut, die Daten zuverlässig überträgt. Diese Technik soll bald kommerzialisiert werden.
Für Co-Location-Anbieter alten Stils, die hohe Quadratmeterpreise abrechnen, sieht Bazzanella in dieser Welt eher keinen Platz mehr. „Sie decken lediglich die erste Ebene des Infrastruktur-Stack ab, dafür wird man in Zukunft kein Geld mehr in die Hand nehmen“, ist er überzeugt.
Auch die meisten bisherigen Angebote der Hyperscaler gingen noch längst nicht weit genug den Infrastruktur-Stack hinauf. Erst auf der Ebene des serverlosen Computing oder von FaaS (Function as a Service) werde es wirklich spannend.
Anwender sollen sich in Zukunft am besten nur um Funktionen und Daten kümmern, nicht um den ganzen Stack.
(Bild: Bazzanella/NCB)
Richtungsweisend seien insgesamt die großen Hyperscaler. Sie verwendeten schon heute übergreifende Automatisierungsmechanismen, standardisierte, softwaregesteuerte und leicht auswechselbare Hardware.
Bazzanella sieht auch die derzeitigen CPU-Strukturen am Ende. Nvidia-GPUs setzten heute die Maßstäbe, weil anders den Datenmassen nun einmal nicht beizukommen sei. Dazu kämen neuartige CPUs, die sehr viel enger mit den GPUs zusammenarbeiten können als bisherige Infrastrukturen. Auch Intel sitze, so Herr Bazzanella, an derartigen Chips mit enger Anbindung an GPUs.
GPU-CPU-Kombi als Leistungsträger
Solche Kombinationen aus GPU und Prozessoren, so der Berater, gebe es im HPC-Bereich schon längst. Nun breiteten sie sich auch im HCI-Bereich aus, obwohl zwischen der HCI-Hardware und HCP-Umgebungen noch immer himmelweite Unterschiede bestünden. Die müssten überwunden werden, um eine solche vereinheitlichte Landschaft wahr werden zu lassen.
Mit einer verteilten, einheitlich gesteuerten IT-Infrastruktur könne man die Kapazitäten beispielsweise der Hochleistungsrechenzentren endlich auch kommerziellen Applikationen öffnen und Hardware insgesamt viel besser ausnutzen und vor allem dank effektiverer Prozessoren auch verkleinern. „Dann kostet ein Schrank nicht mehr Tausende Euro, sondern nur noch hundert oder nur noch zehn!“, prophezeit Bazzanella.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Er kennt einen Fall, in dem eine aus 25 Racks mit insgesamt 630 Kilowatt Leistung bestehendes System für Inferenz-Algorithmen mit 600 CPUs durch nur fünf „Nvidia DGX A100“ mit 28 kW Leistung in einem Rack ersetzt werden soll. Egal, ob diese Daten nun übertrieben sind wie manchmal oder tatsächlich stimmen – selbst wenn auch nur die Hälfte des Stroms und des Platzes eingespart würde, wäre dies schon viel.
Container als Universalvehikel
Das wichtigste Vehikel dabei, die Grenzen zwischen Infrastrukturen durchlässig zu machen, ist nicht eine bestimmte Hardware, sondern der Container, organisiert in Pods und orchestriert mit Kubernetes.
Alle Infrastrukturtypen nutzen in Zukunft GPU und verwenden Container, auf HPC spezielle Singularity-Container für die Parallelisierung.
(Bild: Bazzanella/NCB)
Container könnten überall laufen: auf HCI am Edge, auf HPC-Clustern, die für spezifische Berechnungen durch Quantencomputer ergänzt werden. Allerdings auf HPC-Systemen nicht der gute alte Docker-Container, sondern so genannte Singularity-Container. Nur sie sind laut dem NCB-Chef im Stande, sich die Vorteile parallel arbeitender Strukturen der HPC-Datacenter zunutze zu machen.
Singularity-Container für HPC/HCI
In HPC-Umgebungen können parallel mehrere, durch Vererben miteinander verwandte Singularity-Container mit denselben Inhalten parallel abgearbeitet werden. Obwohl sie im Prinzip dasselbe enthalten, wird jede Instanz separat erkannt.
Allerdings gelte es, Schnittstellen zwischen konventionellen und Singularity-Containern zu schaffen, womit man gerade erst beginne. Damit sei die Tür offen für ein Zusammenwachsen von HCI und HPC, denn dann ließen sich Inhalte von einem in den anderen Container quasi übergeben.
Das mag so manchem Datacenter-Verantwortlichen weit weg erscheinen von seinem Alltag erscheinen. Da geht es um zu hohe Strompreise, knappe Flächen, stetig steigende Anwenderforderungen. Die IT-Leiter sind mit der Implementierung hybrider Clouds, ausufernden Public-Cloud-Kosten, sinkenden Budgets oder wachsenden Speicheranforderungen ebenfalls bestens ausgelastet.
Kristall-basierter Quantencomputer im Rack?
Und so mag sich Bazzanella auch nicht festlegen, wann mit solch einer Vereinheitlichung genau zu rechnen wäre. Immerhin sei denkbar und durch einige Hersteller geplant, Quantencomputing schon ab 2023 kommerziell anzubieten.
Quantenrechner, die auf Kristallen basierten, brauchten auch keine Tiefkühlung. Deshalb könne es sein, dass in nicht allzu ferner Zukunft Quantenrechner einfach neben andere IT-Varianten ins Rack montieren werden. Dazu lägen bereits erste Ergebnisse vor.
Trotzdem sind die Mühen der Ebene beträchtlich. Nur Kooperation dürfte zu den erwünschten Zielen führen, aber die hat bekanntlich ihre Tücken. So wurde gerade ein Gemeinschaftsprojekt europäischer Firmen aus zwölf Ländern vorläufig durch administrative Hürden ausgebremst. Entstehen sollte ein auf Containertechnik und Cloud-nativem OpenStack sowie umfassendem Rechte-Management aufbauende, grenzübergreifende und nach den von Bazzanella skizzierten Prinzipien strukturierte Infrastruktur.
„Einige deutsche Firmen machen jetzt erst einmal mit einer nationalen Initiative weiter“, sagt Bazzanella. Er ist sich sicher: Sein Konzept der über Container vereinheitlichten, zentral mit Kubernetes und KI orchestrierten räumlich verteilten Infrastrukturen unterschiedlicher Leistungsfähigkeit mit der Integration von High Performance und Quantencomputing wird kommen - wenn nicht schon in diesem Jahrzehnt, dann im nächsten.