Hartwig Bazzanella: „Dramatisch erhöhte Wertschöpfung bei gleichzeitig deutlich verringerten negativen Umwelteinflüssen“HPC, HCI und Quantencomputing bilden die IT-Infrastruktur der Zukunft
Welche Chancen bieten Technologien wie HCI, HPC und Quantencomputing, um effizientere IT-Infrastrukturen aufzubauen? Mit diesem Thema befasste sich ein Vortrag des VIRZ-Vorstandes (VIRZ = Verband Innovatives Rechenzentrum e. V.) Hartwig Bazzanella auf der Kongressmesse „DTM Netforum 23“ in Bregenz.
Der Aufbau einer übergreifenden Infrastruktur aus verteilten, als HCI gestalteten HPC-Ressourcen und Quantencomputern mit einer KI-gesteuerten Orchestrierung und Verteilung containerisierter Applikationsbereiche könnte die IT-Effizienz um Dimensionen erhöhen.
Private Rechenzentren sind oft wenig Energie-effizient. Deshalb stellt das neue Energie-Effizienzgesetz (EnEfG) sie vor Probleme. Das liegt insbesondere an der relativ geringen Auslastung der IT-Ressourcen – sie beträgt häufig nur zehn bis zwanzig Prozent.
Zugleich gehen Unternehmen seit dem Aufkommen des Cloud-Computing immer öfter dazu über, ihre IT aus Kostengründen auszulagern. Denn das bedeutet lediglich Betriebs- statt hoher Investitionskosten.
Auslagerungsform und Effizienz
Doch nicht jede Auslagerungsform hebt Effizienz und Wertschöpfung erheblich an. Vielmehr steigt sie mit dem Grad der Automatisierung der Systemarchitektur (SA) unter den jeweiligen Anwendungen.
Der Dipl.-Informatiker Hartwig Bazzanella ist Geschäftsführer der NCB New Consultancy in Business GmbH. Seit September 2016 fungiert er zudem als Vorstandsmitglied im Verband Innovatives Rechenzentrum e.V. (VIRZ). Der Verband fördert den konstruktiven Erfahrungsaustausch zwischen Planern, Errichtern, Herstellern und Betreibern von Rechenzentren.
(Bild: Linkedin)
Am geringsten ist die Wertschöpfung und auch die Energie-Effizienz bei Co-Location-Rechenzentren; denn die Energie-Effizienz lässt sich nur über das gesamte Datacenter planen, auf die betriebene Infrastruktur hat der Co-Location-Betreiber einen nur geringen Einfluss. Fehlende Raumauslastung aber fällt unmittelbar auf die Effizienzwerte zurück, da die Datacenter-Infrastruktur trotzdem vorgehalten werden muss.
Je höher integriert, desto besser
Besser sieht es schon bei (Infrastructure as a Service (IaaS) aus, weil hier Virtualisierung die Auslastung der Hardware erhöht. Allerdings ist der Wertschöpfungseffekt nicht optimal, da nur ein virtueller Rechner genutzt wird.
Erst Plattform-Services, bei denen der Provider einen Teil der Software mitliefert, und vor allem serverloses Function as a Service (FaaS) treiben Effizienz und Wertschöpfung deutlich nach oben. Je weiter also Integration und Automatisierung des Stack der Systemarchitektur reichen, desto besser die Performance.
HCI als neue Infrastrukturbasis
Basis für eine weitgehende Integration wie bei FaaS-Angeboten sind hyperkonvergente Infrastrukturen (HCI), die klassische Three-Tier-Infrastrukturen flächendeckend ersetzen sollten.
Server verbrauchen in der IT-Infrastruktur am meisten Strom.
(Bild: Bordersteß/VIRZ/NCB)
Hyperkonvergenz beseitigt Infrastruktursilos und integriert alle Komponenten hochverdichtet in eine Hardware, auf der dann Applikationen auf Bare Metal im Sinn von FaaS laufen können. Sie lassen sich in privaten, hybriden und Public Clouds realisieren und ermöglichen verteilte Infrastrukturen.
Beispiele für Realisierungen kommen vor allem von den großen Hyperscalern. Europäische Unternehmen sind hier noch nicht hervorgetreten. Vorreiter ist Microsoft mit „Azure Stack“ und seinen HCI-Angeboten, die auch eine hochperformante GPU integrieren.
Zu vermuten und auch zu wünschen ist, dass der Trend hin zu geclusterten HCI-Infrastrukturen mit GPU-Unterstützung geht. Auf ihnen laufen hoch parallelisierte Applikationen.
HCI ein Viertel effizienter
Vergleicht man eine in etwa leistungsgleiche 3-Tier-Infrastruktur mit einem HCI-Cluster, dann verbraucht letzterer rund ein Viertel weniger Strom, sprich: Energiekosten. Er erzeugt auch ein Viertel weniger Kohlendioxid.
Das bedeutet: Hätte man bis Ende 2021 alle Three-Tier-Infrastrukturen Westeuropas auf HCI-Cluster umgestellt, so wären laut einer Studie von Nutanix und Atlantic Consulting bis 2025 etwa 56,68 Terawattstunden (TWh) Strom im Wert von rund 8,2 Milliarden Euro eingespart worden. Zudem wären rund 14,2 Millionen Tonnen Kohlendioxid entfallen.
HPC-Cluster
Analog zu HCI-Clustern lassen sich auch HPC-Computer zu HPC-Clustern integrieren. Die Hardware in diesem Bereich kommt zum Beispiel von Atos, IBM, HPE/Cray, Fujitsu oder anderen. Dabei ist jeder Node ein Rechenknoten mit mehreren Rechenkernen und kann eigenständig Operationen ausführen.
HCI-Cluster erhöhen durch Ressourcenintegration, Containerisierung und intelligente Steuerung die Effizienz.
(Bild: VIRZ/NCB)
Idealerweise sollte man auch hierfür als Architekturmodell eine HCI mit GPU-Unterstützung verwenden. Darüber hinaus empfiehlt es sich, Container als Träger der Applikationen zu verwenden.
Für den Einsatz in HPC (Supercomputern) werden Applikationen und Daten so weitgehend wie möglich parallel bearbeitet. Dabei helfen auch hier GPUs.
HPC-taugliche Container-Engine
Neu ist, dass man Container in HPC verwendet, die auf speziellen Container-Engines, zum Beispiel der „Singularity“-Engine, laufen. SingularityCE von Sylabs, ist sehr leistungsfähig und OCP-konform (OPC = Open Compute Project). Seine Potentiale sind enorm. Beispielsweise wurde damit eine Supernova in einer Galaxie simuliert.
Strukturell wachsen Hyperconverged Infrastructure (HCI) und High Performance Computing (HPC) stärker zusammen.
(Bild: VIRZ/NCB)
Container können also parallel betrieben werden. Genau dieser Parallelbetrieb ist die Spezialität von HPC-Infrastrukturen.
HCI für HPC-Umgebungen
Erstrebenswert wäre es, eine HCI für die HPC Umgebung aufzubauen und die oft eingesetzten n*1HE Linux-Server dadurch zu ersetzen. Die Effektivität von HPC-Infrastrukturen ist ungleich größer.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die für Parallelbetrieb gebaute Systemarchitektur der HCP-Ressourcen nutzt die Leistungsfähigkeit der speziellen Applikationen optimal aus. Sie kann hier für den Betrieb parallel betriebener Container mit normalen Applikationen verwendet werden. Das ist neu!
Ein Rack statt 25
HPC lassen sich in schwach ausgelasteten Zeiten für den Betrieb konventioneller Anwendungen in Singularity- Containern nutzen. Die parallele Bearbeitung der Container bietet einen Performance-Vorteil, den es bisher nicht gibt.
Ein Vergleich: 25 volle Racks mit 50 „DGX-1“-(Referenz-)Systemen von Nvidia fürs Training und 600 CPUs für die Inferenz leisten heute dasselbe wie fünf „DGX A100“, ebenfalls von Nvidia. Letztere brauchen aber nur ein Rack statt 25 und 28 Kilowatt (kW) gegenüber mehr als 600 kW. Die Kosten sinken um mehr als 90 Prozent.
IT-Lasten wandern an einen optimalen Ort
Denkbar ist mit Hilfe der Komponenten HCI/HPC, KI und Automatisierung, dass eine dezentrale Infrastruktur aus vernetzten Mikro- oder Edge-Rechenzentren aufgebaut wird. Die Applikationen, die abgearbeitet werden sollen, werden dabei in sinnvolle Applikationsbereiche aufgeteilt, die eine übergeordnete Instanz orchestriert.
Diese Orchestrierung sorgt dafür, dass Container jeweils an die für sie im jeweiligen Moment am besten passende Infrastruktur geschickt werden. Das optimiert die Auslastung und sorgt gleichzeitig für Energie-Effizienz, da bei der Zuweisung der Container auch die aktuelle Verfügbarkeit und der Preis von Energie eine Rolle spielen können.
Lernende Orchestrierung
Die KI, die das Gesamtsystem steuert, lernt dabei ständig dazu. Das führt mit der Zeit zur optimalen Just-in-Time-Applikationsverteilung über die gesamte Datacenter-Infrastruktur hinweg.
Dabei können unterschiedliche Optimierungsziele angestrebt werden. Zum Beispiel energetische, Kosten- oder Kohlendioxid-Optimierung. Angestrebt wird in jedem Fall eine möglichst vollständige Auslastung aller Systeme.
Integration von Quantencomputern
Auch Quantencomputer lassen sich mit ihren speziellen Fähigkeiten in ein solches verteiltes System integrieren. Allerdings ist es dazu nötig, Quanteninformationen zu teleportieren. Das gelingt heute schon über Strecken von rund 140 Kilometer auf der Erde oder zwischen der Erde und Satelliten.
In der IT-Infrastruktur der Zukunft könnten verteilt lokalisierte HPC- (rot) und mit Hilfe von Quanten-Repeatern (grün) auch Quantenressourcen (blau) integriert und über eine KI-gesteuerte Orchestrierungsschicht mit passenden Workloads ausgelastet werden.
(Bild: NCB/VIRZ)
Will man Quanteninformationen über beliebig lange Strecken transportieren, um sie auf in der verteilten Infrastruktur integrierten Quantencomputern rechnen zu lassen, braucht man allerdings Quanten-Repeater. Sie arbeiten wie Quantencomputer nahe dem absoluten Nullpunkt und sorgen für eine durchgehende Quantenverschränkung entlang der Transportstrecke.
Quanten-Repeater aus Deggendorf
Die Technischen Hochschule Deggendorf (THD) zusammen mit dem VIRZ arbeiten derzeit an einem solchen Konzept. Sollte es gelingen, die Komponenten praxisreif zu machen und mit ihrer Hilfe nachweislich längere Strecken zuverlässig zu überbrücken, steht dem Aufbau einer hocheffizienten Computing-Infrastruktur aus HPC und Quantencomputern zumindest technisch nichts Grundsätzliches mehr im Weg.
Zusammen mit einer orchestrierenden KI sollte es dann möglich sein, mittels der skizzierten verteilten Infrastruktur Applikationen aller Art auf der jeweils für sie optimalen Infrastruktur mit ungeahnter Leistung und Effizienz abzuarbeiten. Die Folge wäre eine dramatisch erhöhte Wertschöpfung bei gleichzeitig deutlich verringerten negativen Umwelteinflüssen.