Hartwig Bazzanella: „Dramatisch erhöhte Wertschöpfung bei gleichzeitig deutlich verringerten negativen Umwelteinflüssen“ HPC, HCI und Quantencomputing bilden die IT-Infrastruktur der Zukunft
Anbieter zum Thema
Welche Chancen bieten Technologien wie HCI, HPC und Quantencomputing, um effizientere IT-Infrastrukturen aufzubauen? Mit diesem Thema befasste sich ein Vortrag des VIRZ-Vorstandes (VIRZ = Verband Innovatives Rechenzentrum e. V.) Hartwig Bazzanella auf der Kongressmesse „DTM Netforum 23“ in Bregenz.

Private Rechenzentren sind oft wenig Energie-effizient. Deshalb stellt das neue Energie-Effizienzgesetz (EnEfG) sie vor Probleme. Das liegt insbesondere an der relativ geringen Auslastung der IT-Ressourcen – sie beträgt häufig nur zehn bis zwanzig Prozent.
Zugleich gehen Unternehmen seit dem Aufkommen des Cloud-Computing immer öfter dazu über, ihre IT aus Kostengründen auszulagern. Denn das bedeutet lediglich Betriebs- statt hoher Investitionskosten.
Auslagerungsform und Effizienz
Doch nicht jede Auslagerungsform hebt Effizienz und Wertschöpfung erheblich an. Vielmehr steigt sie mit dem Grad der Automatisierung der Systemarchitektur (SA) unter den jeweiligen Anwendungen.
Am geringsten ist die Wertschöpfung und auch die Energie-Effizienz bei Co-Location-Rechenzentren; denn die Energie-Effizienz lässt sich nur über das gesamte Datacenter planen, auf die betriebene Infrastruktur hat der Co-Location-Betreiber einen nur geringen Einfluss. Fehlende Raumauslastung aber fällt unmittelbar auf die Effizienzwerte zurück, da die Datacenter-Infrastruktur trotzdem vorgehalten werden muss.
Je höher integriert, desto besser
Besser sieht es schon bei (Infrastructure as a Service (IaaS) aus, weil hier Virtualisierung die Auslastung der Hardware erhöht. Allerdings ist der Wertschöpfungseffekt nicht optimal, da nur ein virtueller Rechner genutzt wird.
Erst Plattform-Services, bei denen der Provider einen Teil der Software mitliefert, und vor allem serverloses Function as a Service (FaaS) treiben Effizienz und Wertschöpfung deutlich nach oben. Je weiter also Integration und Automatisierung des Stack der Systemarchitektur reichen, desto besser die Performance.
HCI als neue Infrastrukturbasis
Basis für eine weitgehende Integration wie bei FaaS-Angeboten sind hyperkonvergente Infrastrukturen (HCI), die klassische Three-Tier-Infrastrukturen flächendeckend ersetzen sollten.
Hyperkonvergenz beseitigt Infrastruktursilos und integriert alle Komponenten hochverdichtet in eine Hardware, auf der dann Applikationen auf Bare Metal im Sinn von FaaS laufen können. Sie lassen sich in privaten, hybriden und Public Clouds realisieren und ermöglichen verteilte Infrastrukturen.
Beispiele für Realisierungen kommen vor allem von den großen Hyperscalern. Europäische Unternehmen sind hier noch nicht hervorgetreten. Vorreiter ist Microsoft mit „Azure Stack“ und seinen HCI-Angeboten, die auch eine hochperformante GPU integrieren.
Zu vermuten und auch zu wünschen ist, dass der Trend hin zu geclusterten HCI-Infrastrukturen mit GPU-Unterstützung geht. Auf ihnen laufen hoch parallelisierte Applikationen.
HCI ein Viertel effizienter
Vergleicht man eine in etwa leistungsgleiche 3-Tier-Infrastruktur mit einem HCI-Cluster, dann verbraucht letzterer rund ein Viertel weniger Strom, sprich: Energiekosten. Er erzeugt auch ein Viertel weniger Kohlendioxid.
Das bedeutet: Hätte man bis Ende 2021 alle Three-Tier-Infrastrukturen Westeuropas auf HCI-Cluster umgestellt, so wären laut einer Studie von Nutanix und Atlantic Consulting bis 2025 etwa 56,68 Terawattstunden (TWh) Strom im Wert von rund 8,2 Milliarden Euro eingespart worden. Zudem wären rund 14,2 Millionen Tonnen Kohlendioxid entfallen.
HPC-Cluster
Analog zu HCI-Clustern lassen sich auch HPC-Computer zu HPC-Clustern integrieren. Die Hardware in diesem Bereich kommt zum Beispiel von Atos, IBM, HPE/Cray, Fujitsu oder anderen. Dabei ist jeder Node ein Rechenknoten mit mehreren Rechenkernen und kann eigenständig Operationen ausführen.
Idealerweise sollte man auch hierfür als Architekturmodell eine HCI mit GPU-Unterstützung verwenden. Darüber hinaus empfiehlt es sich, Container als Träger der Applikationen zu verwenden.
Für den Einsatz in HPC (Supercomputern) werden Applikationen und Daten so weitgehend wie möglich parallel bearbeitet. Dabei helfen auch hier GPUs.
HPC-taugliche Container-Engine
Neu ist, dass man Container in HPC verwendet, die auf speziellen Container-Engines, zum Beispiel der „Singularity“-Engine, laufen. SingularityCE von Sylabs, ist sehr leistungsfähig und OCP-konform (OPC = Open Compute Project). Seine Potentiale sind enorm. Beispielsweise wurde damit eine Supernova in einer Galaxie simuliert.
Container können also parallel betrieben werden. Genau dieser Parallelbetrieb ist die Spezialität von HPC-Infrastrukturen.
HCI für HPC-Umgebungen
Erstrebenswert wäre es, eine HCI für die HPC Umgebung aufzubauen und die oft eingesetzten n*1HE Linux-Server dadurch zu ersetzen. Die Effektivität von HPC-Infrastrukturen ist ungleich größer.
Die für Parallelbetrieb gebaute Systemarchitektur der HCP-Ressourcen nutzt die Leistungsfähigkeit der speziellen Applikationen optimal aus. Sie kann hier für den Betrieb parallel betriebener Container mit normalen Applikationen verwendet werden. Das ist neu!
Ein Rack statt 25
HPC lassen sich in schwach ausgelasteten Zeiten für den Betrieb konventioneller Anwendungen in Singularity- Containern nutzen. Die parallele Bearbeitung der Container bietet einen Performance-Vorteil, den es bisher nicht gibt.
Ein Vergleich: 25 volle Racks mit 50 „DGX-1“-(Referenz-)Systemen von Nvidia fürs Training und 600 CPUs für die Inferenz leisten heute dasselbe wie fünf „DGX A100“, ebenfalls von Nvidia. Letztere brauchen aber nur ein Rack statt 25 und 28 Kilowatt (kW) gegenüber mehr als 600 kW. Die Kosten sinken um mehr als 90 Prozent.
IT-Lasten wandern an einen optimalen Ort
Denkbar ist mit Hilfe der Komponenten HCI/HPC, KI und Automatisierung, dass eine dezentrale Infrastruktur aus vernetzten Mikro- oder Edge-Rechenzentren aufgebaut wird. Die Applikationen, die abgearbeitet werden sollen, werden dabei in sinnvolle Applikationsbereiche aufgeteilt, die eine übergeordnete Instanz orchestriert.
Diese Orchestrierung sorgt dafür, dass Container jeweils an die für sie im jeweiligen Moment am besten passende Infrastruktur geschickt werden. Das optimiert die Auslastung und sorgt gleichzeitig für Energie-Effizienz, da bei der Zuweisung der Container auch die aktuelle Verfügbarkeit und der Preis von Energie eine Rolle spielen können.
Lernende Orchestrierung
Die KI, die das Gesamtsystem steuert, lernt dabei ständig dazu. Das führt mit der Zeit zur optimalen Just-in-Time-Applikationsverteilung über die gesamte Datacenter-Infrastruktur hinweg.
Dabei können unterschiedliche Optimierungsziele angestrebt werden. Zum Beispiel energetische, Kosten- oder Kohlendioxid-Optimierung. Angestrebt wird in jedem Fall eine möglichst vollständige Auslastung aller Systeme.
Integration von Quantencomputern
Auch Quantencomputer lassen sich mit ihren speziellen Fähigkeiten in ein solches verteiltes System integrieren. Allerdings ist es dazu nötig, Quanteninformationen zu teleportieren. Das gelingt heute schon über Strecken von rund 140 Kilometer auf der Erde oder zwischen der Erde und Satelliten.
Will man Quanteninformationen über beliebig lange Strecken transportieren, um sie auf in der verteilten Infrastruktur integrierten Quantencomputern rechnen zu lassen, braucht man allerdings Quanten-Repeater. Sie arbeiten wie Quantencomputer nahe dem absoluten Nullpunkt und sorgen für eine durchgehende Quantenverschränkung entlang der Transportstrecke.
Quanten-Repeater aus Deggendorf
Die Technischen Hochschule Deggendorf (THD) zusammen mit dem VIRZ arbeiten derzeit an einem solchen Konzept. Sollte es gelingen, die Komponenten praxisreif zu machen und mit ihrer Hilfe nachweislich längere Strecken zuverlässig zu überbrücken, steht dem Aufbau einer hocheffizienten Computing-Infrastruktur aus HPC und Quantencomputern zumindest technisch nichts Grundsätzliches mehr im Weg.
Zusammen mit einer orchestrierenden KI sollte es dann möglich sein, mittels der skizzierten verteilten Infrastruktur Applikationen aller Art auf der jeweils für sie optimalen Infrastruktur mit ungeahnter Leistung und Effizienz abzuarbeiten. Die Folge wäre eine dramatisch erhöhte Wertschöpfung bei gleichzeitig deutlich verringerten negativen Umwelteinflüssen.
(ID:49733520)