Hartwig Bazzanella: „Dramatisch erhöhte Wertschöpfung bei gleichzeitig deutlich verringerten negativen Umwelteinflüssen“ HPC, HCI und Quanten­computing bilden die IT-Infrastruktur der Zukunft

Von lic.rer.publ. Ariane Rüdiger Lesedauer: 5 min |

Anbieter zum Thema

Welche Chancen bieten Technologien wie HCI, HPC und Quantencomputing, um effizientere IT-Infrastrukturen aufzubauen? Mit diesem Thema befasste sich ein Vortrag des VIRZ-Vorstandes (VIRZ = Verband Innovatives Rechenzentrum e. V.) Hartwig Bazzanella auf der Kongressmesse „DTM Netforum 23“ in Bregenz.

Der Aufbau einer übergreifenden Infrastruktur aus verteilten, als HCI gestalteten HPC-Ressourcen und Quantencomputern mit einer KI-gesteuerten Orchestrierung und Verteilung containerisierter Applikationsbereiche könnte die IT-Effizienz um Dimensionen erhöhen.
Der Aufbau einer übergreifenden Infrastruktur aus verteilten, als HCI gestalteten HPC-Ressourcen und Quantencomputern mit einer KI-gesteuerten Orchestrierung und Verteilung containerisierter Applikationsbereiche könnte die IT-Effizienz um Dimensionen erhöhen.
(Bild: Pixabay/Gerd Altmann / Pixabay)

Private Rechenzentren sind oft wenig Energie-effizient. Deshalb stellt das neue Energie-Effizienzgesetz (EnEfG) sie vor Probleme. Das liegt insbesondere an der relativ geringen Auslastung der IT-Ressourcen – sie beträgt häufig nur zehn bis zwanzig Prozent.

Zugleich gehen Unternehmen seit dem Aufkommen des Cloud-Computing immer öfter dazu über, ihre IT aus Kostengründen auszulagern. Denn das bedeutet lediglich Betriebs- statt hoher Investitionskosten.

Auslagerungsform und Effizienz

Doch nicht jede Auslagerungsform hebt Effizienz und Wertschöpfung erheblich an. Vielmehr steigt sie mit dem Grad der Automatisierung der Systemarchitektur (SA) unter den jeweiligen Anwendungen.

Der Dipl.-Informatiker Hartwig Bazzanella ist Geschäftsführer der NCB New Consultancy in Business GmbH. Seit September 2016 fungiert er zudem als Vorstandsmitglied im Verband Innovatives Rechenzentrum e.V. (VIRZ). Der Verband fördert den konstruktiven Erfahrungsaustausch zwischen Planern, Errichtern, Herstellern und Betreibern von Rechenzentren.
Der Dipl.-Informatiker Hartwig Bazzanella ist Geschäftsführer der NCB New Consultancy in Business GmbH. Seit September 2016 fungiert er zudem als Vorstandsmitglied im Verband Innovatives Rechenzentrum e.V. (VIRZ). Der Verband fördert den konstruktiven Erfahrungsaustausch zwischen Planern, Errichtern, Herstellern und Betreibern von Rechenzentren.
(Bild: Linkedin)

Am geringsten ist die Wertschöpfung und auch die Energie-Effizienz bei Co-Location-Rechenzentren; denn die Energie-Effizienz lässt sich nur über das gesamte Datacenter planen, auf die betriebene Infrastruktur hat der Co-Location-Betreiber einen nur geringen Einfluss. Fehlende Raumauslastung aber fällt unmittelbar auf die Effizienzwerte zurück, da die Datacenter-Infrastruktur trotzdem vorgehalten werden muss.

Je höher integriert, desto besser

Besser sieht es schon bei (Infrastructure as a Service (IaaS) aus, weil hier Virtualisierung die Auslastung der Hardware erhöht. Allerdings ist der Wertschöpfungseffekt nicht optimal, da nur ein virtueller Rechner genutzt wird.

Erst Plattform-Services, bei denen der Provider einen Teil der Software mitliefert, und vor allem serverloses Function as a Service (FaaS) treiben Effizienz und Wertschöpfung deutlich nach oben. Je weiter also Integration und Automatisierung des Stack der Systemarchitektur reichen, desto besser die Performance.

HCI als neue Infrastrukturbasis

Basis für eine weitgehende Integration wie bei FaaS-Angeboten sind hyperkonvergente Infrastrukturen (HCI), die klassische Three-Tier-Infrastrukturen flächendeckend ersetzen sollten.

Server verbrauchen in der IT-Infrastruktur am meisten Strom.
Server verbrauchen in der IT-Infrastruktur am meisten Strom.
(Bild: Bordersteß/VIRZ/NCB)

Hyperkonvergenz beseitigt Infrastruktursilos und integriert alle Komponenten hochverdichtet in eine Hardware, auf der dann Applikationen auf Bare Metal im Sinn von FaaS laufen können. Sie lassen sich in privaten, hybriden und Public Clouds realisieren und ermöglichen verteilte Infrastrukturen.

Beispiele für Realisierungen kommen vor allem von den großen Hyperscalern. Europäische Unternehmen sind hier noch nicht hervorgetreten. Vorreiter ist Microsoft mit „Azure Stack“ und seinen HCI-Angeboten, die auch eine hochperformante GPU integrieren.

Zu vermuten und auch zu wünschen ist, dass der Trend hin zu geclusterten HCI-Infrastrukturen mit GPU-Unterstützung geht. Auf ihnen laufen hoch parallelisierte Applikationen.

HCI ein Viertel effizienter

Vergleicht man eine in etwa leistungsgleiche 3-Tier-Infrastruktur mit einem HCI-Cluster, dann verbraucht letzterer rund ein Viertel weniger Strom, sprich: Energiekosten. Er erzeugt auch ein Viertel weniger Kohlendioxid.

Das bedeutet: Hätte man bis Ende 2021 alle Three-Tier-Infrastrukturen Westeuropas auf HCI-Cluster umgestellt, so wären laut einer Studie von Nutanix und Atlantic Consulting bis 2025 etwa 56,68 Terawattstunden (TWh) Strom im Wert von rund 8,2 Milliarden Euro eingespart worden. Zudem wären rund 14,2 Millionen Tonnen Kohlendioxid entfallen.

HPC-Cluster

Analog zu HCI-Clustern lassen sich auch HPC-Computer zu HPC-Clustern integrieren. Die Hardware in diesem Bereich kommt zum Beispiel von Atos, IBM, HPE/Cray, Fujitsu oder anderen. Dabei ist jeder Node ein Rechenknoten mit mehreren Rechenkernen und kann eigenständig Operationen ausführen.

HCI-Cluster erhöhen durch Ressourcenintegration, Containerisierung und intelligente Steuerung die Effizienz.
HCI-Cluster erhöhen durch Ressourcenintegration, Containerisierung und intelligente Steuerung die Effizienz.
(Bild: VIRZ/NCB)

Idealerweise sollte man auch hierfür als Architekturmodell eine HCI mit GPU-Unterstützung verwenden. Darüber hinaus empfiehlt es sich, Container als Träger der Applikationen zu verwenden.

Für den Einsatz in HPC (Supercomputern) werden Applikationen und Daten so weitgehend wie möglich parallel bearbeitet. Dabei helfen auch hier GPUs.

HPC-taugliche Container-Engine

Neu ist, dass man Container in HPC verwendet, die auf speziellen Container-Engines, zum Beispiel der „Singularity“-Engine, laufen. SingularityCE von Sylabs, ist sehr leistungsfähig und OCP-konform (OPC = Open Compute Project). Seine Potentiale sind enorm. Beispielsweise wurde damit eine Supernova in einer Galaxie simuliert.

Strukturell wachsen Hyperconverged Infrastructure (HCI)  und High Performance Computing (HPC) stärker zusammen.
Strukturell wachsen Hyperconverged Infrastructure (HCI) und High Performance Computing (HPC) stärker zusammen.
(Bild: VIRZ/NCB)

Container können also parallel betrieben werden. Genau dieser Parallelbetrieb ist die Spezialität von HPC-Infrastrukturen.

HCI für HPC-Umgebungen

Erstrebenswert wäre es, eine HCI für die HPC Umgebung aufzubauen und die oft eingesetzten n*1HE Linux-Server dadurch zu ersetzen. Die Effektivität von HPC-Infrastrukturen ist ungleich größer.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Die für Parallelbetrieb gebaute Systemarchitektur der HCP-Ressourcen nutzt die Leistungsfähigkeit der speziellen Applikationen optimal aus. Sie kann hier für den Betrieb parallel betriebener Container mit normalen Applikationen verwendet werden. Das ist neu!

Ein Rack statt 25

HPC lassen sich in schwach ausgelasteten Zeiten für den Betrieb konventioneller Anwendungen in Singularity- Containern nutzen. Die parallele Bearbeitung der Container bietet einen Performance-Vorteil, den es bisher nicht gibt.

Ein Vergleich: 25 volle Racks mit 50 „DGX-1“-(Referenz-)Systemen von Nvidia fürs Training und 600 CPUs für die Inferenz leisten heute dasselbe wie fünf „DGX A100“, ebenfalls von Nvidia. Letztere brauchen aber nur ein Rack statt 25 und 28 Kilowatt (kW) gegenüber mehr als 600 kW. Die Kosten sinken um mehr als 90 Prozent.

IT-Lasten wandern an einen optimalen Ort

Denkbar ist mit Hilfe der Komponenten HCI/HPC, KI und Automatisierung, dass eine dezentrale Infrastruktur aus vernetzten Mikro- oder Edge-Rechenzentren aufgebaut wird. Die Applikationen, die abgearbeitet werden sollen, werden dabei in sinnvolle Applikationsbereiche aufgeteilt, die eine übergeordnete Instanz orchestriert.

Diese Orchestrierung sorgt dafür, dass Container jeweils an die für sie im jeweiligen Moment am besten passende Infrastruktur geschickt werden. Das optimiert die Auslastung und sorgt gleichzeitig für Energie-Effizienz, da bei der Zuweisung der Container auch die aktuelle Verfügbarkeit und der Preis von Energie eine Rolle spielen können.

Lernende Orchestrierung

Die KI, die das Gesamtsystem steuert, lernt dabei ständig dazu. Das führt mit der Zeit zur optimalen Just-in-Time-Applikationsverteilung über die gesamte Datacenter-Infrastruktur hinweg.

Dabei können unterschiedliche Optimierungsziele angestrebt werden. Zum Beispiel energetische, Kosten- oder Kohlendioxid-Optimierung. Angestrebt wird in jedem Fall eine möglichst vollständige Auslastung aller Systeme.

Integration von Quantencomputern

Auch Quantencomputer lassen sich mit ihren speziellen Fähigkeiten in ein solches verteiltes System integrieren. Allerdings ist es dazu nötig, Quanteninformationen zu teleportieren. Das gelingt heute schon über Strecken von rund 140 Kilometer auf der Erde oder zwischen der Erde und Satelliten.

In der IT-Infrastruktur der Zukunft könnten verteilt lokalisierte HPC- (rot) und mit Hilfe von Quanten-Repeatern (grün) auch Quantenressourcen (blau) integriert und über eine KI-gesteuerte Orchestrierungsschicht mit passenden Workloads ausgelastet werden.
In der IT-Infrastruktur der Zukunft könnten verteilt lokalisierte HPC- (rot) und mit Hilfe von Quanten-Repeatern (grün) auch Quantenressourcen (blau) integriert und über eine KI-gesteuerte Orchestrierungsschicht mit passenden Workloads ausgelastet werden.
(Bild: NCB/VIRZ)

Will man Quanteninformationen über beliebig lange Strecken transportieren, um sie auf in der verteilten Infrastruktur integrierten Quantencomputern rechnen zu lassen, braucht man allerdings Quanten-Repeater. Sie arbeiten wie Quantencomputer nahe dem absoluten Nullpunkt und sorgen für eine durchgehende Quantenverschränkung entlang der Transportstrecke.

Quanten-Repeater aus Deggendorf

Die Technischen Hochschule Deggendorf (THD) zusammen mit dem VIRZ arbeiten derzeit an einem solchen Konzept. Sollte es gelingen, die Komponenten praxisreif zu machen und mit ihrer Hilfe nachweislich längere Strecken zuverlässig zu überbrücken, steht dem Aufbau einer hocheffizienten Computing-Infrastruktur aus HPC und Quantencomputern zumindest technisch nichts Grundsätzliches mehr im Weg.

Zusammen mit einer orchestrierenden KI sollte es dann möglich sein, mittels der skizzierten verteilten Infrastruktur Applikationen aller Art auf der jeweils für sie optimalen Infrastruktur mit ungeahnter Leistung und Effizienz abzuarbeiten. Die Folge wäre eine dramatisch erhöhte Wertschöpfung bei gleichzeitig deutlich verringerten negativen Umwelteinflüssen.

(ID:49733520)