Interview mit Michael Winterson, Board Member - The European Data Centre Association

Rechenzentrumseffizienz - 99 Prozent Auslastung sind unmöglich

| Autor / Redakteur: Dr. Dietmar Müller / Dietmar Müller

Die Erhöhung der Effizienz von Rechenzentren steht im Mittelpunkt des Denkens aller Betreiber.
Die Erhöhung der Effizienz von Rechenzentren steht im Mittelpunkt des Denkens aller Betreiber. (Bild: gemeinfrei, geralt/Pixabay / CC0)

Die Erhöhung der Effizienz von Rechenzentren steht im Mittelpunkt des Denkens aller Betreiber. Wie kann der PUE-Wert noch weiter verbessert, wie der Stromverbrauch weiter reduziert werden? Welche Hebel lassen sich am effektivsten bewegen? Das sind auch die Fragen an Michael Winterson, Managing Director Equinix Services sowie Board Member der European Data Centre Association. Die Software der Zukunft sieht er in diskrete Bausteine zerlegt.

Michael Winterson stellte seine Antworten unter ein von John Kenneth Galbraith ausgegebenes Motto: „Die konventionelle Sichtweise dient dazu, uns vor der schmerzhaften Arbeit des Denkens zu schützen.“

Im Interview erläutert er, warum eine Server-Auslastung kaum über 80 Prozent getrieben werden kann. Gleichzeitig dämpft er die Erwartungen, die in Container und Microservices gesetzt werden.

Die Effizienz von Rechenzentren (RZ) ist in den Mittelpunkt des Interesses von Betreibern gerückt – nachdem viele infrastrukturelle und architektonische Maßnahmen ergriffen und zum Teil ausgereizt wurden, nimmt man sich nun die Software der Server vor – die Nutzung der Racks soll maximiert werden, eine vollständige Auslastung wäre wünschenswert. Aber ist das auch machbar?

Michael Winterson: Im Prinzip basiert der Skaleneffekt in einer Hyperscale-Umgebung wie für Public Clouds auf eben jenem Paradigma. Durch kompetenten Ausgleich der Auslastung sowie hoch modulare und granulare Software-Implementierungen kann eine effiziente Server-Auslastung erreicht werden – vorausgesetzt, dass alle Anwendungen und Workloads für die Nutzung moderner Einrichtungen geeignet sind.

In den meisten Anwendungsumgebungen ist dies jedoch noch nicht der Fall. Um das zu erreichen, müssen Kunden nicht nur Workloads auf IaaS-Services in die Cloud „heben und verschieben“, sondern auch ihren gesamten Software-Stack neu strukturieren, um in parallelen Computerumgebungen modularer und effizienter agieren zu können.

Dennoch müssen wir eine gewisse Reserve von ungenutzten CPU-Zyklen berücksichtigen, um Ausfälle oder Spitzenlasten zu vermeiden. Kurz gesagt: Eine durchschnittliche CPU-Auslastung von 99 Prozent ist nicht möglich – aber bis zu 80 Prozent im Durchschnitt halte ich für realistisch.

Container werden als das große neue Ding in der Entwicklung gehandelt. Sie sollen noch viel mehr als virtuelle Maschinen (VM) dazu beitragen, Server maximal auszulasten. Wir haben dazu viele euphorische Stimmen vernommen – was meinen Sie?

Michael Winterson: Solange wir nur über Workloads sprechen, ist es gut möglich, dass Container dazu beitragen können, den oben beschriebenen hoch modularen Software-Ansatz zu ermöglichen und damit auch die durchschnittliche Auslastung im Rechenzentrum zu erhöhen. Dennoch: Viele der Kapazitäten in einem Rechenzentrum sind nicht für reine CPU-Leistung ausgerichtet, sondern auch für Speicher- und Netzwerkdienste vorgesehen. Diese Services werden zunehmend in Anspruch genommen, wenn es darum geht, containerisierte Workloads bereitzustellen.

Selbst wenn es möglich ist, Workloads mithilfe von Containern von Cloud zu Cloud zu verschieben, müssen die zu verarbeitenden Daten migriert werden. Da Daten sowohl einen Standort als auch Gravitation besitzen, ist es schwierig, diese zu bewegen – vor allem in Anbetracht der großen Datenmengen, die durch moderne Anwendungen generiert werden.

Um also eine hohe Auslastung der CPU-Leistung und des Speicherplatzes im Rechenzentrum zu erreichen, müssten alle Daten idealerweise an einem Ort bleiben, während nur die containerisierten Workloads um den Datenspeicher wandern – aber ohne dabei die Nähe zu den verarbeiteten Daten zu verlieren, um einen Echtzeitzugriff auf die zu verarbeitenden Daten zu ermöglichen.

Das ließe sich auch so zusammenfassen: Während Container die Bewegung von Anwendungen erleichtern, müssen die Daten folgen. Aufgrund der Größe der Datenmengen ist dies oftmals unmöglich.

Wie wird die Software der Zukunft im Rechenzentrum aussehen?

Michael Winterson: Die Software der Zukunft werden Mikrodienstleistungen sein. Was bedeutet das? So wie wir gesehen haben, wie physische Server auf virtuelle Maschinen - das heißt: viele VMs auf einem Server und in der Lage, Server-übergreifend zu arbeiten - und jetzt auf Container umgestellt wurden, sehen wir auch, dass Anwendungen in kleinere Elemente wie „Zeit“, „Bezahlen“, „Authentifizieren“ unterteilt werden. Anstatt eine Anwendung oder eine Funktion zu entwickeln, kann ich eine Anwendungsprogrammierschnittstelle erstellen und meine Anwendung in eine andere API-fähige Anwendung oder in unterschiedliche Datensätze integrieren. So wird die Software der Zukunft in diskrete Bausteine zerlegt und hochgradig miteinander und mit den dann zugrunde liegenden Datensätzen verbunden.

Michael Winterson, ist Managing Director Equinix Services sowie Board Member der European Data Centre Association.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45581895 / Anwendungen)