Björn Brundert, VMware: „Nachhaltigkeit steckt seit jeher in der DNA unserer Produkte“ Ungenutzt: VMware-Tools und -Techniken zum Energiesparen

Von Ulrike Ostler Lesedauer: 8 min |

Anbieter zum Thema

Björn Brundert, VMware Principal Technologist CEMEA, behauptet, die VMware-Technik habe quasi seit Anbeginn der Servervirtualisierung mit „ESXi“ das Energiesparen in der Datacenter-IT gefördert. Kann das stimmen? Dann hätte jeder, der VMware-Technik im Haus hat, auch Tools und Techniken an der Hand, um zumindest die eigene IT nachhaltiger zu trimmen. Im Interview erläutert Brundert den Stand der Dinge.

Der Elephant im Raum, wenn es um den IT-Betrieb, um Rechenzentrumsinvstitionen geht:  Der Wunsch und der Zwang Energie und Kosten zu sparen, nachhaltiger zu wirtschaften. Doch wie wird die IT leichter?
Der Elephant im Raum, wenn es um den IT-Betrieb, um Rechenzentrumsinvstitionen geht: Der Wunsch und der Zwang Energie und Kosten zu sparen, nachhaltiger zu wirtschaften. Doch wie wird die IT leichter?
(Bild: frei lizenziert: PIRO / Pixabay)

Wenn es stimmt, dass VMware für Kunden immer schon die Möglichkeit mitgeliefert hat, IT energiesparender einzusetzen, quasi frei Haus, warum nutzen das nur wenige? Dass sich mit Virtualisierung Ressourcen besser nutzen lassen, kann hier nicht das alleinige Argument für und von VMware sein.

Bjoern Brundert: Tatsächlich ist aber die Virtualisierung das Grundgerüst, auf dem Vieles aufbaut, egal ob sich das im Edge, in Public, Private oder Hybrid Clouds abspielt. Virtualisierung wird überall genutzt. Und natürlich schauen wir, was sich noch verbessern lässt: die Startzeiten reduzieren, die Konsolidierungsraten der Workloads erhöhen, Server effizienter nutzen, die Zusammenarbeit im Partner-Ökosystem ausbauen, um die jüngsten Technologien auf der Virtualisierungsplattform schnell zur Verfügung stellen. Und natürlich ist die Virtualisierung die Ursache dafür, dass Hunderte Millionen Server erst gar nicht gebaut werden mussten, nicht mit Strom versorgt, gekühlt und wieder abgebaut werden. Ich weiß selbst von Unternehmen, die kein neues Rechenzentrum bauen mussten, weil die Platzgrenze für das Hosting doch nicht erreicht wurde.

Außerdem war Server-Virtualisierung nur der Beginn; es ging ja weiter mit Netzwerk und Storage-Virtualisierung. Damit fällt auch der Aufbau spezifischer Appliances weg, die man aufgrund von Redundanzanforderungen auch noch mehrfach haben müsste. Das fällt alles in die Vision eines Software Defined Datacenter, die wir vor zehn Jahren definiert hatten und trägt sich heute fort in die Edge, wo unter Umständen mit virtuellen Appliances die physischen entfallen – eine Praxis, die heute Gang und Gäbe ist.

Die Technik bereitstellen reicht aber nicht. Heute weiß man, dass die Hardware, angefangen bei der CPU zumeist nur unzureichend ausgelastet ist. Welches sind die Gründe? Angst, die Kapazität reicht im Zweifelsfall nicht? Oder ist es die mangelnde Sichtbarkeit der Verschwendung?

Die Position von Björn Brundert lässt sich auch beschreiben als: Principal Technologist | Office of the CTO, Global Field bei VMware. Für DataCenter-Insider stand er für ein schriftliches und hörbares Interview zur Verfügung.
Die Position von Björn Brundert lässt sich auch beschreiben als: Principal Technologist | Office of the CTO, Global Field bei VMware. Für DataCenter-Insider stand er für ein schriftliches und hörbares Interview zur Verfügung.
(Bild: VMware)

Bjoern Brundert: Wir haben etwa ein Feature „Distributed Power Management“ … Sagen wir der „Vsphere-Cluster“ besteht aus fünf physikalischen Servern, auf denen 100 virtuelle Maschinen laufen. Dann haben diese diverse ‚Nutzungs-Patter‘ – manche werden zur Bürozeit, andere abends stärker in Anspruch genommen. Das Distributed Power Management veranlasst eine Host-Konsolidierung, auf weniger physikalische Server, wenn die VMs nicht arbeiten.

Da kommen Features wie „Motion“ zum Einsatz, also zum Verschieben von VMs zur Laufzeit, über die Lastverteilung mit dem „Distributed Resource Scheduler“ – Dinge, die wir in vSphere seit über zehn Jahren tatsächlich schon hatten, – um letztlich die Server abzuschalten, etwa nachts, wenn sie nicht gebraucht werden. Mit einem Netzwerkbefehl laufen die morgens wieder an.

In der Vergangenheit hieß es eher: „Brauchen wir nicht. Strom ist eh da und kostet nichts.“ Und natürlich bedeutet ein Dauerbetrieb weniger Risiko. Wir sind lang genug in der IT, dass wir wissen, greift man in den scheinbar stabilen Zustand ein, wird das, was schief gehen kann, tatsächlich einmal passieren. Das führt dazu, dass die Features ungenutzt bleiben, aber auch dass andere Möglichkeiten der Ressourcennutzung, etwa das Überbuchen ausgeschlossen werden.

Zwei Dinge lassen auch mich an dieser Stelle zusammenzucken: Risiko und Überbuchung

Bjoern Brundert: In der Virtualisierung wird abstrahiert, eine Softwareschicht über CPUs, Storage, Memory und Netzwerk-Kapazitäten gelegt. Sie weist den Workloads die jeweils notwendigen Ressourcen zu. Zum Beispiel ließen sich alle 20 Cores eines Servers einer Virtuellen Maschine zuweisen, einer anderen aber zudem vielleicht noch einmal fünf oder zehn. Das heißt: In dem Fall werden mehr Cores verteilt oder zugeordnet als physikalisch tatsächlich vorhanden.

Das ist wie bei den Überbuchungen von Flugzeugen. Die Erfahrung zeigt, dass nicht immer alle Passagiere, für die ein Platz reserviert wurde, diesen auch in Anspruch nehmen. Die Fluggesellschaft vergibt also mehr Tickets als eigentlich für einen Flug zur Verfügung stehen. Nur selten führt das zu Konflikten – und auch dafür gibt es Maßnahmen. Man bietet einem Gast Vergünstigungen an, wenn er oder sie einen späteren Flug nehmen. Für die Fluggesellschaft aber führt es garantiert zu einer besseren Auslastung der Flugzeuge.

Wenn jede VM eine Auslastung von 5 oder 10 Prozent hat, dann kann ich 10 zu 1 überbuchen. Für den Fall, dass es auf einem Host zu eng wird, bieten wir Technik an, die schon bevor sich VMs in die Quere kommen, Lasten auf andere Server verschieben. Dieser Monitoring-Prozess läuft fortwährend und überwacht die Auslastung jeder einzelnen virtuellen Maschine und kann umgehend Entlastungsmanöver einleiten. Es kommt nie vor, dass alle VMs alle Ressourcen gleichzeitig benötigen.

Außerdem lassen sich die Workloads priorisieren: Das heißt: Wenn es zu einem Engpass kommt, haben diese in jedem Fall Zugriff auf die CPUs und wir haben Techniken, die erlauben die Memory-Ausstattung maximal zu nutzen: Pages, die angefragt werden, zu verwalten und Zugriffe auf das Betriebssystem, um bereits belegte Pages wieder freizugeben. Somit werden die bereits vom Gastsystem allokierten Speicherbereiche wieder zurückgegeben an den Host, der sie dann anderweitig vergeben kann.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Hinweis:Wir haben das Interview aufgezeichnet und stellen es allen frei zugänglich als Podcast #2 zur Verfügung:

Der Podcast #2 ist auch über Apple und Spotify abrufbar.

Sie hatten die Verdichtung der VMs angesprochen, um gegebenenfalls die physikalischen Server herunterzufahren. Klingt gut, aber macht das auch jemand?

Bjoern Brundert: Zum Beispiel ist das Verschieben von VMs seit Beginn an implementiert. Doch es geht nicht nur um diese Möglichkeit im Hypervisor die Auslastung zu erhöhen; dazu gehören auch die Monitoring-Werkzeuge mit denen sich diese Prozesse im Blick behalten lassen, um die Betriebsprozesse effizienter zu machen. Ich kann zum Beispiel meine physikalischen Maschinen patchen oder Hardwarekonfigurationen ausführen, Cluster aktualisieren, neue Server beziehungsweise ganze neue Servergenerationen quasi geräuschlos hinzufügen, Workloads hin- und herschieben.

Dazu kommen die Management-Tools, mit denen sich etwa eine Kapazitätsplanung bewerkstelligen, beziehungsweise auf diese agile Welt anpassen lässt, zum Beispiel wenn tatsächlicher Ressourcenbedarf und der angelegte auseinanderklaffen.

Welche Tools unterstützen denn nun so etwas wie „green operation“ oder ist bei den Datacenter-Admins Basteln angesagt?

Bjoern Brundert: An dieser Stelle verweise ich auf ein Whitepaper „VMware Distributed Power Management“, das 2013 zu „vSphere 4“ herauskam und auf dem „Distributed Resource Scheduler“ und „vMotion“ aufsetzt (siehe: Kasten), und ein Energie-Management auf Cluster-Ebene ermöglicht. Zum anderen möchte ich „vRealize oprations“ nennen, heute heißt das Tool „Aria Operations“.

Weiterführendes von VMware

Das ist das Betriebs-Tool für Administratoren, welches Performance-Management und Kapazitätsplanung zusammenbringt. Das gibt es aber auch schon seit etwa zehn Jahren. Damit lassen sich Dashboards erstellen, die auch die gewollten Energie-Kennzahlen liefern, zum Beispiel wie viel Watt benötigt eine virtuelle Maschine: Das ist möglich, weil sie Informationen aus dem Netzteil quasi nach oben geliefert bekommen und die im Tool visualisiert werden.

Die Dashboards gibt es als Best Practices quasi vorab konfiguriert? Oder müssen die Administratoren:innen selbst etwa das IPMI anzapfen?

Bildergalerie

Bjoern Brundert: Nein, die sind Teil des Produkts , zunächst aufgenommen in „Vsphere Operations“, jetzt in Aria Operations (siehe: Bildergalerie)

Nach Angaben in einem der VMware-eigenen Podcasts wurde allerdings die Einschränkung genannt, dass nur die SaaS-Version von Aria Operations über diese mehr oder minder fertige Green-Operations-Variante verfügt.

Bjoern Brundert:Tatsächlich gibt es das Aria-Feature, das praktisch alle Kennzahlen zu einer Metrik zusammenfasst (gibt es einen Artikel im VMware-Blog dazu; siehe: Kasten) lediglich als Cloud-Service-Angebot von VMware. Denn hier sind die Release-Zyklen kürzer als für die installierbaren Versionen.

Würden „Flings“ eine On-Premises-Variante ermöglichen?

Bjoern Brundert: Flings sind zumeist kleine Erweiterungen aus der VMware-Community. Diese könnten einmal zu einem Produkt gehören oder auch nicht. Manchmal sind sie für einen temporär begrenzten Einsatz geeignet. Ich wüsste im Moment allerdings nicht, wo ich das finden könnte [Anm. Redaktion:

(siehe: VMware-Podcast mit Valentin Bondzio).

Die produktseitige Unterstützung zum Energiesparen haben wir besprochen. Bei der Umstellung der VMware-Lizenzen von Kauf- auf Miet-Optionen scheint es aber so zu sein, dass die Lizenzpakete für große Anwender einen verschwenderischen Umgang mit VMs begünstigen (siehe: Lizenzmodell-Umstellung bei VMware – was nun?, Webinar mit Jörg Buchholz, Fachvertrieb VMware bei der SVA System Vertrieb Alexander GmbH).

Zum Beispiel ist in „vSphere +“ eine Art All-Inclusive-Lizenz unter einer Artikelnummer mit „vSphere Enterprise Plus“, „vCenter Lifecycle“ und „Cloud Services“, „Tanzu Runtime“, „Tanzu Mission Control Essential“, Support und so viele vCenter-Instanzen wie nötig. vSphere wird lizenziert pro Core und benötigt im Minimum 16 Cores pro CPU. Ein Kunde mit einer 12 Core-CPU muss ein 16-Core-Abo für diese CPU abschließen. Das heißt nichts anderes, als dass mehr Ressourcen zur Verfügung stehen als notwendig.

Bjoern Brundert: Bei Lizenzen kenne ich mich nicht aus und kann demzufolge nichts dazu sagen, was die Umstellung eventuell für den sorgsamen Umgang mit Ressourcen und Energie bedeuten könnten. Aber wir könnten über die Nutzung von Cloud-Services sprechen. Wir haben heute schon Cloud-Provider, die sagen, dass sie so genannte „Zero Carbon Clouds“ bereitstellen. Sie bauen also Clouds mit regenerierbarer Energie.

Eigentlich würde ich an dieser Stelle sehr ungerne darauf einsteigen, weil die intransparenten Angaben der Cloud-Provider von Anwendern schlichtweg nicht überprüfbar sind. Es gibt weder valide Kennzahlen, noch eine Möglichkeit zu sehen, wie Energie-effizient ein Cloud-Rechenzentrum tatsächlich arbeitet oder der grüne Strom aus einem Zertifikat besteht.

Wir als VMware stellen das halt sicher, mit dem Provider. Wir wollen sicherstellen, dass unsere Cloud-Offerings aus Datacenter stammen, die bis 2030 nur mit erneuerbarer Energie laufen. Mit dieser Art „Feature“ bekommt ein Cloud-Anbieter von uns quasi ein Zertifikat, dass sie Teil unseres „Zero-Carbon-Committed“-Programm sind.

Wir wissen zum Beispiel, wo „VMware Azure Solution“ läuft, in welchen Rechenzentren, und das wird dann auf die Angebote heruntergebrochen.

Artikelfiles und Artikellinks

(ID:49190821)