Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Was der Server schafft, was er schaffen könnte Was ist Serverauslastung?

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Ulrike Ostler

Tut der Server wirklich so viel wie er könnte? Oder liegen die meisten Ressourcen brach? Das Maß dafür ist die Serverauslastung.

Eine möglichst hohe Serverauslastung ist ökonomisch und umweltfreundlich.
Eine möglichst hohe Serverauslastung ist ökonomisch und umweltfreundlich.
(Bild: © djama - stock.adob.com)

Server sind der Kern jeder IT-Infrastruktur. Wie viel und wie gut sie arbeiten entscheidet neben einigen anderen Faktoren maßgeblich darüber, wie schnell die anliegenden Tasks abgearbeitet werden.

Gleichzeitig entscheidet die Nutzung der Server aber auch darüber, wie viel Energie für die jeweiligen Aufgaben verbraucht wird. Je besser Server ausgelastet sind, desto weniger Server mit ihrem jeweils eigenen Stromverbrauch müssen nämlich laufen, damit alles erledigt wird.

Das Maß dafür, ob ein Server wirklich so viel arbeitet wie er könnte, ist die Auslastung. Eine möglichst hohe Auslastung gehört zu den Merkmalen eines nachhaltig betriebenen Rechenzentrums.

Wie misst man die Auslastung?

Gemessen wird die Auslastung als Verhältnis der bei den individuell vorhandenen tatsächlich möglichen Leistung zur real abgeforderten in Prozent. Sie zu berechnen, übernehmen Performance- und Ressorucen-Management- Tools, die es von zahlreichen Software-Anbietern und als Open-Source-Variante gibt.

Wer meint, inzwischen erreiche die Auslastung Top-Werte, irrt. In gut gemanagten Infrastrukturen liegt die Auslastung heute maximal um die 60 Prozent, im Durchschnitt sind es nach Daten des IT-Consulting-Unternehmens Compass 45 Prozent. Praktiker berichten aber durchaus, dass mancherorts auch 30 Prozent schon als sehr akzeptabler Wert gelten.

Ohne Virtualisierung drohen Mini-Auslastungen

Dass höhere Auslastungswerte heute überhaupt erreicht werden, liegt in erster Linie an Virtualisierungstechnologien und die daraus folgende Serverkonsolidierung. Vorher nämlich wurde jede wichtige Applikation auf einem separaten Server untergebracht – mit der zwangsläufigen Folge, dass die Auslastung gelegentlich kaum die Zehn-Prozent-Marke überschritt. Was für eine Verschwendung!

(Unter anderem hat sich damit auch das Umweltbundesamt beschäftigt: „Neue Kennzahlen für Rechenzentren aus dem Umweltbundesamt; KPI4DCE vom UBA statt PUE? Schwierig, aber machbar!“) Die neuere Form der Virtualisierung mithilfe von Softwareconainern führt zumeist zu einer wesentlich höheren Auslastung der Server, was dazu geführt hat, dass einige Anwenderunternehmen ihren Dienstleistern, die Compute-Ressourcen bereitstellen, nicht nur eine Ober- sondern auch eine Untergrenze in die Service Level Agreements schreiben.

Andererseits berichten Co-Location-Anbieter, dass die Server vieler Kunden nach wie vor kaum ausgelastet sind. Die Kunden wollen „Luft nach oben“, Sicherheit für den Fall, dass urplötzlich mehr Rechen-Power notwendig würde. Nach Angaben der Serverhersteller sind Auslastungen von 80 oder 90 Prozent jedenfalls kein Problem. Von einer 100prozentigen Auslastung berichten nur Betreiber von Krypto-Mining-Sites, die ihre Mining-Rigs derart fordern.

Besonders prekär wird die Frage der Serverauslastung, wenn Server – wie das in Cloud-Umfeldern durchaus häufig vorkommt – gar nicht (mehr) benötigt werden und mit Auslastung Null sinnlos vor sich hin „idlen“. So verschwenden sie Ressourcen und verursachen unerwünschte Kosten. Derlei kann allerdings durchaus auch in internen IT-Infrastrukturen passieren.

Performance- und Ressourcen-Monitoring sorgen für Klarheit

Als Faustregel darf gelten: Je einfacher ein Server unkontrolliert von der IT ins Leben gerufen werden kann und je löchriger das Monitoring der internen oder Cloud-Ressourcen, desto eher üben reichlich Server keine sinnvolle Funktion mehr aus.

Sie drücken damit den übergreifenden Serverauslastungsgrad in skandalöse Tiefen. Ganz einfach, weil sie nach vollbrachter Arbeit nicht gelöscht oder für anderweitige Aufgaben freigegeben wurden.

Deshalb ist ein kontinuierliches Performance und Ressourcen-Management in professionellen IT-Infrastrukturen ein Muss. Solche Werkzeuge sparen bares Geld, indem sie nicht (mehr) notwendige Infrastrukturkomponenten erkennbar machen. Gleichzeitig sorgen sie dafür, dass nicht einzelne Server ständig überlastet werden und so zu Störungen im Ablauf führen.

Redundanz versus Auslastung

Hohe Redundanzanforderungen tragen maßgeblich zu geringen Auslastungen bei: Wer alle Server in einer Aktiv-Aktiv-Konfiguration in eigenen Ersatz-Rechenzentren redundant betreibt, landet unweigerlich bei maximal 50 Prozent Auslastung, in Dreifach-Konfigurationen bei einem Drittel. Schließlich wird für die eigentliche Arbeit jeweils nur einer der jeweils mehreren Server gebraucht.

Hier liegt ein Vorteil von Cloud-basierten Redundanzkonzepten für Server: In der Cloud werden Serverressourcen vom Provider bereitgestellt. Und zwar so, dass dafür möglichst wenig Ressourcen verbraten werden, ohne das angestrebte Verfügbarkeitsziel zu gefährden.

Flexible Cloud-Ressourcen können Auslastung erhöhen

Gegebenenfalls werden (in der Regel als virtuelle Maschinen implementierte) Server auch innerhalb der Provider-Infrastruktur verschoben, um die Auslastung der physischen Ressourcen zu verbessern. Anwender merken davon nichts - zumindest sollte das so sein. Das liegt direkt im ökonomischen Interesse des Provider, der seine Infrastruktur möglichst optimal ausnutzen will.

(ID:47080696)

Über den Autor

lic.rer.publ. Ariane Rüdiger

lic.rer.publ. Ariane Rüdiger

Freie Journalistin, Redaktionsbüro Rüdiger