Uptime-Intelligence-Studie zum Stomsparen bei der Rechenzentrums-IT Weder knapp noch leicht: Hardware kann Energie sparen - große Mengen

Von M.A. Jürgen Höfling 6 min Lesedauer

Anbieter zum Thema

Das energetische Einsparpotenzial in den Server-Schränken eines Rechenzentrums ist gewaltig; es lässt sich aber weder einfach identifizieren noch einfach aktivieren. Eine neue Studie des Uptime-Institute gibt immerhin einige „Key Insights“.

Theoretische Einsichten für eine (hoffentlich) bessere Praxis: 5 Key insights des Uptime-Instituts in Sachen Server-Effizienz. (Bild:  DOERS - stock.adobe.com)
Theoretische Einsichten für eine (hoffentlich) bessere Praxis: 5 Key insights des Uptime-Instituts in Sachen Server-Effizienz.
(Bild: DOERS - stock.adobe.com)

In ihrem Report „Server Energy Efficiency: Five Key Insights“ vom Mai 2023 wollen die Uptime-Institute-Analysten Tomas Rahkonen und Jay Dietrich „den Unternehmen qualitative Entscheidungshilfen zur Einschätzung der Energiesparpotenziale in den Server-Bereichen ihrer Rechenzentren“ liefern. Schließlich seien Server für mehr als die Hälfte des Energieverbrauchts in einem modernen Rechenzentrum verantwortlich.

„SERT“ als Basis der Analyse

Der Report analysiert die Effizienz von Mainstream-Servern, die auf „Epyc“-Prozessoren von AMD und „Xeon“-Prozessoren von Intel aufgebaut sind, anhand von anonymisierten Daten aus der Datenbank „The Green Grid´s Server Efficiency Rating Tool“ (SERT). The Green Grid ist eine Organisation aus dem Dunstkreis des Information Technology Industry Council.

Die Analyse basiert auf einem der SERT-Worklets (server-side Java, SSJ), das eine Online-Transaktions­verarbeitungs­anwendung simuliert und nach Darstellung der Uptime-Institute-Leute eine Anwendung darstellt, „die sowohl die Prozessoren als auch den Speicher belastet“. Im Vergleich zu anderen SERT-Worklets bestehe ein zusätzlicher Vorteil dieses Worklets darin, dass SSJ-Daten für acht Stufen (statt vier) der Serverauslastung (12,5 Prozent, 25 Prozent, 37,5 Prozent, 50 Prozent, 62,5 Prozent, 75 Prozent, 87,5 Prozent und 100 Prozent) zur Verfügung stehen, was eine detailliertere Analyse ermögliche.

Die SERT-Suite könne als Industriestandard für die Messung der Server-Effizienz bezeichnet werden und die SERT-Daten seien leicht zugänglich, sagen die Autoren der Studie. Überdies bezögen sich die verbindlichen Anforderungen an die Server-Effizienz, die in der Ökodesign-Richtlinie der EU und im Energy-Star-Programm der USA zu finden seien, auf eben diese SERT-Gesamteffizienz-Kennzahl.

Ausführlichere SERT-Daten (einschließlich SSJ-Daten) könnten darüber hinaus auf einfache Weise bei den teilnehmenden Server-Anbietern angefordert werden, darunter Unternehmen wie Cisco, Dell, HPE und Lenovo. In dem hier besprochenen Uptime-Report wurden drei Server-Generationen der Epyc- und Xeon-Reihen untersucht, nämlich solche aus den Jahren 2017, 2019 und 2021.

Angaben zur Methodologie und der verwendeten Metrik

Die in dem Bericht benutzte Metrik, nämlich SSJ-Transaktionen in einer Sekunde pro Watt, stellt, wie die Autoren einräumen, nur eine unter mehreren möglichen Metriken dar, sie habe aber den großen Vorteil, dass sich die entsprechende Kennzahl leicht für jeden Server in der SERT-Datenbank berechnen lasse, da dort die erforderlichen Daten zur Verfügung gestellt würden (Stromverbrauch in Watt, SSJ-Transaktionen pro Sekunde sowie SSJ-Transaktionen pro Sekunde für jede Stufe der Serverauslastung). Eine 50 prozentige Steigerung dieser Server-Effizienz-Kennzahl bedeute, dass ein Server 50 Prozent mehr IT-Arbeitslast ohne Anstieg des Energieverbrauchs oder dass er die gleiche IT-Arbeitslast mit 33 Prozent weniger Energie abarbeiten könne.

Anhand dieser Daten habe man Strategien identifiziert, die anhand von Auslastung und Server- Refresh eine signifikante Gesamtverbesserung der IT-Energie-Effizienz eines Rechenzentrums erzielen. Aus Übersichtsgründen habe man keine realen Schwankungen in der Auslastung (wie Wochenendem und Ferienzeiten) berücksichtigt, sondern habe sich auf die Beziehung von Server-Auslastung und Energie-Effizienz konzentriert. Viele Betreiber setzten ohnehin mehrere, verschieden strukturierte Arbeitslasten auf jedem Server ein, um Schwankungen (so weit wie möglich) auszugleichen und stabile (möglichst hohe) Auslastungsniveaus zu erhalten.

Komplexe Wechselwirkung von Arbeitslast und Energie-Effizienz

Die Ergebnisse, die in dem Report referiert werden, sind sehr detailliert und ob ihrer Kleinteiligkeit und der vielen „Wenn und Abers“ in der Darstellung eher schwierig in der Praxis umzusetzen, beispielsweise für eine Auditierung in Sachen Energie-Effizienz. Aber zugegeben: es sind ziemlich viele Parameter zu berücksichtigen, und generell stehen Energie-Effizienz und Arbeitslast in einer komplexen Wechselwirkung.

Konkret heißt das beispielsweise: Wenn bestimmte Server-Modelle Energie-effizienter sind, folgt daraus nicht unbedingt, dass sie bei einer bestimmten Arbeitslast weniger Energie verbrauchen als ein Vorgängermodell, sondern nur, dass sie mit der gleichen Energiemenge höhere Arbeitslasten verarbeiten können. Die Uptime-Analysten weisen deshalb darauf hin, dass Facility-Teams im Einzelfall sehr genau beobachten müssen, wie sich der tatsächliche Energieverbrauch bei einem bestimmten Servertyp im Rechenzentrum entwickelt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Das Uptime Institute hat in diesem Frühjahr den Report „Server Energy Efficiency: Five Key Insights“ veröffentlicht. (Bild:  Uptime-Institut)
Das Uptime Institute hat in diesem Frühjahr den Report „Server Energy Efficiency: Five Key Insights“ veröffentlicht.
(Bild: Uptime-Institut)

Von den Analysten wird beispielsweise ausdrücklich erwähnt, dass sich die „Energie-Effizienz zwischen den Server-Generationen verbessern kann, selbst wenn Modelle verglichen werden, bei denen die Rechenkapazität nicht erhöht wurde“. Eigentlich hätte man solches schlicht erwartet, tatsächlich scheint diese Tatsache aber eher die Ausnahme zu sein und insofern besonders erwähnenswert.

Beispielsweise könne ein Intel-Server des Jahrgangs 2019 mit einer maximalen Kapazität von drei Millionen SSJ-Transaktionen pro Sekunde (im Durchschnitt) effizienter sein als ein Intel-Server von 2017 mit der gleichen maximalen Arbeitskapazität. Im Gegensatz dazu seien die energetischen Verbesserungen von Servern aus dem Jahr 2019 zu Servern aus dem Jahr 2021 gering bis nicht vorhanden, sprich in diesem Fall zeigt sich die verbesserte Energiebilanz nur, wenn man mehr Arbeitslast auf den Server schickt.

Im Allgemeinen und Besonderen

Ganz generell steigt die Energie-Effizienz eines Servers im Allgemeinen um 50 Prozent, wenn die Prozessorauslastung von einem niedrigen Niveau (20 Prozent bis 30 Prozent) verdoppelt wird. Und ein Sprung von zwei Server-Technologie-Generationen kann zu erheblichen Energie-Effizienzsteigerungen führen (150 Prozent bis 300 Prozent für AMD und 50 Prozent bis 100 Prozent für Intel), die sich aber vor allem dadurch zeigen, dass die entsprechenden Server höhere Arbeitslasten bei gleichbleibendem Energieverbrauch bewältigen.

Energie-Effizienz-Optimierer müssen also in erster Linie intelligente Konzepte zur besseren Arbeitslastverteilung beziehungsweise zur Komprimierung von Arbeitslasten auf weniger Server entwickeln. Und sie müssen nicht zuletzt leerlaufende Server identifizieren und abschalten. Das ist freilich eine Aufgabe, die leichter formuliert als ausgeführt ist.

Energiemanagement-Funktionen werden zu wenig genutzt

Diskutiert werden in dem Report auch Maßnahmen zum Energie-Management. Durch ein solches Energie-Management reduziert man den Energieverbrauch eines Prozessors auf zwei Arten:

  • Reduzierung der Kern- oder CPU-Spannung und -Frequenz bei geringer Auslastung
  • Nicht benötigte Kerne werden in einen stromsparenden (Leerlauf-) Zustand versetzt.

Die Autoren stellen fest, dass ihrer Erfahrung nach Energie-Management-Funktionen eher selten genutzt werden, da viele Akteure fürchten, dadurch Latenzprobleme zu erzeugen und in der Folge mit entsprechenden Finanz- und Reputationsschäden konfrontiert zu werden. Auf jedem Fall bedeutet das Einschalten der Energie-Management-Funktionen (geistige) Mehrarbeit, weil man unter anderem latenzsensible Arbeitslasten von solchen trennen muss (oder sollte), die auch mit längeren Latenzzeiten auskommen.

Hinweis:

Auch bei VMware macht man solche Erfahrungen:

Die Podcast-Folge #2: Björn Brundert, VMware: "Nachhaltigkeit gehört seit jeher zur DNA unserer Produkte" findet sich auf Spotify, Apple Podcasts, Deezer, Amazon Musik und Google Podcasts.

Dass die Verwendung von Energie-Management-Funktionen Energie spart, ist indes unbestreitbar. Die größten Einsparungen liegen zwischen 15 und 19 Prozent und treten im Bereich von 25 bis 60 Prozent Auslastung auf, haben die Uptime-Experten errechnet.

Und die Uptime-Leute weisen in dem Report darauf hin, dass einige (Regulierungs-)Behörden aktiv den Einsatz von Energie-Management fördern. So empfählen beispielsweise die zuständigen Behörden in den Niederlanden Server-Energie-Management als Best-Practice-Maßnahme, die implementiert werden sollte, wenn sie für die Arbeitslasten machbar sei und wenn die Rentabilität der Investition fünf Jahre oder weniger betrage.

Des Weiteren werde der Einsatz von Energie-Management auch im Verhaltenskodex der EU als Teil des Leitfadens für Rechenzentren zur Verbesserung der Energie-Effizienz empfohlen. Zudem sind Energie-Management-Systeme auch im geplanten Energie-Effizienzgesetz (EnEfG) vorgesehen. Auf der Grundlage von Beobachtungen aus mehreren Projekten gehen die Uptime-Leute davon aus, dass Energie-Management die Energie-Effizienz eines Servers um mindestens 10 Prozent (und in einigen Fällen mehr als 15 Prozent) verbessert.

eBook

Datacenter unter Druck

Grüner geht's nicht. Oder doch?

Grüner geht's nicht. Oder doch?
eBook: Grüner gehts nicht. Oder doch?
(Bild: DataCenter-Insider)

Die Datacenter-Branche zählt in puncto Nachhaltigkeit klar zur Avantgarde: turbodigitalisiert, fieberhaft datengetrieben, eifrig bemüht zu innovieren. Alles „im grünen Bereich“ also? Wohl kaum.
Der EnEfG-Entwurf enthält neben neuen Vorgaben hinsichtlich der Energie-Auditpflicht erstmals Anforderungen an die Energie-Effizienz von Rechenzentren. Wer diese Vorgaben erfüllen will, muss alle Register ziehen. Doch um wirklich an allen Stellschrauben zu drehen, muss man sie erst einmal finden.
Hier das Inhaltsverzeichnis des eBook:

  • Zwischen Innovationsfieber und Regularien: „Geht nicht“ gibt‘s nicht
  • Stellschrauben der Energie-Effizienz
  • Nichts wird so heiß gerechnet. Luft, Wasser & Co.
  • Gleich(strom) und Gleich(strom) gesellt sich gern
  • Wohin jetzt mit der der Abwärme?
  • Nachhaltige Digitalisierung: Wie Rechenzentren für Erfolg sorgen können

Die Quintessenz des vorliegenden Reports ist – schnoddrig formuliert – folgende: Energie-Einsparungen im Server-Bereich eines Rechenzentrums sind möglich, und zwar nicht zu knapp, aber sie kommen nicht von allein, sprich nicht allein durch den Erwerb neuer Hardware. Die Verantwortlichen in den Rechenzentren müssen den Willen zum Sparen haben und dafür gute Konzepte entwickeln: in erster Linie, um Arbeitslasten optimal zu verteilen und um sinnlos vor sich hin rödelnde Server zu identifizieren und abzuschalten.

Artikelfiles und Artikellinks

(ID:49595153)