Energieverbrauchsoptimierung bei Rechenzentren Uptime-Empfehlung: Weniger Cores, weniger Leerlauf

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Ulrike Ostler

Wer heute den Stromverbrauch von Rechenzentren wirksam senken will, muss an die IT heran, denn die Kühltechnik ist nahezu ausgereizt. So jedenfalls eine aktuelle Studie des Uptime-Institute und des IEEE.

Anbieter zum Thema

Mehr Server, Speicher und Netzkomponenten verbrauchen mehr den Strom in RZs
Mehr Server, Speicher und Netzkomponenten verbrauchen mehr den Strom in RZs
(Bild: gemeinfrei Pixabay / Pixabay )

Rechenzentren verbrauchen Strom. Viel Strom. Und der Verbrauch wächst. Aktuelle Daten und Prognosen dazu liefert in Deutschland die Antwort auf eine Anfrage der Grünen an den Deutschen Bundestag aus dem Jahr 2019 (WD8-3000-041/19). Sie beruft sich wiederum auf einschlägig bekannte Quellen, beispielsweise eine Studie zum Thema Datacenter-Stromverbrauch, die der grüne Think Tank Borderstep aus Berlin im Jahr 2017 lieferte, und auf Daten des FH IZM Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration).

Danach lag der Stromverbrauch von Rechenzentren im Jahr 2017 bei 13,2 Terawattstunden (TWh), seit 2010 (10,9 TWh) ein Anstieg um rund 25 Prozent. Den Datacenter-Energiebedarf im Jahr 2025 beziffert die Studie der Wissenschaftlichen Dienste des Bundestages auf 16,4 TWh – trotz aller Effizienzsteigerungen beim Kühlen und Klimatisieren.

Viel rechnen heißt heute: Viel Energie verbrauchen

Die Bundestags-Studie stellt fest: „Diese… Steigerung ist maßgeblich auf eine Erhöhung des Energiebedarfs von Servern, Storage und Netzwerktechnik … zurückzuführen.“ Sie beruft sich auch dabei auf FH IZM und Borderstep. Wer viel rechnen will, muss bislang also schlicht auch viel Energie verbrauchen.

Doch Klimaschutz tut Not, und damit auch die Notwendigkeit, Energieverbrauch so weit wie möglich zu optimieren. Genau mit diesem Thema befasst sich eine soeben veröffentlichte aktuelle Untersuchung des Uptime Institute („Beyond PUE: Tackling IT`s wasted Terawatts“).

Ausgewertet wurde hier die Befragung von 300 Rechenzentren aus unterschiedlichen europäischen Ländern. Sie dürften vor allem in Deutschland, Frankreich und Großbritannien stehen – dies deshalb, weil sich in diesen drei Ländern laut der Studie des Wissenschaftlichen Dienstes des Bundestages 60 Prozent der Rechenzentren Europas ballen.

Uptime-Studie untersucht europäische Datacenter unterhalb von Hyperscaler-Dimensionen

Die an der Uptime-Institute-Untersuchung beteiligten Rechenzentren haben meist nicht die Dimensionen der Rechenzentrumsgiganten von Google oder AWS. Vielmehr entsprechen sie eher den Größenordnungen, wie sie wohl in vielen, speziell mittelständischen Firmen vorkommen: 80 Prozent der untersuchten Rechenzentren haben weniger als 25 Racks, 17 Prozent 25 bis 125 Racks und nur drei Prozent mehr als 150 Racks.

Zwischen 2010 und 2017 hat sich in Deutschland der Strombedarf von Rechenzentren um etwa ein Viertel erhöht
Zwischen 2010 und 2017 hat sich in Deutschland der Strombedarf von Rechenzentren um etwa ein Viertel erhöht
(Bild: Borderstep)

In diesen Datacenter wird laut Uptime Institute Energie heute vor allem mit Hilfe von Methoden und Prozessen gespart, die möglichst wenige und höchstens schrittweise Investitionen erfordern. Vor großen strategischen Entscheidungen in Sachen Energie-Einsparung schrecken die Befragten jedoch zurück. Eingriffe in die IT selbst werden tunlichst vermieden. Das diagnostiziert die Untersuchung schlicht als „falschen Management-Fokus auf die Infrastruktur“.

Abwärmenutzung und Wasserkühlung? Noch immer kein Thema!

Ein praktisches Beispiel dafür sind die Themen Abwärmenutzung und Wasserkühlung: Spezialisten können noch so sehr dazu raten, sich in diese Richtung zu bewegen – abgesehen von einigen Pilotprojekten meist im Universitäts- und Forschungsbereich tut sich hier wenig bis nichts.

Und dies, obwohl führende Technik dazu von deutschen Mittelständlern entwickelt wurde und wird, die in den vergangenen Jahren immer wieder auf einschlägigen Veranstaltungen präsentiert wurde. So auch auf der vergangenen Kongressmesse „Future Thinking“. Der Einsatz derartiger Produkte könnte also nicht nur den Rechenzentrumsbetreibern, sondern auch der hiesigen Wirtschaft dabei helfen, endlich einmal in einem IT-nahen Bereich wieder die Nase vorn zu haben.

Der Autor des Papiers, Rabih Bashroush, Forschungsdirektor beim Uptime-Institute, begründet die Zurückhaltung der Anwender im vertiefenden E-Mail-Interview mit der Autorin mit fehlenden Wärmenetzen und -verbrauchern und einem fehlenden Match zwischen Erzeugung und Verbrauch. Von der Möglichkeit, Wärme in Kälte umzuwandeln, ist erst gar nicht die Rede.

In der IT selbst stecken gigantische Einsparpotentiale

Auch ohne solche Technologien warten, so schreibt Bashroush in dem Papier, in der IT gigantische Energie-Einsparungspotentiale. Nutze man sie voll aus, ließen sich sowohl der CO2-Fußabdruck als auch den Energieverbrauch signifikant verringern. Das bedeutet: weniger Kosten für Strom, Kühlung, USV-Systeme.

Ein Grund für die Annahme: Überaltertes IT-Equipment verbrauche, so die Studie, 66 Prozent der IT-Energie, leiste aber nur sieben Prozent der Rechenarbeit. Daran etwas zu ändern sei aber nicht Sache beispielsweise der IT-Administratoren, sondern des höheren Managements.

Multicore im Leerlauf

Allerdings relativiert die das Uptime-Institute den Rat, „alte“ Server schneller auszutauschen, wegen der in der Regel nicht gut ausgelasteten Multicore-Architekturen neuerer Systeme. In den letzten Jahren sei nämlich der Leerlauf-Verbrauch von Servern stetig angestiegen, und der rühre von dem jeweils hohen Idle-Verbrauch schlecht ausgelasteter Cores her, die sinnlos vor sich hindaddeln. Dieser Einfluss sei so stark, dass er alle Leistungsgewinne bei den Prozessoren aufzehrt.

Bis zum Jahr 2025 soll der Strombedarf deutscher Rechenzentren auf 16,4 TWh steigen
Bis zum Jahr 2025 soll der Strombedarf deutscher Rechenzentren auf 16,4 TWh steigen
(Bild: FH IZM, Borderstep, Bundestag)

Weniger im Leerlauf befindliche Rechner seien, so das Uptime-Institute weiter, am ehesten solche mit einer herabgesetzten Core-Zahl. Nur auf mehr Leistungseffizienz beim Server zu achten, bringe aus diesem Grund wenig.

Nicht die Zahl der Kerne zählt

Bashroush empfiehlt daher, die Erneuerung von Serverhardware zu optimieren. Ein Modell, das hilft, optimale Austauschzeitpunkte beziehungsweise Nutzungsdauern zu berechnen, hat er bereits entwickelt und publiziert („A Comprehensive Reasoning Framework for Hardware Refresh in Data Centers“, 2018). Es berücksichtigt – umgerechnet in Energieverbrauch – den gesamten Lebenszyklus der Geräte.

Außer Betracht bleiben Emissionen bei Rohstofferzeugung und Entsorgung samt ihrer Auswirkungen, insoweit sie sich nicht in Form von Energieverbrauch abbilden lassen. Ein Beispiel wäre nicht mehr vorhandenes Ackerland dort, wo das Rohstoffe für die Geräte abgebaut werden.

Bashroush empfiehlt Anwendern dringend, die Auslastung ihrer Systeme auf mindestens 40 Prozent zu erhöhen. Heute liege sie, so Bashroush, trotz Virtualisierung und aller Appelle noch immer bei nur rund 25 Prozent. Drei von vier Rechnern wären also überflüssig, wenn es – hypothetisch – gelänge, eine Vollauslastung zu erreichen. Auch 50 Prozent Auslastung würde immer noch ein Viertel der heute benötigten Server überflüssig machen.

Zu viel Redundanz

Bei der Redundanz werde, so die Untersuchung, dagegen häufig zu viel getan. Wer die bestmöglichen Methoden nutze, um ein an die Bedeutung der Daten angepasstes Redundanzlevel zu finden und zu realisieren, könne bis zu 90 Prozent Energie sparen. Man könnte auch sagen: Nicht jedes Katzenvideo und jede E-Mail-Einladung in die Kantine muss drei- bis vierfach gesichert und zehn Jahre gespeichert werden.

Kleineren Rechenzentren – denen bis 25 Racks – rät Bashroush zum Umzug in ein Co-Location-Rechenzentrum oder in die Public Cloud. Schließlich empfiehlt die Uptime-Institute-Studie, das Thema Energie-Einsparung ressortübergreifend anzugehen. Sowohl verschiedene IT-Disziplinen als auch verschiedene Bereiche der Unternehmensorganisation müssten gemeinsam ans Werk gehen, um gute Ergebnisse zu erzielen.

Energie-optimierte Software? Fehlanzeige!

Ein weiteres Thema lässt die Studie ebenfalls aus, weil es, so Bashroush im E-Mail-Interview, deren inhaltliche Reichweite überschreite: Energie-optimierte Software. „Software-Ingenieure haben nicht die richtigen Design-Tools, um beim Entwurf über den Energieverbrauch nachzudenken. Außerdem erscheint Energie-Optimierung nicht in den Anforderungen der Software.“ Hier müsse also noch viel getan werden.

Artikelfiles und Artikellinks

(ID:46323270)