Energie-Effizienz oder Ineffizienz im Rechenzentrum, Teil 1 Echtzeitdaten und Analyse optimieren Energieeffizienz in Datacenter

Autor / Redakteur: Jeffrey Klaus / Ulrich Roderer

IT-Organisationen sind unter starkem Druck, Kosten zu sparen und die Effizienz auf allen Ebenen zu verbessern. Noch immer werden Schätzungen zufolge 24,7 Milliarden Dollar vergeudet für das Servermanagement, Strom und Kühlung für ungenutzte Systeme im Leerlauf. Dies entspricht ca. 15 Prozent der installierten Server.

Anbieter zum Thema

Optimierte Energieeffizienz durch Echtzeitdaten aus den Rechenzentrum.
Optimierte Energieeffizienz durch Echtzeitdaten aus den Rechenzentrum.
(Bild: © Scanrail - Fotolia.com_39177436)

Die durchschnittlichen Stromkosten für einen 400 W-Server liegen bei 800 Dollar und höher. Es ist nicht schwer zu erkennen, wie hoch die Ineffizienz von Rechenzentren sein muss, vor allem wenn man bedenkt, dass Server nur einen Teil des Gesamtproblems darstellen.

Vor jeder Optimierung der Energieeffizienz ist es zunächst notwendig, erst einmal die wirklichen Strom und thermischen Konditionen eines Rechenzentrums unter den aktuellen Workloads zu kennen.

Früher standen den meisten Managern von Rechenzentren nur minimale Strommonitoring-Lösungen zur Verfügung. Viele schätzen den Stromverbrauch und die Effizienz der Kühlung nur nach der Temperatur der zurückgeführten Luft aus Klimaanlagen. Brachte das keine Erkenntnisse, wurde der Stromverbrauch von Racks manuell erfasst. Für zukünftige Planungen wurden Modelle verwendet, die von der Realität um bis zu 40 Prozent abwichen.

Es waren also genauere Methoden gefragt, um zu starke Provisionierung bei Strom und Kühlung zu vermeiden. Der große Fehlerbereich der Modelle machte sie ungeeignet für die Vorausbestimmung von Stromspitzen und anderen kritischen Ereignissen, die zu Fehlern beim Equipment und damit zur Unterbrechung von Services führen können.

Berechnen versus Messen

Ein Problem bei der Berechnung sind die äußerst konservativen Angaben der Hersteller. Sie zielen meist auf Worst-Case Schätzungen und erzeugen somit automatisch eine zu starke Provisionierung. Dabei war es eine offene Frage, wieviel Prozent sich von den Herstellerwerten abziehen lässt, gebräuchlich sind 20 bis 50 Prozent unter Rechenzentrumsbetreibern.

Einige Manager nehmen die Mühe auf sich, die Geräte einzeln zu testen und die Spezifikationen zu überprüfen. Intelligente Stromverteiler (PDUs) liefern zwar einen konstanten Datenstrom, aber dieser muss analysiert und aggregiert werden. Zudem sind diese Daten nur auf den Stromverbrauch begrenzt und beachten nicht die Luftströme und Temperaturmuster im Rechenzentrum.

Artikelfiles und Artikellinks

(ID:38767430)