Blindflug beendet Energie-Monitoring im Rechenzentrum führt zu effizientem Betrieb
Anbieter zum Thema
Es ist noch nicht so lange her, da wurde der Energieverbrauch manch eines Rechenzentrums nicht hinterfragt. Das Rechenzentrum und damit die IT gilt als eine missionskritische Schlüsseltechnologie und der oft üppige Verbrauch von Energie wurde als gegeben hingenommen und stand nicht zur Disposition.

„IT braucht Strom, viel IT braucht viel Strom!“, diese Einstellung war lange anzutreffen. Maschinen dämmerten als hochwertige Heizgeräte im Halbschlaf vor sich hin, die alte Zuordnung „eine Applikation = eine Maschine“ führte dazu, dass die Auslastung kaum ihren Namen verdiente. Riesige Klima-Anlagen führten diese unnütz erzeugte Wärme ab und USV-Anlagen wurden für einen Endausbau angeschafft, der 15 Jahre später nicht ansatzweise erreicht wurde.
Diese Zeiten sind längst vorbei. Natürlich ist auch der Ressourcenverbrauch in Rechenzentren zu einer Größe geworden, die einer Rechtfertigung bedarf. Und auch wenn diese Logik oft vorrangig wirtschaftlichen Überlegungen folgt, profitiert von einem sparsameren Einsatz an Ressourcen auch unser ökologisches System.
Als Gutachter oder Berater kommt man jedoch auch heute manchmal noch in Rechenzentren, gefühlt aus der Zeit der Dinosaurier, und stellt erstaunt fest, wie weit sich moderne Lösungen davon inzwischen wegbewegt haben. Als Messtechnik findet man hier historisch anmutende Drehspuleninstrumente mit Schleppzeigern an den Hauptverteilungen.
Eine Praxis, wie anno tuck
Fragt man die Verantwortlichen nach dem Datacenter-Energieverbrauch, laufen sie zielstrebig zur USV und lesen aktuelle Verbrauchswerte präzise bis auf die zweite Nachkommastelle ab. Darauf hingewiesen, dass dies bestenfalls den Energieverbrauch der IT darstellt und nicht des Rechenzentrums, erkennen sie an dieser Stelle, dass sie sich im Bereich der Klimatisierung oder der USV-Verluste quasi im energetischen Blindflug befinden.
Wer sich mit seiner IT zeitgemäß und ressourcenschonend aufstellen will, braucht valide und verlässliche Messwerte. Denn damit ein Rechenzentrum so Energie-effizient wie möglich arbeiten kann, muss erst einmal geklärt werden, welche Technologie wann wie viel Energie verbraucht und warum.
Nur wer die aktuelle Situation kennt, kann die richtigen Schlüsse ableiten und erkennen, an welchen Stellschrauben Verbesserungspotential herrscht. So müssen für eine objektive Darstellung des Energie- und Ressourcenverbrauchs die wichtigen Verbrauchsdaten permanent erfasst und archiviert werden. Anhand von so gewonnenen Datenreihen ist sichtbar, wie schlimm es tatsächlich ist und wo man die Ärmel hochkrempeln muss.
Das folgerichtige Einführen eines ganzheitlichen Mess- und Monitoring-Konzeptes kann aber zuweilen ernüchternd bis frustrierend sein. Denn nach den langwierigen Prozessen des Aufbaus und der Inbetriebnahme wird erstmalig präsent, wie mies das Datacenter dasteht und wie viel Energie man durch den Schornstein jagt.
So etwas kann aber auch motivieren. Denn meist erzielen erste, oft banal anmutenden Maßnahmen, wie etwa das Verschließen offener Fallgruben im Doppelboden oder konsequente Abtrennung der Kalt- und Warmbereiche in Racks sichtbare Fortschritte und Verbesserungen. Schnell ist erkennbar, dass der eingeschlagene Weg lohnend und konsequent ist. Dann heißt es: Weiter so!
Was und wo messen?
Aber wie findet man nun heraus, wo und was genau gemessen werden soll? Zur Beantwortung dieser Fragen hilft eine strukturierte Vorgehensweise. Für den hier gegenständlichen Energieverbrauch muss man beispielsweise diesen Fragen folgen:
- Wie kommt die Energie herein?
- Wo geht sie hin?
- Und da Energie ja nicht verschwindet: Wohin entweicht sie?
Während aber die beispielhafte Darstellung( siehe: Gafik) ein Bestandssystem mit Stadtgas als Haupt-Energielieferant zeigt, ist heute der primäre Energielieferant zumeist die elektrische Energie.
Ist es damit getan die Energie-Aufnahme der IT zu erfassen? Nein, leider nicht; denn wie zuvor erwähnt, existiert auch neben der IT-Gerätschaft ein großer Energiebedarf, vor allem für die Klimatisierung, ein unverzichtbarer Bestanteil für einen hochverfügbaren IT-Betrieb. Zudem bestehen üblicherweise Redundanzen, bis hin zur kompletten Zweizügigkeit der Versorgungs- und Verteilsysteme – und auch der Kühlsysteme.
Diese Überkapazitäten, insbesondere bei den USV-Anlagen, laufen im Normalbetrieb weit weg von ihrem optimalen Betriebspunkt im Nennlastbereich. Die Auslastung in „Friedenszeiten“ darf beim so genannten Halblast-Parallelbetrieb systembedingt die 50-Prozent-Marke nie überschreiten.
Im Klartext heißt das: Verheizen von Energie durch schlechten Wirkungsgrad, Wandlungsverluste und Abwärme – und im nächsten Schritt weiterer Energiebedarf zur Klimatisierung der USV-Anlagen. Auch hier gilt: Nur wer weiß, wo es wie schlimm ist, kann das Verbesserungspotential identifizieren.
Neben der Ermittlung des Energieverbrauchs müssen weitere Größen in Betracht gezogen werden, wie zum Beispiel der Trinkwasserverbrauch. Heutige Klimakonzepte setzen nicht mehr nur auf klassische Kompressionskälte, vielmehr nutzen sie Verdunstungskälte und benötigen für den Kühlungsprozess Wasser. Das Wasser ist zwar kein Energielieferant, ist aber dennoch eine Ressource. Ein ganzheitliches Betriebsmonitoring erfasst daher auch diesen Verbrauch hinsichtlich der Ver- und Entsorgung.
Energie-Effizienz messen – das Beispiel PUE
Es sind jedoch nicht die nackten Zahlenwerte, die weiterhelfen. Mithilfe der Messwerte müssen systematisch Key Performance Indicators (KPIs) ermittelt werden, Kennzahlen also, die einen Leistungskennwert darstellen. Und nur wer granular und feingliedrig Werte erfasst, erhält eine valide Datenbasis für möglichst umfassende und aussagekräftige KPIs.
Einer der wichtigsten KPIs, die mit Messtechnik darstellbar sein muss, ist der fast schon legendäre Power Usage Effectiveness (PUE) – die Kennzahl , die den Gesamtverbrauch eines Rechenzentrums im Vergleich zum reinen IT-Load darstellt. Verbraucht beispielsweise die IT 100 Kilowatt (kW) und das gesamte Rechenzentrum 180 kW, dann ergibt das einen PUE-Wert von 1,8 – zumindest als Momentaufnahme.
Aber ein in Kilowatt angegebener PUE ist unbrauchbar, da er keine Schwankungen erfasst, die durch tages- oder jahreszeitliche Gegebenheiten entstehen. Natürlich sinkt der Energieverbrauch einer Klima-Anlage mit freier Kühlung im Winter und steigt im Sommer.
Gebraucht wird also ein Langzeitwert, beispielsweise in Kilowattstunden (kWh), der die Leistung und zusätzlich den Zeitraum berücksichtigt. So gewonnene Erkenntnisse über zeitliche Verläufe ermöglichen wichtige Schlüsse über Entwicklungen im Tages- oder Jahresverlauf.
Und wo muss man nun messen, um den PUE-Wert zu ermitteln? In der Theorie ist das simpel: Erstens dort, wo der Gesamt-RZ-Bereich versorgt wird und zweitens, wo die IT versorgt wird. Aber funktioniert das in der Praxis?
- Die Klimatechnik arbeitet in vielen Gebäuden nicht exklusiv für das Rechenzentrum, sie versorgt auch andere Bereiche wie Büros, Besprechungsräume und Kantine. Diese verfälschenden Effekte führen zu kaum brauchbaren Messwerten.
- Aus der Historie heraus werden manchmal Umluftkühler, die die Datacenter-Räume klimatisieren, elektrotechnisch mit über die IT-Struktur versorgt. Sie würden also bei der PUE-Ermittlung auf der IT-Seite erscheinen. Das macht einen optisch schönen PUE, hat aber nicht viel mit der Realität zu tun.
- Die reine PUE-Betrachtung macht wenig Sinn, wenn man die zugrunde liegenden Werte nicht kennt. Rein theoretisch wäre es möglich, unausgelastete und stromfressende IT in einen guten PUE zu versetzen, indem man sie mit altertümlicher ineffizienter Klimatechnik kombiniert.
Und die modernen Geräte?
Die PUE-Ermittlung über die elektrotechnischen Kennwerte gerät allerdings bei modernen Klimasystemen an ihre Grenzen, die ganz oder teilweise mit Verdunstungskälte (Adiabatik) arbeiten. Zwar verbrauchen sie viel weniger Strom als Kälte-Anlagen mit Verdichter, aber sie benötigen Wasser.
Das Wasser liefert keine Energie zur Kühlung, es transportiert die Wärme weg von der IT. Dabei wird es zwar mehrfach genutzt, ein geschlossener Kreislauf liegt aber durch die zunehmende Verschmutzung nicht vor. Kurzum: Wasser wird gebraucht, verbraucht und fällt als Abwasser ein.
Soll diese Betrachtung zu Ende geführt werden, muss man sich beim Thema KPIs breiter aufstellen, da es neben dem thematisierten, relativ simplen PUE-Wert viele weitere KPIs existieren. Einige werden nachfolgend noch benannt. Möglich wäre auch eine monetäre Darstellung, die dann lauten könnte: Der IT-Betrieb kostet pro Zeiteinheit 1.000 Euro, der Datacenter-Gesamtbetrieb kostet in derselben Zeiteinheit 1.300 Euro, inklusive Stromverbrauch, Wasserver- und -entsorgung und Aufbereitung. Das ergäbe einen monetär ermittelten Faktor von 1,3.
Die Normenreihe EN 50600
Trotz allen Schwierigkeiten müssen Werte ermittelt und von Fachleuten interpretiert und analysiert werden. In Europa beschäftigt sich die maßgebliche Normenreihe EN 50600 mit dem Thema. Die beiden Normenteile zu Elektrotechnik und Klimatisierung behandeln die Werte-Ermittlung unter der sperrigen Überschrift „Befähigung zur Energie-Effizienz“ wie folgt:
- Im elektrotechnischen Bereich lautet die normative Anforderung, dass die Verteilungseinrichtungen so auszuführen sind, dass Ausgangsspannung, Strom, Leistungsfaktor und Energieverbrauch auf allen Außenleitern und auch auf dem Neutralleiter gemessen werden können. Zusätzlich wird empfohlen, Messungen der Gesamt-Oberschwingungsverzerrung des Stroms (THDI) und der Spannung (THDU) in Betracht zu ziehen. Jenseits der normativ geforderten Kenngrößen empfiehlt sich eine Ermittlung des Differenzstromes.
- Im klimatechnischen Bereich sollen die Rechnerraumtemperatur, die relative Luftfeuchte, der Luftdruck, der Kühlmitteldurchfluss, die Wärmeabfuhr und hinsichtlich der Außenluft die Temperatur, die Feuchte und die Verschmutzung gemessen werden.
Für beide Themenkomplexe existiert eine Abstufung, die definiert, wie granular die entsprechenden Messungen erfolgen sollen. Es gibt jeweils drei Abstufungen, die so genannten Granularitätsniveaus:
- Elektrotechnisch werden im Granularitätsniveau 1 lediglich Werte in der Hauptversorgung ermittelt, Niveau 2 reicht bis in die Unterverteilungen und im Niveau 3 wird bis zur PDU gemessen.
- Für die Klimatisierung wird je Niveau die Art und Anzahl entsprechender Fühler und Sensoren beschrieben. Niveau 3 liefert die am feinsten gegliederte Betrachtung.
Die entscheidende Frage, was man mit den hoffentlich sehr feingliedrig ermittelten Werten anstellt, beantwortet die Normenreihe EN 50600 im Teil 4 mit den derzeit fünf Einzelnormen:
- Allgemeine Anforderungen;
- Kennzahl zur eingesetzten Energie (PUE);
- Anteil erneuerbarer Energien;
- Faktor der Energiewiederverwendung;
- Wirkungsgrad der Kühlung.
Die Einleitung zum Teil 4 der Norm lässt vermuten, dass hier künftig noch zahlreiche Faktoren hinzukommen; das Abkürzungsverzeichnis führt mehr als ein Dutzend weiterer Faktoren auf.
Der Mehrwert
Der eine oder andere Rechenzentrumsbetreiber wird die Fragen stellen: Wozu dient das alles? Warum viel Geld in die Hand nehmen für kleinteilige Messungen?
Die Antwort ist klar: Nur segmentierte Kennwerte einer Anlage lassen die entsprechenden Rückschlüsse zu, auf die individuell reagiert werden kann. Und weil nur so Verbesserungspotentiale erkannt und angegangen werden können und im Anschluss die Wirksamkeit diverser Maßnahmen nachgewiesen werden kann. Fishing for compliments also.
Mithilfe individueller Messungen können beispielsweise folgende Probleme leichter aufgedeckt werden:
- Hotspots oder Hot Isles im Rechenzentrum, Bereiche also, in denen die Klimatisierung beispielsweise durch zu dicht gepackte IT nicht wirksam funktioniert.
- Ungleichmäßige Raumauslastung bezüglich Klimatisierungsbedarf.
- Ungleichmäßige Auslastung der drei Außenleiter des elektrischen Versorgungs- und Verteilsystems.
- Schleichende Überlast von USV-Anlagen, Klima-Anlagen und Verteileinrichtungen durch Hardware-Erweiterungen, die ohne Monitoring nicht bemerkt würden, da bedingt durch Redundanz Überkapazitäten installiert sind.
- In der Folge Unterabdeckung des Energiebedarfs durch die Netzersatzanlage, in der Folge völliger Funktionsverlust der Notstromversorgung bei Netzausfall.
- Unausgewogene Belastung der beiden elektrotechnischen Versorgungspfade bei 2n-Systemen. Hieraus ergäbe sich ein unnötiger und unter gewissen Umständen nicht beherrschbarer Lastsprung beim Ausfall des stark belasteten Pfades auf dem verbleibenden Pfad.
- Mögliche Hardware-Probleme bei Netzteilen, die sich aus Trend-Aussagen bezüglich der genannten elektrischen Kennwerte prognostizieren lassen.
- Konkrete Netzteil-Ausfälle, die anhand des veränderten Stromverbrauchs erkennbar sind.
(ID:47990124)