Kennzeichen guter Sensoren im Rechenzentrum Energie-Effizienz durch Messgenauigkeit

Ein Gastbeitrag von Anu Kätkä und Keith Dunnavant* Lesedauer: 7 min |

Anbieter zum Thema

Etwa zwei Prozent des gesamt Stromverbrauchs benötigen Rechenzentren - ein erheblicher Teil, der in den Industriestaaten noch höher liegt und der aufgrund vieler neuer Anwendungen wie KI, Maschinellem Lernen oder Automatisierung noch steigen wird. Er ließe sich auch reduzieren, zum Beispiel durch präzise Überwachung.

Da in Rechenzentren kritische Daten im Wert von Milliarden von Euro verarbeitet und gespeichert werden, müssen stromhungrige Server unter idealen Temperatur- und Feuchtigkeitsbedingungen gehalten werden, um Ausfallzeiten zu vermeiden und die Energie-Effizienz zu verbessern, insbesondere angesichts hoher Energiekosten und steigendem Bedarfs.
Da in Rechenzentren kritische Daten im Wert von Milliarden von Euro verarbeitet und gespeichert werden, müssen stromhungrige Server unter idealen Temperatur- und Feuchtigkeitsbedingungen gehalten werden, um Ausfallzeiten zu vermeiden und die Energie-Effizienz zu verbessern, insbesondere angesichts hoher Energiekosten und steigendem Bedarfs.
(Bild: Vaisala)

Schätzungen zufolge gibt es weltweit über 18 Millionen Server in Rechenzentren. Zusätzlich zu ihrem eigenen Strombedarf benötigen diese IT-Geräte auch eine unterstützende Infrastruktur wie Kühlung, Stromverteilung, Brandschutz, unterbrechungsfreie Stromversorgung und Generatoren. Um die Energie-Effizienz in Rechenzentren zu vergleichen, wird üblicherweise die Power Usage Effectiveness (PUE) als Maß verwendet. Das PUE-Konzept, die gängigste Methode zur Berechnung der Energie-Effizienz von Rechenzentren, wurde ursprünglich von The Green Grid im Jahr 2006 entwickelt und 2016 als ISO-Norm veröffentlicht.

Die Methode definiert das Verhältnis zwischen der gesamten in einem Rechenzentrum verbrauchten Energie und der von der IT verbrauchten Energie. Optimal wäre ein PUE-Wert von 1, was bedeuten würde, dass die gesamte Energie für die IT aufgewendet wird und die unterstützende Infrastruktur keine Energie verbraucht. Um den PUE-Wert zu optimieren, muss also der Verbrauch der unterstützenden Infrastruktur wie Kühlung und Stromverteilung reduziert werden.

Der typische PUE-Wert in deutschen Rechenzentren derzeit liegt bei etwa 1,63, während etwa große Hyperscale-Rechenzentren weniger als 1,2 erreichen können. Der weltweite Durchschnitt lag im Jahr 2020 übrigens bei etwa 1,67. Das bedeutet, dass im Durchschnitt 40 Prozent des gesamten Energieverbrauchs auf Nicht-IT-Verbrauch entfallen.

Der PUE-Wert ist jedoch eine Kennzahl, die nichts über den Gesamtenergieverbrauch aussagt. Das heißt, wenn die IT-Geräte im Vergleich zum Kühlsystem viel Energie verbrauchen, sieht der PUE-Wert gut aus. Daher ist es wichtig, auch den Gesamtstromverbrauch sowie die Effizienz und den Lebenszyklus der IT-Geräte zu messen. Darüber hinaus sollte aus ökologischer Sicht berücksichtigt werden, wie der Strom erzeugt wird, wie viel Wasser verbraucht wird (bei der Stromerzeugung und am Standort für die Kühlung) und ob die überschüssige Wärme genutzt wird.

Nach einem Best-Case-Szenario wird sich der weltweite Energieverbrauch von Rechenzentren im Vergleich zum aktuellen Bedarf bis 2030 verdreifachen, doch wird ein Anstieg um das Achtfache für wahrscheinlicher gehalten. Diese Energieverbrauchsprognosen umfassen sowohl die IT- als auch die Nicht-IT-Infrastruktur.

Der Großteil des Nicht-IT-Energieverbrauchs entfällt auf die Kühlung, genauer gesagt auf die Ableitung der Wärme von den Servern. Die Kosten dafür können leicht bis zu 25 Prozent oder mehr der gesamten jährlichen Energiekosten ausmachen.

Einer der wichtigsten Aspekte für die Energie-Effizienz bei der Kühlung von luftgekühlten Rechenzentren ist die Eingrenzung von Warm- und Kaltgangeinrichtungen. Allerdings wird die Eindämmung in vielen alten Rechenzentren immer noch schlecht gehandhabt, was zu einer geringen Energie-Effizienz führt. Bei neu gebauten Rechenzentren hingegen wird die Eindämmung in der Regel sehr ernst genommen, was erheblich zur effizienten Leistung beiträgt.

Ein kühler Kopf spart Energie

In vielen Fällen liegt die optimale Zulufttemperatur zwischen 24 und 25,5 Grad Celsius (75,2 und 77,9 Grad Fahrenheit). Sehr wichtig ist jedoch Delta-T – der Temperaturunterschied zwischen dem Warmgang und dem Kaltgang. Normalerweise liegt Delta-T bei 10 bis 12 Grad Celsius (18 bis 21,6 Grad Fahrenheit), 14 Grad Celsius (25,2 Grad Fahrenheit) ist allerdings ein gängiges Ziel bei der Planung von Rechenzentren. Eine Erhöhung von Delta-T hat den doppelten Vorteil, dass der Energieverbrauch der Lüftermotoren für die Kühlsysteme gesenkt und das Potenzial für wirtschaftliche Wärme-Abweisungsstrategien erhöht wird.

Eine Möglichkeit um die Wärme-Abfuhr im Rechenzentrum zu erleichtern ist 'Economization', bei der Außenluft genutzt wird. Die Einsparung kann direkt erfolgen, indem die Außenluft gefiltert in die Kühlsysteme eingespeist und den Servern zugeführt wird, oder indirekt, indem die Umluft des Rechenzentrums über einen Luft-Luft-Wärmetauscher an die Umgebung abgegeben wird. Dies senkt die Kosten und verbessert die Effizienz und Nachhaltigkeit.

Kühlung mit Luft: Typische Ansätze für Rechenzentren
Kühlung mit Luft: Typische Ansätze für Rechenzentren
(Bild: Vaisala)

Kühlung und Belüftung erfordern eine sorgfältige Steuerung. Zudem ist es wichtig, hocheffiziente Ventilatoren einzusetzen, einen leichten Gebäude-Überdruck aufrechtzuerhalten und die Raumfeuchtigkeit zu kontrollieren. Zum Beispiel sollten Frischluftsysteme den Taupunkt im Raum so niedrig halten, dass die Kühlspulen nur die sensible Kühlung übernehmen, ohne eine latente Last (Entfernung von Feuchtigkeit aus der Luft) zu bewältigen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Wechselwirkungen

Das übergeordnete Ziel des Wärmeabfuhrsystems ist die Aufrechterhaltung optimaler Bedingungen für die IT-Ausrüstung bei gleichzeitiger Minimierung des Energieverbrauchs. Eine niedrige Luftfeuchtigkeit kann beispielsweise das Risiko statischer Elektrizität erhöhen.

Eine hohe Luftfeuchtigkeit kann zu Kondensation führen. Beides kann das Ausfallrisiko erhöhen und die Betriebsdauer verkürzen.

Die Kühlung ist unerlässlich, um die von IT-Geräten erzeugte Wärme abzuführen, eine Überhitzung zu vermeiden und Ausfälle zu verhindern. Einigen Studien zufolge kann eine schnell schwankende Temperatur für die IT-Geräte sogar schädlicher sein als eine stabile höhere Temperatur.

Kontrolle ist gut, präzise Überwachung ist besser

In vielen modernen Einrichtungen wird eine Betriebszeit von 99,999 Prozent erwartet, was einer jährlichen Ausfallzeit von nur wenigen Minuten pro Jahr entspricht. Diese extrem hohen Leistungsniveaus sind aufgrund der Bedeutung und des Wertes der Daten und Prozesse, die von der IT-Infrastruktur verarbeitet werden, erforderlich.

Ein wesentliches Merkmal bei der Planung von Rechenzentren ist die Bereitstellung der richtigen Temperatur für die Server. Um sie aufrecht zu erhalten, muss sich das Steuerungssystem auf genaue Sensoren stützen. Größere Datenhallen können dabei schwieriger zu überwachen sein, da sie ein größeres Potenzial für räumliche Temperaturschwankungen aufweisen. Einige der Server können sich in der Nähe einer Kühleinheit befinden und andere weiter entfernt; einige können sich am unteren Ende eines Racks befinden und andere weiter oben, so dass es zu dreidimensionalen Schwankungen kommen kann.

Daher ist es wichtig, dass eine ausreichende Anzahl von Temperatursensoren vorhanden ist, um sicherzustellen, dass alle Server überwacht werden. Neben der ausreichenden Anzahl von Sensoren ist es auch wichtig, dass Luftstrom und Kühlung optimal im Serverraum verteilt sind. Durch eine Kombination aus richtigem Design und Überwachung ist es möglich, Kühlung und Luftstrom effizient zu steuern, um die erforderlichen Spezifikationen zu erfüllen.

Der Einsatz von Sensoren

Qualitativ hochwertige Sensoren sind die Voraussetzung für effizient gesteuerte HLK-Prozesse (HLK = Heizung, Lüftung, Klimatechnik) und ein stabiles Raumklima. Die Sensorspezifikation zum Zeitpunkt der Installation ist jedoch nicht unbedingt ein Indikator für die langfristige Zuverlässigkeit der Leistung.

Der tatsächliche Wert eines Sensors ergibt sich aus seinem gesamten Lebenszyklus, da häufige Wartungsanforderungen kostspielig sein können und selbst kleine Abweichungen in der Genauigkeit zu überhöhten Energiekosten führen können. Langlebige Messgeräte sind in der Lage, langfristig zuverlässige und stabile Messwerte zu liefern – und auf lebenslange Zuverlässigkeit kommt es an.

Die Wahl des richtigen Sensors

Typischerweise sind Rechenzentren mit Hunderten von Sensoren ausgestattet.
Typischerweise sind Rechenzentren mit Hunderten von Sensoren ausgestattet.
(Bild: Vaisala)

Sensoren sind die Basis einer präzisen Überwachung. Sie können zu einem reibungslosen Ablauf im Rechenzentrum beitragen – wenn sie einige Kriterien erfüllen:

1.Verlässlichkeit

Die Genauigkeit des Sensors zum Zeitpunkt der Installation ist wichtig, es ist aber auch entscheidend, dass der Sensor langfristig genau bleibt und stabile Messwerte liefert. In Anbetracht des hohen Wertes von Rechenzentren und ihrer häufig abgelegenen Lage sollte die Lebensdauer der Messwertgeber weit über der Norm liegen. Rückverfolgbare Kalibrierungszertifikate geben zum Beispiel die Gewissheit, dass die Sensoren vor dem Verlassen des Werks korrekt gearbeitet haben und eine nachgewiesene Zuverlässigkeit bedeutet, dass dieses Genauigkeitsniveau auch langfristig beibehalten werden kann.

2. Wartung

Sensoren mit hohem Wartungsaufwand sind nicht nur wegen der damit verbundenen Kosten unrentabel, sondern auch, weil sie ein höheres Ausfallrisiko haben. Darüber hinaus können Sensoren, die abdriften oder an Genauigkeit verlieren, enorme Energiekosten verursachen.

Die hohen Anforderungen an die Betriebszeit von Rechenzentren erfordern, dass Wartungsarbeiten an den Überwachungsgeräten den Betrieb des Rechenzentrums nicht stören dürfen.

Folglich sind Instrumente mit austauschbaren Messsonden oder -modulen von Vorteil, nicht zuletzt, weil sie den Ausbau und die Kalibrierung der Sensoren im Offline-Betrieb ermöglichen. Wichtig ist, dass beim Austausch einer Messsonde oder eines Moduls auch das Kalibrierungszertifikat aktualisiert wird. Idealerweise sollte es möglich sein, Wartungsarbeiten vor Ort mit Werkzeugen des Geräteanbieters durchzuführen, und diese Arbeiten sollten im Rahmen eines geplanten Wartungsprogramms erfolgen.

3. Nachhaltigkeit

Was die Sensoren betrifft, so ermöglichen es neue Technologien den Nutzern, nur den Messteil eines Sensors aufzurüsten, anstatt den gesamten Messwertgeber auszutauschen oder zu verschrotten; dadurch wird unnötiger Abfall vermieden. Bei Kaufentscheidungen sollten die Umwelt- und Nachhaltigkeitskriterien der Lieferanten berücksichtigt werden. Auf diese Weise kann das Thema Nachhaltigkeit in die gesamte Lieferkette einfließen und ist eine treibende Kraft für alle beteiligten Unternehmen.

Deshalb ist der Fokus auf Genauigkeit, Zuverlässigkeit und Stabilität von Messgeräten eine grundlegende Entwicklungsaufgabe für jedes Produkt von Vaisala, einem weltweit führenden Anbieter von Wetter-, Umwelt- und Industriemessungen. Vaisala Sensoren arbeiten unter anderem auf dem Planeten Mars an Bord der NASA-Rover Curiosity und Perseverance und liefern problemlos Daten unter rauen Bedingungen. Rechenzentren stellen eine weniger schwierige Umgebung dar als der Weltraum, aber zuverlässige Sensoren sind dort, angesichts der wichtigen Dienste, die Rechenzentren für Unternehmen, Wirtschaft und Gesellschaft leisten, ebenso wichtig.

* Anu Kätkä arbeitet bei Vaisala und Keith Dunnavant bei Munters.

Artikelfiles und Artikellinks

(ID:49526199)