Rechenzentren: Unterkühlt, überhitzt oder genau richtig!

Der Weg zu Energie-Effizienz im White Space führt über thermische Analysen

| Autor / Redakteur: Michael Akinla* / Ulrike Ostler

Michael Akinla, TSE Manager bei Panduit EMEA, schreibt darüber, wie sich das passende Klima im Rechenzentrum einstellt; denn kein Zuviel oder Zuwenig schützt die Umwelt und den Geldbeutel.
Michael Akinla, TSE Manager bei Panduit EMEA, schreibt darüber, wie sich das passende Klima im Rechenzentrum einstellt; denn kein Zuviel oder Zuwenig schützt die Umwelt und den Geldbeutel. (Bild: Adrian Franklin)

Überwachung der Rechenzentrumsumgebung liefert den Betreibern wichtige Daten, Analysen und Informationen, die es ihnen erlauben, die Effizienz zu erhöhen, den Energieverbrauch zu senken, und folglich Einsparungen zu realisieren. Modulare Komponenten zur Steigerung der thermischen Effizienz wiederum, die anhand von Temperatur- und Druckmessungen den White Space im Rechenzentrum steuern, setzen klare Zielvorgaben. Und das ist schon alles?

Wenn wir über den White Space im Rechenzentrum sprechen, beziehen wir uns auf den Bereich für Server, Switches und die Datenspeicherung, in dem sich auch die Lüftungsanlagen für diese Server-Schränke befinden. Die anderen Bereiche des Rechenzentrums, die ebenso wichtig sind und die Kühlaggregate, USVs und übrigen Betriebseinrichtungen beherbergen, werden in diesem Zusammenhang als Grey Space bezeichnet. Die Überwachung und Steuerung sowohl der Grey Spaces als auch der White Spaces ist für eine Reihe von Konformitäts- und Kundenanforderungen unverzichtbar, beispielsweise für PUE-Ratings.

Abbildung 1. Gründe, warum Rechenzentrumsbetreiber in Umgebungsüberwachung investieren
Abbildung 1. Gründe, warum Rechenzentrumsbetreiber in Umgebungsüberwachung investieren (Bild: Panduit: Schätzungen von IBM)

Die Anforderungen der Industrie und der Kunden veranlassen mehr und mehr Rechenzentrumsbetreiber zur Implementierung von Systemen zur Umgebungsüberwachung. Derzeit bestehen hinsichtlich der Implementierung gravierende Unterschiede zwischen „strategischen“ und „grundlegenden“ Rechenzentren. Der finanzielle und ökologische Nutzen, den der Einsatz eines intelligenten Überwachungssystems, insbesondere in modularen Asset-Management- und Konnektivitäts-Management-Lösungen, mit sich bringt, ist ein überzeugendes Argument.

Offensichtlich ist, dass die Kosten für Ausfälle und auch deren Häufigkeit zunehmen. Der jüngste Ausfall eines von Wikipedia genutzten Rechenzentrums hatte zur Folge, dass die Website über Stunden nicht erreichbar war. Und auch der Outlook-E-Mail-Service von Microsoft war aufgrund eines ungeplanten Ausfalls für 16 Stunden lahmgelegt.

Beide Vorfälle wurden durch eine Überhitzung der Rechenzentrums-Server und der automatischen Systemabschaltung dieser Server verursacht. Warum gab es kein Überwachungs- und Steuerungssystem, durch das diese ungeplanten Ausfälle hätten vermieden werden können?

Abbildung 2. Kosten eines partiellen und vollständigen Ausfalls
Abbildung 2. Kosten eines partiellen und vollständigen Ausfalls (Bild: Panduit)

Internationale Normen wie ASHREA TC 9.9, ETSI EN 300 und EN 50600-2-3 liefern einen Rahmen für Best Practices, Compliance und die angemessene Auslegung von IT-Umgebungen (Information Technology Environments, ITE). Die Betreiber haben zudem die nötige Technologie, um Systeme und Richtlinien basierend auf diesen Grundsätzen für Datenverarbeitungsumgebungen zu konzipieren, so dass derartige Überhitzungsvorfälle vermieden und Unterbrechungen für die Benutzer mit den möglichen finanziellen Auswirkungen reduziert oder ganz ausgeschlossen werden können.

Grundsätze für Luftstrom-Management und Kühlsystemsteuerung nach ASHREA TC 9.9

  • 1. Server-Schrank-/Rack-Ebene – Die Eintrittstemperatur und relative Luftfeuchtigkeit für Racks und Server-Schränke werden unten, mittig und oben im Schrank gemessen und überwacht, um einen empfohlenen Temperaturrichtwert (15 – 32°C) aufrecht zu erhalten.
  • 2. Einhausungsebene – zusätzlich zu 1. – Bei Verwendung einer Kaltgangeinhausung kann die Temperatur im Warmgang bis zu 50 Grad betragen. Die Austrittstemperatur wird oben am Rack und Server-Schrank gemessen und überwacht. Wenn eine Warmgangeinhausung genutzt wird, ist eine Temperaturüberwachung im gesamten Raum erforderlich.
  • 3. Data-Hall-Ebene – zusätzlich zu 1. und/oder 2. – In der Nähe jedes CRAC/CRAH müssen die Luftfeuchtigkeit und Temperatur am Ein- und Austritt überwacht werden. Der Richtwert für die relative Luftfeuchtigkeit liegt bei 60 Prozent relative Feuchte (r.F.). Zulässig sind Werte zwischen 20 Prozent und 80 Prozent r..
  • 4. Luftstrom-Management und Kühlsystemsteuerung – Für das Luftstrom-Management und die Kühlsystemsteuerung muss eine Strategie definiert werden. Bei einem guten Luftstrom-Management kann die Temperatur auf bis zu 20 Grad ansteigen; bei einer Eintrittstemperatur von 40 Grad beträgt die Temperatur im Warmgang rund 60 Grad.

Eine weitere wichtige Komponente eines effektiven Luftstrom-Management- und Kühlsystems für den White Space des Rechenzentrums ist das Luftdruck-Management.

Abbildung 3: Visualisierung der themischen Überwachung mithilfe von Panduit-Technik.
Abbildung 3: Visualisierung der themischen Überwachung mithilfe von Panduit-Technik. (Bild: Panduit)

Energie ist Wärme

Rechenzentren sind sehr energieintensiv. Der Betrieb eines White Space mit mehreren hundert oder tausend Servern verbraucht Unmengen an Energie, was mit einer starken Wärme-Entwicklung einhergeht. Dieser muss begegnet werden. Es ist daher nicht ungewöhnlich, dass das Kühlsystem einer solchen Einrichtung genauso viel oder sogar mehr Energie verbraucht als der White Space selbst.

Ein gut konzipierter White Space mit einem überwachten und steuerbaren Kühlsystem hat heute einen deutlich geringeren Energiebedarf. Vielfach werden durch die neuesten Entwicklungen im Bereich der thermischen Planung, Überwachung und Kühlungsoptimierung Tausende von Euro, Pfund und Dollar an Energiekosten eingespart, während gleichzeitig Problemen vorgebeugt wird, so dass ein stabileres, zuverlässigeres Rechenzentrum entsteht.

Um diese wichtige Veränderung auf den Weg zu bringen, ist ein Umdenken erforderlich. Die vormals übliche Herangehensweise war, für eine kühle Umgebung zu sorgen, in der kalte Luft über die Oberflächen der heißen Geräte (Server und Switches) strömt und die warme Abluft abtransportiert wird. Diese HLK-Lösung verbraucht viel Energie, um die Temperatur der „Zuluft“ auf das nötige Maß für die Senkung der Temperatur an den heißen Geräten abzukühlen, während die heiße Abluft oft ungenutzt abgeleitet wird und verloren geht.

Was heute schon möglich ist

Die heutigen Datenverarbeitungsanlagen im White Space haben höhere Betriebstemperaturen. Dies führte dazu, dass die Rechenzentrumsindustrie alternative Kühlmethoden entwickelt hat, die sich intelligente Umgebungen zu Nutze machen. Je höher die Betriebstemperatur im White Space ist, umso weniger Energie wird für den Ausgleich der „Zulufttemperatur“ benötigt.

Eine Eintrittstemperatur an den Geräten zwischen 18 und 27 Grad und eine relative Luftfeuchtigkeit von 20 bis 80 Prozent erfüllen im Allgemeinen die vom Hersteller angegebenen Betriebsbedingungen. Zunehmend an Bedeutung gewinnt die Möglichkeit, den empfohlenen Bereich der Umgebungsbedingungen, einschließlich Temperatur und relativer Luftfeuchtigkeit, zu überwachen und zu steuern und die zulässigen Umgebungsbedingungen aufrecht zu erhalten, unter denen die Systeme mit optimaler Leistung arbeiten.

Was passiert, wenn ....

Der Betrieb in einer höher temperierten Umgebung bedeutet, dass Hochleistungs-Server näher an die Grenzen ihrer maximalen Betriebsparameter gebracht werden. Sollte zum Beispiel eine ausgeprägte Spitze in der Prozessoraktivität auftreten und viele weitere Server in Betrieb gehen, um die benötigte Kapazität bereitzustellen, während gleichzeitig ein Generator ausfällt und die USV-Sicherung nicht zu 100 Prozent effizient läuft, kann dies zur Folge haben, dass Kühlerventilatoren nicht schnell genug anlaufen und die Server folglich überhitzen und ausfallen. Wie bereits erwähnt, sind ungeplante Ausfälle für das Rechenzentrum vielfach mit Umsatzeinbußen verbunden, zum Beispiel aufgrund von Schadensersatzforderungen der Kunden, Reputationsschäden und verlorenen Neukundenaufträgen.

Wichtig für eine optimale Leistung ist die Fähigkeit, die thermische Umgebung des White Space intelligent zu überwachen und die generierten Daten in Echtzeit zu analysieren, um aussagekräftige Informationen für die Aufrechterhaltung eines effektiven White Space-Betriebs zu erhalten. Rechenzentrumsbetreiber müssen dafür drei spezifische Ebenen beachten und implementieren, um eine optimierte Lösung für die Überwachung und Kühlung der Betriebsumgebung bereitzustellen.

  • Überwachung – Alarme und Meldungen – ASHREA definiert Grundsätze für die Sensoranordnung im White Space. Die neueste Generation von WLAN-Sensoren bietet thermische Knoten, thermische Knoten mit Luftfeuchtigkeitsmessung und Druckknoten. Diese lassen sich mühelos in einem drahtlosen Mesh-Netzwerk konfigurieren und ermöglichen eine einfache, schnelle und sichere Bereitstellung von Geräten mit einem in hohem Maße stabilen, selbstregenerierenden, skalierbaren und effizienten Sensornetzwerk.
  • Kühlungsoptimierung – Anpassung des Luftstroms und Ausgleich von Bodenunebenheiten – Der Entwurf von Luftstromkennzahlen mittels CFD erlaubt eine Modellierung möglicher Umgebungsbedingungen im Einklang mit den Zielen des Betreibers. Der Einsatz von Blindplatten, die Bewertung der Einhausungsmöglichkeiten und die Installation perforierter Bodenplatten sorgen für einen optimierten Luftdruck auf dem gesamten Weg. Mittels Software zur Abbildung der Kühlung in Echtzeit werden Heatmaps des White Space erstellt.
  • HLK-Steuerung (HLK = Heizung, Lüftung, Klimatechnik) und dynamische Anpassung der Kühlung an die IT-Last – Echtzeit-Datenanalysen im gesamten System liefern aussagekräftige Informationen. Das System analysiert fortwährend die Daten, um das Luftstrom-Management zu verbessern und den Energieverbrauch zu senken. Die Echtzeitsteuerung erlaubt dem System, den optimierten Zustand mittels Luftstrom-Management aufrecht zu erhalten. Hierzu werden die Drehzahl der Ventilatoren reguliert, Druckknoten für das Ablesen von Messwerten verwendet und die Lufttemperatur durch eine Anpassung des Temperatursollwerts per Temperaturüberwachung gesteuert.

Meine Schlussfolgerung

Schätzungen zufolge wird sich die zum Kühlen der weltweiten Rechenzentren benötigte Energie in den kommenden zehn Jahren verdreifachen – mit Auswirkungen auf die Kosten und die Umwelt. Kunden, Umweltorganisationen und Regierungen drängen die Industrie deshalb zu einem effizienteren Umgang mit Energie. Rechenzentrumsbetreiber untersuchen und implementieren momentan intelligente Systeme, um den Weg für eine fortlaufende Datenanalyse und dynamische Optimierung zu ebnen.

Die für diese speziellen Anforderungen der Rechenzentrumsbetreiber konzipierten Umgebungs- und Kühlungsmanagementsysteme der neuesten Generation liefern aussagekräftige Informationen, die durch eine effizientere Anlagenauslastung auf einfache Weise einen deutlich reduzierten ROI-Zeithorizont ermöglichen.

* Michael Akinla ist TSE Manager EMEA bei Panduit Europe.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45024336 / Klimatechnik)