Supermicro-Manager über Best Practices für eine grüneres Rechenzentrum Stellschrauben für mehr Energie-Effizienz im Datacenter
Anbieter zum Thema
Dass Rechenzentren bedeutsame Mengen an Strom benötigen, hat sich herumgesprochen. Doch vom Layout des Rechenzentrums bis zur Platzierung der Server-Racks gibt es mehrere Maßnahmen, die Betreiber ergreifen können, um die Power Usage Effectiveness (PUE) des zu verbessern.

Die Beschaffung von Strom aus erneuerbaren Energiequellen ist ein naheliegender erster Schritt. Aber auch andere Methoden, wie die Erhöhung der Lufteintrittstemperaturen, die Optimierung der Stromzufuhr und der Einsatz des richtigen Systems zur richtigen Zeit, können zu einem energieeffizienterem Rechenzentrum beitragen.
Bei herkömmlichen Luftkühlungsmechanismen wird die Temperatur der Luft, die in die Server eintritt (Einlasstemperatur), durch Computer Room Air Conditioning (CRAC) Anlagen bestimmt. Die Art und Weise, wie die Klimatisierung in einem Rechenzentrum genutzt wird, trägt am meisten zur PUE-Berechnung bei.
Der PUE-Wert eines Rechenzentrums ist definiert als die Gesamtmenge des an das Rechenzentrum gelieferten Stroms, geteilt durch die von den IT-Komponenten verbrauchte Strommenge. Je niedriger der Wert ist, desto Energie-effizienter ist das Rechenzentrum. Eine Reduzierung der Klimatisierung senkt den PUE-Wert und damit die Betriebskosten erheblich.
Betrieb bei höheren Temperaturen
Weltweit halten jedoch viele Rechenzentren die Vorlauftemperaturen zu niedrig. Die Betreiber von Rechenzentren können den Stromverbrauch senken, indem sie die Vorlauftemperaturen auf den vom Hersteller empfohlenen Höchstwert erhöhen. Die Ergebnisse einer Umfrage von Supermicro unter mehr als 400 IT-Fachleuten und Leitern von Rechenzentren zeigen, dass die meisten Betreiber die Vorlauftemperaturen auf weniger als den vom Hersteller empfohlenen Höchstwert beschränken (siehe: Grafik).
Die Wärme an ihrer Quelle einfangen
Die Klimatisierung ist die wichtigste Variable, die optimiert werden muss, um den PUE-Wert insgesamt zu senken.Das lässt sich insbesondere durch den Einsatz von Flüssigkeitskühlung erreichen. Auch wenn die Infrastruktur des Rechenzentrums möglicherweise geändert oder ergänzt werden muss, werden die langfristigen Einsparungen bei den Betriebskosten die anfänglichen Investitionen überwiegen.
Die Flüssigkeitskühlung von CPUs und GPUs kann den Bedarf an CRAC-Einheiten in Rechenzentren und die Notwendigkeit, Luft herum zu schieben, erheblich reduzieren. Es gibt verschiedene Methoden zur Verwendung von Flüssigkeitskühlung, um den Bedarf an forcierter Luftkühlung zu reduzieren.
Direct To Chip (DTC oder D2C) Kühlung
Bei dieser Methode wird eine kalte Flüssigkeit über die heiße CPU oder GPU geleitet. Da eine Flüssigkeit Wärme viel effizienter abführen und transportieren kann als Luft, kann die CPU oder GPU innerhalb ihres TDP-Bereichs (Thermal Design Power) gehalten werden. Dies kann bei der Skalierung auf Tausende von Systemen in einem mittleren bis großen Rechenzentrum zu erheblichen Einsparungen führen.
Rear Door Heat Exchanger (RDHx)
Die hintere Tür der Server-Racks wird mit Flüssigkeit und Lüftern ausgestattet, die die Abluft kühlen, bevor sie zurück in die Umluft des Rechenzentrums gelangt. Dabei muss die erwärmte Flüssigkeit gekühlt werden, bevor sie in das CRAC-System zurückgeführt wird. Durch diese Flüssigkeitskühlung wird die Luft im Rechenzentrum auf einer niedrigeren Temperatur gehalten, was den Kühlungsbedarf der Umluftanlage und damit den Strombedarf des Rechenzentrums verringert.
Immersionskühlung
Bei der Immersionskühlung wird der gesamte Server in eine dielektrische Flüssigkeit getaucht. Der enge Kontakt der Flüssigkeitsmoleküle mit den heißen CPUs, GPUs und anderen Komponenten ist eine sehr effiziente Methode zur Kühlung.
Auch sind so keine Lüfter in den Serversystemen selbst mehr notwendig. Vor dem Eintauchen müssen einige geringfügige Änderungen an den Servern vorgenommen werden. Ein ganzes Rack von Servern kann auf diese Weise gekühlt werden.
Hot & Cold Aisles
Altbekannt und doch nicht überall selbstverständlich: Eine erhebliche Menge an Strom kann durch die Verwendung von CRAC eingespart werden, wenn die heißen und kalten Gänge (Hot & Cold Aisles) im Rechenzentrum voneinander getrennt werden. Bei der Planung mit heißen und kalten Gängen sollten sich die Zu- und Abluft nicht vermischen, so dass die Kühlung des Rechenzentrums effizienter arbeiten kann.
Für eine angemessene Kühlung müssen die Rack-Reihen so installiert werden, dass sich die Rückseiten der Racks gegenüberliegen, wodurch ein Warmgang entsteht. Ein wichtiges bewährtes Verfahren bei der Planung eines Energie-effizienten Rechenzentrums ist daher die Einrichtung von Warm- und Kaltgängen.
Optimierung der Netzteilauslastung
Die Umwandlung von Wechselstrom in Gleichstrom ist mit einer gewissen Wärmeentwicklung verbunden. Wenn das Rechenzentrum mit Wechselstrom versorgt wird, muss der Strom für das System in Gleichstrom umgewandelt werden.
Bei jeder Umwandlung geht Energie verloren, was zur Ineffizienz des Rechenzentrums beiträgt. Eine effizientere Umwandlung führt zu einer geringeren Energieverschwendung während der Umwandlung, wobei die Wärme das Nebenprodukt ist, das aus dem System abgeführt werden muss.
:quality(80)/images.vogel.de/vogelonline/bdb/1901100/1901168/original.jpg)
Ein neuer, altbkannter Weg der Stromversorgung
Mehr Datacenter-Effizienz durch Gleichstrom
:quality(80)/p7i.vogel.de/wcms/33/34/333466d8c4c1ae3e85175277ba66011c/0101721412.jpeg)
Supraleitungs-Gleichstrom, Holz statt Beton und Stahl sowie ein neues Kühlkonzept
Paradigmenwechsel in der Datacenter-Architektur
Titan-Netzteile sind die effizienteste Option mit einem Wirkungsgrad von 96 Prozent. Platin-Netzteile sind mit 94 Prozent etwas weniger effizient. Gold-Netzteile bieten einen geringeren Wirkungsgrad von 92 Prozent.
Der Wirkungsgrad eines Netzteils ist nicht linear oder flach, wenn es um den Leistungsbereich des Netzteils geht. Die meisten Netzteile erreichen ihren maximalen Wirkungsgrad, wenn sie im oberen Bereich ihrer Nennleistung arbeiten. Das bedeutet, dass ein 800-Watt-Netzteil, das 400 Watt Leistung (50 Prozent Kapazität) liefert, weniger effizient ist als ein 500-Watt-Netzteil, das dieselbe Ausgangsleistung von 400 Watt (80 Prozent Kapazität) liefert.
Grüner Strom
Die gewählte Stromquelle beziehungsweise der gewählte Stromlieferant beeinflusst die CO2-Gesamtbilanz eines Rechenzentrums erheblich. Optimal ist die dezentrale Erzeugung erneuerbarer Energien, die sich im Besitz oder unter der Kontrolle von Rechenzentren befindet.
Aber die erneuerbaren Energiequellen vor Ort können den Energiebedarf von Rechenzentren nicht immer decken. Glücklicherweise kann saubere Netzenergie diesen Bedarf ergänzen. Es gibt auch immer effektivere Energiespeicherlösungen für den Einsatz vor Ort, deren Kosten mit der Weiterentwicklung von Batteriespeichertechnologien sinken.
*Der Autor
Michael McNerney ist Vice President Marketing and Network Security bei Supermicro.
Kurzum: Rechenzentren sind für die Weltwirtschaft von entscheidender Bedeutung. Viele Aspekte des modernen Lebens hängen von Rechenzentren ab, die mehr Strom als je zuvor verbrauchen, um die von allen genutzten Dienste bereitzustellen. Während die Arbeit pro Watt der CPU weiter zunimmt, besteht die Notwendigkeit, den Gesamtstromverbrauch von Rechenzentren zu senken.
Es gibt mehrere Maßnahmen, die Betreiber von Rechenzentren ergreifen können. Dazu gehören der Betrieb von Systemen bei wärmeren Temperaturen, die Konfiguration des Rechenzentrums mit warmen und kalten Gängen und die Beschaffung von Ökostrom. Mit nur wenigen Maßnahmen können Rechenzentren ihren PUE-Wert reduzieren, ihre Betriebskosten senken und ihren CO2-Fußabdruck auf Jahre hinaus verringern.
Bildquelle: Supermicro
(ID:49587448)