Supermicro-Manager über Best Practices für eine grüneres Rechenzentrum Stellschrauben für mehr Energie-Effizienz im Datacenter

Ein Gastbeitrag von Michael McNerney* Lesedauer: 5 min |

Anbieter zum Thema

Dass Rechenzentren bedeutsame Mengen an Strom benötigen, hat sich herumgesprochen. Doch vom Layout des Rechenzentrums bis zur Platzierung der Server-Racks gibt es mehrere Maßnahmen, die Betreiber ergreifen können, um die Power Usage Effectiveness (PUE) des zu verbessern.

Supermicro hat vor Kurzem 400 Fachleute zur Erhöhung der Energie-Effizienz in Rechenzentren befragt und das Ergebnis in dem Whitepaper „Green Computing: Top Ten Best Practices for a Green Data Center How to build and operate an energy-efficient Data Center and reduce OpEx“ zusammengefasst. Michael McNerney von Supermicro erläutert den Inhalt.
Supermicro hat vor Kurzem 400 Fachleute zur Erhöhung der Energie-Effizienz in Rechenzentren befragt und das Ergebnis in dem Whitepaper „Green Computing: Top Ten Best Practices for a Green Data Center How to build and operate an energy-efficient Data Center and reduce OpEx“ zusammengefasst. Michael McNerney von Supermicro erläutert den Inhalt.
(Bild: Savelight Studio - stock.adobe.com)

Die Beschaffung von Strom aus erneuerbaren Energiequellen ist ein naheliegender erster Schritt. Aber auch andere Methoden, wie die Erhöhung der Lufteintrittstemperaturen, die Optimierung der Stromzufuhr und der Einsatz des richtigen Systems zur richtigen Zeit, können zu einem energieeffizienterem Rechenzentrum beitragen.

Wie hoch ist die durchschnittliche Servereingangstemperatur in den Rechenzentren Ihres Unternehmens?
Wie hoch ist die durchschnittliche Servereingangstemperatur in den Rechenzentren Ihres Unternehmens?
(Bild: Supermicro)

Bei herkömmlichen Luftkühlungsmechanismen wird die Temperatur der Luft, die in die Server eintritt (Einlasstemperatur), durch Computer Room Air Conditioning (CRAC) Anlagen bestimmt. Die Art und Weise, wie die Klimatisierung in einem Rechenzentrum genutzt wird, trägt am meisten zur PUE-Berechnung bei.

Der PUE-Wert eines Rechenzentrums ist definiert als die Gesamtmenge des an das Rechenzentrum gelieferten Stroms, geteilt durch die von den IT-Komponenten verbrauchte Strommenge. Je niedriger der Wert ist, desto Energie-effizienter ist das Rechenzentrum. Eine Reduzierung der Klimatisierung senkt den PUE-Wert und damit die Betriebskosten erheblich.

Betrieb bei höheren Temperaturen

Weltweit halten jedoch viele Rechenzentren die Vorlauftemperaturen zu niedrig. Die Betreiber von Rechenzentren können den Stromverbrauch senken, indem sie die Vorlauftemperaturen auf den vom Hersteller empfohlenen Höchstwert erhöhen. Die Ergebnisse einer Umfrage von Supermicro unter mehr als 400 IT-Fachleuten und Leitern von Rechenzentren zeigen, dass die meisten Betreiber die Vorlauftemperaturen auf weniger als den vom Hersteller empfohlenen Höchstwert beschränken (siehe: Grafik).

Die Wärme an ihrer Quelle einfangen

Die Klimatisierung ist die wichtigste Variable, die optimiert werden muss, um den PUE-Wert insgesamt zu senken.Das lässt sich insbesondere durch den Einsatz von Flüssigkeitskühlung erreichen. Auch wenn die Infrastruktur des Rechenzentrums möglicherweise geändert oder ergänzt werden muss, werden die langfristigen Einsparungen bei den Betriebskosten die anfänglichen Investitionen überwiegen.

Die Flüssigkeitskühlung von CPUs und GPUs kann den Bedarf an CRAC-Einheiten in Rechenzentren und die Notwendigkeit, Luft herum zu schieben, erheblich reduzieren. Es gibt verschiedene Methoden zur Verwendung von Flüssigkeitskühlung, um den Bedarf an forcierter Luftkühlung zu reduzieren.

Supermicro bietet Möglichkeiten zur direkten Chip- bezihungesweise CPU-Kühlung an.
Supermicro bietet Möglichkeiten zur direkten Chip- bezihungesweise CPU-Kühlung an.
(Bild: Supermicro)

Direct To Chip (DTC oder D2C) Kühlung

Bei dieser Methode wird eine kalte Flüssigkeit über die heiße CPU oder GPU geleitet. Da eine Flüssigkeit Wärme viel effizienter abführen und transportieren kann als Luft, kann die CPU oder GPU innerhalb ihres TDP-Bereichs (Thermal Design Power) gehalten werden. Dies kann bei der Skalierung auf Tausende von Systemen in einem mittleren bis großen Rechenzentrum zu erheblichen Einsparungen führen.

Rear Door Heat Exchanger (RDHx)

Die hintere Tür der Server-Racks wird mit Flüssigkeit und Lüftern ausgestattet, die die Abluft kühlen, bevor sie zurück in die Umluft des Rechenzentrums gelangt. Dabei muss die erwärmte Flüssigkeit gekühlt werden, bevor sie in das CRAC-System zurückgeführt wird. Durch diese Flüssigkeitskühlung wird die Luft im Rechenzentrum auf einer niedrigeren Temperatur gehalten, was den Kühlungsbedarf der Umluftanlage und damit den Strombedarf des Rechenzentrums verringert.

Immersionskühlung

Bei der Immersionskühlung wird der gesamte Server in eine dielektrische Flüssigkeit getaucht. Der enge Kontakt der Flüssigkeitsmoleküle mit den heißen CPUs, GPUs und anderen Komponenten ist eine sehr effiziente Methode zur Kühlung.

Supermicro unterstützt mit seiner Technik schon seit vielen Jahren Immersionskühlung mithilfe von Tauchbädern.
Supermicro unterstützt mit seiner Technik schon seit vielen Jahren Immersionskühlung mithilfe von Tauchbädern.
(Bild: Supermicro)

Auch sind so keine Lüfter in den Serversystemen selbst mehr notwendig. Vor dem Eintauchen müssen einige geringfügige Änderungen an den Servern vorgenommen werden. Ein ganzes Rack von Servern kann auf diese Weise gekühlt werden.

Hot & Cold Aisles

Altbekannt und doch nicht überall selbstverständlich: Eine erhebliche Menge an Strom kann durch die Verwendung von CRAC eingespart werden, wenn die heißen und kalten Gänge (Hot & Cold Aisles) im Rechenzentrum voneinander getrennt werden. Bei der Planung mit heißen und kalten Gängen sollten sich die Zu- und Abluft nicht vermischen, so dass die Kühlung des Rechenzentrums effizienter arbeiten kann.

Warm- ud Kaltgänge im Rechenzentrum sollten selbstverständlich sein-
Warm- ud Kaltgänge im Rechenzentrum sollten selbstverständlich sein-
(Bild: Supermicro)

Für eine angemessene Kühlung müssen die Rack-Reihen so installiert werden, dass sich die Rückseiten der Racks gegenüberliegen, wodurch ein Warmgang entsteht. Ein wichtiges bewährtes Verfahren bei der Planung eines Energie-effizienten Rechenzentrums ist daher die Einrichtung von Warm- und Kaltgängen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Optimierung der Netzteilauslastung

Die Umwandlung von Wechselstrom in Gleichstrom ist mit einer gewissen Wärmeentwicklung verbunden. Wenn das Rechenzentrum mit Wechselstrom versorgt wird, muss der Strom für das System in Gleichstrom umgewandelt werden.

Bei jeder Umwandlung geht Energie verloren, was zur Ineffizienz des Rechenzentrums beiträgt. Eine effizientere Umwandlung führt zu einer geringeren Energieverschwendung während der Umwandlung, wobei die Wärme das Nebenprodukt ist, das aus dem System abgeführt werden muss.

Titan-Netzteile sind die effizienteste Option mit einem Wirkungsgrad von 96 Prozent. Platin-Netzteile sind mit 94 Prozent etwas weniger effizient. Gold-Netzteile bieten einen geringeren Wirkungsgrad von 92 Prozent.

Der Wirkungsgrad eines Netzteils ist nicht linear oder flach, wenn es um den Leistungsbereich des Netzteils geht. Die meisten Netzteile erreichen ihren maximalen Wirkungsgrad, wenn sie im oberen Bereich ihrer Nennleistung arbeiten. Das bedeutet, dass ein 800-Watt-Netzteil, das 400 Watt Leistung (50 Prozent Kapazität) liefert, weniger effizient ist als ein 500-Watt-Netzteil, das dieselbe Ausgangsleistung von 400 Watt (80 Prozent Kapazität) liefert.

eBook

Datacenter unter Druck

Grüner geht's nicht. Oder doch?

Grüner geht's nicht. Oder doch?
eBook: Grüner gehts nicht. Oder doch?
(Bild: DataCenter-Insider)

Die Datacenter-Branche zählt in puncto Nachhaltigkeit klar zur Avantgarde: turbodigitalisiert, fieberhaft datengetrieben, eifrig bemüht zu innovieren. Alles „im grünen Bereich“ also? Wohl kaum.
Der EnEfG-Entwurf enthält neben neuen Vorgaben hinsichtlich der Energie-Auditpflicht erstmals Anforderungen an die Energie-Effizienz von Rechenzentren. Wer diese Vorgaben erfüllen will, muss alle Register ziehen. Doch um wirklich an allen Stellschrauben zu drehen, muss man sie erst einmal finden.
Hier das Inhaltsverzeichnis des eBook:

  • Zwischen Innovationsfieber und Regularien: „Geht nicht“ gibt‘s nicht
  • Stellschrauben der Energie-Effizienz
  • Nichts wird so heiß gerechnet. Luft, Wasser & Co.
  • Gleich(strom) und Gleich(strom) gesellt sich gern
  • Wohin jetzt mit der der Abwärme?
  • Nachhaltige Digitalisierung: Wie Rechenzentren für Erfolg sorgen können

Grüner Strom

Die gewählte Stromquelle beziehungsweise der gewählte Stromlieferant beeinflusst die CO2-Gesamtbilanz eines Rechenzentrums erheblich. Optimal ist die dezentrale Erzeugung erneuerbarer Energien, die sich im Besitz oder unter der Kontrolle von Rechenzentren befindet.

Aber die erneuerbaren Energiequellen vor Ort können den Energiebedarf von Rechenzentren nicht immer decken. Glücklicherweise kann saubere Netzenergie diesen Bedarf ergänzen. Es gibt auch immer effektivere Energiespeicherlösungen für den Einsatz vor Ort, deren Kosten mit der Weiterentwicklung von Batteriespeichertechnologien sinken.

*Der Autor
Michael McNerney ist Vice President Marketing and Network Security bei Supermicro.
Kurzum: Rechenzentren sind für die Weltwirtschaft von entscheidender Bedeutung. Viele Aspekte des modernen Lebens hängen von Rechenzentren ab, die mehr Strom als je zuvor verbrauchen, um die von allen genutzten Dienste bereitzustellen. Während die Arbeit pro Watt der CPU weiter zunimmt, besteht die Notwendigkeit, den Gesamtstromverbrauch von Rechenzentren zu senken.
Es gibt mehrere Maßnahmen, die Betreiber von Rechenzentren ergreifen können. Dazu gehören der Betrieb von Systemen bei wärmeren Temperaturen, die Konfiguration des Rechenzentrums mit warmen und kalten Gängen und die Beschaffung von Ökostrom. Mit nur wenigen Maßnahmen können Rechenzentren ihren PUE-Wert reduzieren, ihre Betriebskosten senken und ihren CO2-Fußabdruck auf Jahre hinaus verringern.

Bildquelle: Supermicro

(ID:49587448)