Automatisierung ist eine wichtige Komponente der stromsparenden Datenzentrums

Energieoptimierte Rechenzentren: Hardware. Software und das Kühldesign müssen zusammenpassen

10.12.2007 | Redakteur: Ulrich Roderer

Für Kühlleistungen über 20 kW pro Rack funktionieren nur geschlossene direkt gekühlte Racks technisch verlässlich.
Für Kühlleistungen über 20 kW pro Rack funktionieren nur geschlossene direkt gekühlte Racks technisch verlässlich.

Energiesparende CPUs und Komponenten bilden die Grundlage einer energieeffizienten IT. Doch hohe Packungsdichten und Konsolidierung erfordern andererseits neue Kühllösungen und automatisierte Prozesse, um diese Infrastrukturen optimal auszulasten. DataCenter-Insider sprach mit Corina Laudenbach, Manager Marketing Server & Solutions Deutschland, Fujitsu Siemens Computers über die Entwicklungen.

DataCenter-Insider: Energieeffizienz ist ein Thema, das aus vielen Teilbereichen zusammengesetzt ist, beginnend bei den Komponenten bis zum Rechenzentrumsdesign. Was sollte man beachten, um Rack- oder Bladeserver effizient zu konfigurieren?

Laudenbach: Das Wichtigste bei der Konfiguration von Rack- oder Bladeservern ist, auf den Einsatz der richtigen Komponenten zu achten und diese auf ihre Energieeffizienz testen. Ein Beispiel: Wir haben mit Hilfe des Primergy Power Configurator – ein Tool zur Ermittlung der Energiewerte eines Servers – ein Standardmodell eines PRIMERGY RX300 S3 System mit einer energieoptimierten Variante bei identischen Performancewerten verglichen. Der Vergleich hat ergeben, dass sich durch den Einsatz von Low-Voltage-Prozessoren, kleineren Festplatten (2,5“ statt 3,5“) sowie der Ausstattung mit nur einem Netzteil und vier RAM-Bausteinen à 2 GByte anstatt acht mit jeweils 1 GByte, rund ein Drittel des Energieverbrauchs eingespart werden kann. Die Stromkosten für den Betrieb lassen sich so von durchschnittlich 304 Euro auf 210 Euro im Jahr senken. Berücksichtigt man nun zusätzlich, dass etwa der gleiche Anteil an Energie im Bereich der Kühlungsinfrastruktur gespart werden kann, amortisieren sich die Mehrkosten von 220 Euro für die Anschaffung des energieeffizienteren Systems schon nach etwa einem Jahr.

Wo sehen Sie die Grenzen der Konsolidierung?

IT-Konsolidierung ist nur ein Aspekt, um IT-Infrastrukturen zu optimieren. Dabei geht es primär darum, die auf vielen Ressourcen verteilten Daten und Anwendungen, auf wenigen, aber leistungsfähigeren zusammenzuführen. Die Grenzen werden hier schnell sichtbar: Da sichergestellt werden muss, dass die eingesetzte Hardware auch weiterhin alle Lastspitzen bewältigt, um die definierten Service Level zu garantieren, müssen die Systeme (Anzahl CPU, Speicher, I/O) maximal ausgelegt sein. Das aber limitiert die Summe der zu konsolidierenden Systeme beträchtlich. Des Weiteren wächst das Risiko, dass ein Systemausfall nun gleich mehrere Anwendungen trifft. Daher muss die Ausfallsicherheit durch zusätzliche Hochverfügbarkeitsmechanismen sichergestellt werden.

Also hat physikalische Konsolidierung Auswirkungen auf die Anwendungsinfrastruktur?

Ja. Im Rahmen unseres Dynamic Data Center-Konzept (DDC) virtualisieren wir auch die Ressourcen und beziehen die Aspekte der Integration und Automatisierung mit ein. Wir haben frühzeitig erkannt, dass gerade das Zusammenspiel aller drei Komponenten entscheidend für wirklich effiziente dynamische IT-Infrastrukturen ist. Bereits heute verfügen wir über Infrastrukturlösungen, die SAP-Anwendungen sowie Applikationsserver- und Datenbankservices unter Oracle virtualisieren. Des Weiteren sind wir auch in der Lage, heterogene Anwendungslandschaften mit Windows, Solaris und Linux auf unseren Bladesystemen zu virtualisieren und automatisch zu provisionieren, wenn die Anwendungen bereits in Betrieb sind und gar nicht in Hinblick auf DDC erstellt worden sind. Dadurch schaffen wir die Möglichkeit, dass die bereits bestehende Anwendungslandschaft vollständig in das DDC-Konzept integriert werden kann.

Gibt es bereits Lösungen, die die Auslastung von Servern monitoren und entsprechend dynamisch die Kapazitäten allokieren bzw. abschalten?

Ja, solche Lösungen gibt es bereits auf dem Markt und mit ihnen lässt sich durch die verbesserte Serverauslastung der Stromverbrauch im Rechenzentrum erheblich senken. Eine dieser Lösungen ist unser Management-Tool Serverview. Speziell das Modul Power Control überwacht den Status der Server. Tritt ein Ereignis ein, reagiert Power Control automatisch und schaltet beispielsweise einen bestimmten Server oder eine bestimmte Servergruppe ein bzw. aus. Solche Ereignisse können ein bestimmter Zeitpunkt, ein bestimmtes Datum oder ein beliebiges Ereignis sein, das durch ein Skript oder einen Prozess gesendet wird.

Bei unseren Dynamic-Data-Center-Lösungen setzen wir gezielt auf Automatisierungstechnologien wie das Adaptive Services Control Center (ASCC), mit dem sich Ressourcen und Applikationen steuern und bestimmten Servern zuweisen lassen. Erkennt das System nach definierten Regeln, dass die Rechenleistung eines Servers momentan nicht benötigt wird, wird er automatisch abgeschaltet – und bei entsprechendem Bedarf wieder aktiviert. So laufen bestimmte Server oder Servergruppen nur dann, wenn es erforderlich ist. Dadurch lässt sich der Stromverbrauch um bis zu 75 Prozent reduzieren.

Müssen Rechenzentren auf Flüssigkühlung zurückgreifen, um die steigenden Anforderungen in den Griff zu bekommen?

Rechenzentren sind heutzutage fast immer noch luftgekühlt. Server und andere IT-Komponenten werden meist so in Serverracks eingebaut, dass sie frontseitig kühle Luft aus dem Raum ansaugen und erwärmte Luft rückseitig ausblasen. Sofern ausreichend Kühlluft zur Verfügung steht und die Wärmeabfuhr per Luft durch den Rechnerraum funktioniert, sind selbst Hochleistungsrechner wie Blade Server einwandfrei mit Luft kühlbar. Aktuelle Serverracks sind so konstruiert, dass die Türen durch die Qualität ihrer Perforation (> 80 Prozent freie Luftdurchtrittsfläche) keinen nennenswerten Strömungswiderstand leisten.

Die technisch maximal mögliche Kühlleistung pro Rack findet ihre Grenzen in der Fähigkeit des umgebenden Raumes, ausreichend Kühlluft zu den Frontseiten der Racks zu schaffen und die Warmluft von den Rückseiten wieder aus dem Raum heraus zu den meist an der Peripherie der Rechenzentrumsfläche aufgestellten Umluftkühlgeräten zurückzuführen. Mit der Kaltgang- / Warmgang-Anordnung lassen sich, sorgfältige Planung und Ausführung vorausgesetzt, etwa 3 bis 5 kW Kühlleistung pro Rack abführen. In älteren Rechenzentren liegen diese Werte meist erheblich niedriger, etwa bei 1 bis 2 kW pro Rack.

Durch den enormen Anstieg der Rechnerleistung während der letzen Jahre hat sich die Packungsdichte der Elektronik doch wesentlich erhöht.

Ja das stimmt. Die Wärmebelastung einzelner Schränke hat trotz der erheblich verbesserten Energieeffizienz der Server inzwischen Werte von über 20 kW im Jahr 2007 erreicht, verglichen mit zirka 1-2 kW im Jahr 2000. Diese Wärmelasten liegen in einem Bereich, in dem die klassische Präzisionsklimatisierung bei weitem überfordert ist. Um die heutigen Servervorteile wie beispielsweise vollständige Rackbestückung und damit verbundener geringerer Platzbedarf auch komplett ausnutzen zu können, müssen daher Flüssigkühlungen in Erwägung gezogen werden.

Für sehr hohe Kühlleistungen über 20 kW pro Rack funktionieren nur geschlossene direkt gekühlte Racks technisch verlässlich und wirtschaftlich optimal. Wegen der günstigen Eigenschaften werden solche Produkte aber auch schon für Kühlleistungen ab 10 kW eingesetzt.

Der höhere Wirkungsgrad der Kühlungsinfrastruktur durch Wasserkreislauf – Wasser ist ein 3.500 mal besserer Wärmeträger als Luft – erlaubt die Erhöhung der Packungsdichte, nicht nur innerhalb der wassergekühlten Racks, sondern auch Rechenzentren können „wärmeneutral“ mit Racks und Servern gefüllt werden, unabhängig von der Kühlleistung. Jetzt hängt die Packungsdichte nur noch von den geometrischen Eigenschaften im Rechenzentrum und der Kapazität des Kaltwassersatzes ab.

Welches Design der Infrastruktur ist optimal? Sollte ein Rechenzentrum z.B. verschiedenen Kühlmöglichkeiten wie geschlossene Schränke oder Kalt- und Warmluftgänge kombinieren?

Das Optimierungspotenzial der klassischen Lösung liegt vor allem in der sorgfältigen Führung der Kühlluft. Die konsequente Abdichtung aller Lecks im Doppelboden, die sorgfältige Auswahl und Platzierung der Doppelbodenplatten sowie die Kalt- / Warmtrennung innerhalb der Racks sind die Grundlage für den energieoptimierten Betrieb. Um Rückströmungen von Warmluft zu vermeiden, ist ein sorgfältiges Ausbalancieren der zulässigen Wärmelasten (und damit der IT-Bestückung) je Schrank unerlässlich. Kein Umluftkühlsystem lässt sich so auslegen, dass an jedem Schrank die gleiche Kühlluftmenge zur Verfügung steht bzw. dass die Abfuhr der Warmluft überall gleich gut funktioniert. Es steht also je Schrank ein individueller Leistungsumfang zur Verfügung, der bei der Bestückung mit IT-Komponenten berücksichtigt werden muss. Für eine optimale klassische Präzisionsklimatisierung sollte dafür gesorgt sein, dass nur die Luftmenge bewegt werden muss, die tatsächlich gebraucht wird. Zusätzlich sollten die Gebläse in den Umluftkühlgeräten über Referenztemperatursensoren im Raum drehzahlgeregelt werden. So lässt sich der Energiebedarf für die Luftumwälzung minimieren. Weitere Potentiale ergeben sich, wenn höhere Ausblastemperaturen – 20 bis 22 Grad Celsius sollten ausreichen – aus dem Doppelboden genutzt werden. Durch den günstigeren Chiller-Wirkungsgrad und die längere Freikühlungsperiode kann das gesamte Kühlsystem mit erheblich geringerem Strombedarf betrieben werden.

Und wie verhält es sich mit wassergekühlten Systemen?

Bei geschlossenen wassergekühlten Serverschränken ist die Luftumwälzung bereits für alle Betriebszustände optimiert. Die möglichen Vorlauftemperaturen liegen hier höher als bei der optimierten klassischen Kühllösung. Zusätzliche Einsparpotenziale ergeben sich durch eine Bestückung der Schränke unterhalb der maximalen Kühllast. So reicht beispielsweise für einen mit zirka 15 kW bestückten 25 kW Schrank eine Kühlwassertemperatur von etwa 20 Grad Celsius aus, um die Kühllufttemperatur im Inneren konstant und über die gesamte Höhe gleich bei 25 Grad Celsius zu halten. Abhängig von den eingesetzten Servern kann die Kühllufttemperatur auch weiter hochgesetzt werden, wobei 25 Grad Celsius Dauertemperatur meist unproblematisch sind – einige Server sind für noch höhere Dauertemperaturen bis etwa 30 Grad Celsius ausgelegt. Damit ist, zumindest mit geschlossenen Schränken, denkbar, auf Chiller im Kühlsystem ganz zu verzichten und das ganze Jahr über mit Nasskühltürmen zu fahren. Damit wären die größten Energiefresser vollständig eliminiert. Gegenüber herkömmlichen Kühllösungen können, je nach Ausgangssituation, bis zu 40 Prozent des Energieaufwandes für Kühlsystem und Luftumwälzung eingespart werden.

Tendenziell ist die klassische Lösung die kostengünstigere Variante. Dort wo starke Hitze-Hotspots entstehen, empfiehlt es sich aber, diese mit einer Wasserkühlung zu kombinieren. Die örtlichen Infrastrukturgegebenheiten sollten vorab genau geprüft und bewertet werden. Anhand der Ergebnisse können dann eine individuelle Planung der optimalen Kühlungsmöglichkeiten sowie ein genauer Rückschluss auf die Kosten erfolgen.

Bisher werden einzelne Komponenten der Server energieoptimiert wie Prozessoren. Werden auch eines Tages alle Komponenten energieeffizient ausgelegt sein und - intelligent mit Software zusammenarbeitend - automatisch den geringsten Stromverbrauch ermöglichen?

Bereits heute sind alle relevanten Komponenten wie CPU, Speicher, Netzteile, Festplatten in energieoptimierten Varianten verfügbar. Werden diese kombiniert, sind damit Einsparpotentiale von mehr als 30 Prozent pro Server möglich. Wir statten unsere Produkte mit allen zurzeit verfügbaren energieoptimierten Komponenten aus. Dies beginnt beim Prozessor mit der Low-Voltage-Technologie und Demand Based Switching – eine Funktionaliät innerhalb der CPU, die den Prozessortakt und damit den Stromverbrauch automatisch an die Lastsituation anpasst. Darüber hinaus verwenden wir stromsparende Varianten von Speichermodulen und Festplatten. Entscheidend sind auch qualitativ hochwertige Netzteile, denn nur mit ihnen lässt sich der beste Wirkungsgrad erzielen. Zusätzliches Energie-Einsparpotenzial bieten intelligente Management-Tools, wie das bereits weiter oben genannte ServerView Power Control, das die Auslastung der Systeme überwacht und gezielt Server ausschaltet und wieder einschaltet, wenn dies die jeweilige Lastsituation erfordert. Die optimale Auslastung des Serverpools kann darüber hinaus durch ein intelligentes bedarfsbezogenes Deployment des jeweiligen Servers erreicht werden.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 2009475 / Versorgung)