Wie Flüssigkühlung praxistauglich werden kann Server-Kühlung: Wasserscheu ist heilbar
Flüssig gekühlte Server im Rechenzentrum sind immer noch ein Reizthema. Doch die Bereitschaft wächst, Alternativen zur "heißen Luft" in Betracht zu ziehen. Was kann Flüssigkühlung leisten, welche Möglichkeiten gibt es und was gilt es zu beachten?
Gesponsert von

Viele Gamer tun es und Betreiber von Supercomputing-Cluster tun es auch. Sie kühlen ihre Systeme zumindest teilweise mit Wasser. Doch wer die Verantwortung für herkömmliche Rechenzentren hat, gilt sprichwörtlich als wasserscheu. Dafür gibt es Gründe: gute und weniger gute.
Doch klar ist auch, an den Fortschritten in der Kühltechnik wird sich entscheiden, ob die Rechenzentren der Zukunft den Anforderungen noch gerecht werden können oder nicht. Drei Faktoren sorgen dafür, dass an Flüssigkühlung dabei kein Weg vorbeiführen wird: Energieverbrauch, Leistungsdichte und das Abwärmeproblem.
Strom sparen oder Standort weg
Der Energieverbrauch ist der offensichtlichste Grund, nach Alternativen für herkömmliche Rechenzentrumskühlung zu suchen. Gerade in Ländern wie Deutschland mit politisch gewollt hohen Strompreisen ist eine drastische Senkung des Stromverbrauchs die einzige Möglichkeit, die Attraktivität des Standortes zu sichern und der Abwanderung einer ganzen Branche vorzubeugen. Konsequente Flüssigkühlung kann bei einem branchenüblichen PUE-Wert von 1,8 mehr als 50 Prozent Energiekosten sparen. Dabei ist das Potenzial der Abwärmenutzung noch nicht eingerechnet.
Dicke Server, leere Racks
Trends wie hyperkonvergente Systeme, GPU-Computing oder auch etablierte Techniken wie Virtualisierung setzen Server mit hoher Leistungsdichte voraus. Kraftvolle CPUs wie etwa Intels neue Xeon-Generation sind zwar so Energie-effizient wie nie zuvor, verbrauchen aber im oberen Leistungsspektrum dennoch 165 Watt pro Sockel. Eben weil sie mehr und performantere Cores auf dem Chip unterbringen.
Außerdem erlaubt die Plattform bis zu acht Sockel pro Mainboard. Mehr als 1,3 Kilowatt allein für die CPUs bedeutet für den Server je nach Konfiguration bis zu 2.000 Watt. Das hat Folgen: Bei typischen Racks bleiben dann die meisten Einschübe leer, einfach weil Racks und Klimatisierung nicht auf derartige Energiedichten ausgelegt sind. Das heißt, die Vorteile der höheren Leistungsdichte kommen beim Datacenter-Betreiber nicht an.
Mehr und mehr rückt auch das Abwärmeproblem in den Fokus von Öffentlichkeit und Betreibern. Im Großraum Frankfurt fängt die Abwärme von Rechenzentren bereits an, das lokale Mikroklima zu beeinflussen. Bereits jetzt würde die von Frankfurter Rechenzentren produzierte Wärme ausreichen, um 60 Prozent der Wohnungen im Stadtgebiet zu beheizen. 2025 könnten es sogar 90 Prozent sein. Flüssigkühlung macht den Wärmeaustausch technisch einfacher und viel weniger verlustreich als Luftkühlung.
Wer die Wahl hat... Methoden der Flüssigkühlung
Wenn also so viele Gründe für Flüssigkühlung sprechen, woher kommt dann das Zögern bei Planern und Betreibern? Derzeit konkurriert eine Vielzahl von mehr oder minder konsequenten Kühlmethoden um die Gunst, zum Einsatz zu kommen; bis hin zum radikalen Vorschlag von Microsoft, ganze Rechenzentren im Meer zu versenken. Viele Konzepte und fertige Produkte können aber nicht für alle der drei Punkte Energieverbrauch, Leistungsdichte und Abwärmenutzung gleichzeitig Lösungen bieten.
Ein guter "Hinkucker" bei Messen sind immer wieder Immersionskühlsysteme, bei denen komplette Server in eine nichtleitende (dielektrische) organische Flüssigkeit getaucht werden. Somit wird zwar das "gefährliche" Wasser im Server-Raum vermieden, Wärmeleitfähigkeit und Wärmekapazität dieser Flüssigkeiten sind aber längst nicht so hoch wie die von Wasser. Außerdem sind sie teuer und möglicherweise nicht konsequent auf Umwelt- und Klimaschädlichkeit geprüft. Die Wartbarkeit der Systeme kann ebenfalls zum Problem werden.
Flüssig gekühlte Racks, in denen konventionell luftgekühlte Server verbaut sind, haben dieses Problem nicht. Doch hier sind der Erhöhung der Leistungsdichte Grenzen gesetzt. Auch sind nach wie vor "Luftbrücken" vorhanden. Störungsanfällige, ebenfalls Strom verbrauchende Lüfter müssen für die Zirkulation sorgen.
Flüssigkühlung von CPUs und gegebenenfalls einzelner weiterer Komponenten ist im Supercomputing-Umfeld weit verbreitet. Oft handelt es sich dort um "Einzelanfertigungen". Auch hier stellt sich wieder die Frage der Wartbarkeit, wenn die dort gemachten Erfahrungen auf den normalen Rechenzentrumsbetrieb übertragen werden sollen. Und die CPU ist eben nicht das einzige Element auf dem Mainboard, das Wärme erzeugt. Je mehr Intelligenz beispielsweise in die Netzwerk-Chips wandert, um so stromhungriger werden auch diese. Chipsätze und andere Mainboard-Komponenten erzeugen ebenfalls Wärme, so dass zusätzliche Lüfter erforderlich sind.
Energiesparen: Kein Privileg der Großen
Ein weiterer Punkt, den es zu berücksichtigen gilt, ist die Skalierbarkeit: nicht nur nach oben, sondern auch nach unten. Denn vieles deutet darauf hin, dass die (Public) Cloud nicht die allein seligmachende Lösung aller IT-Probleme ist. Dezentrale IT, neuerdings unter den Bezeichungen Edge und Fog Computing laufend, ist viel besser geeignet, die künftig massenweise anfallenden flüchtigen Daten vor Ort zu verarbeiten und gegebenenfalls zu speichern, auf einzelnen Servern oder in Micro-Datacenter.
Die Kühltechnologie muss also so beschaffen sein, dass sie auch nach unten skaliert. Denn gerade dort kann das Prinzip seine Vorteile voll ausspielen. Wer auf Klimageräte verzichten kann, spart Investitionskosten, Platz und Energiekosten im laufenden Betrieb. Und zwar in der Regel prozentual umso mehr, je kleiner das Mikrorechenzentrum ist.
Checkliste Flüssigkühlung: Kriterien für den Erfolg
Ein Flüssigkühlsystem, das auf dem Markt reüssieren will, muss große Energiesparpotentiale bieten, die Leistungsdichte steigern und möglichst noch Abwärmenutzung erlauben. Damit nicht genug. Es wird von den Betreibern nur dann akzeptiert werden, wenn es auch folgende "Pain Points" adressiert:
- Betriebssicherheit
- Praxistauglichkeit für IT und Facility
- Adaptierbarkeit auf unterschiedliche Hardware
- Skalierbarkeit
Beim "Hot Fluid Computing", einer von Intel unterstützten Entwicklung der Thomas-Krenn.AG aus Freyung in Niederbayern, standen diese Entwicklungsziele im Fokus. Es basiert darauf, dass Standard-Server-Hardware und weitere "Stromfresser", wie schnelle Netzwerk-Switches mit speziellen, adaptiven Kühlkörpern ausgestattet werden. Zentrale Netzteile für mehrere Server tragen zusätzlich zur Effektivität des Systems bei.
Mit Hot Fluid werden Server-Racks ganz ohne Lüfter möglich. Dabei ist die Technik relativ einfach aufgebaut und wartungsfreundlich. "Hot Fluid“ heißt das System deshalb, weil die Kühlflüssigkeit mit knapp 60 Grad Celsius aus dem Kühlkörper in den Wärmetauscher fließt und so die Abwärme genutzt werden kann. Die lüfterlose Bauweise erlaubt sehr kompakte Systeme sowohl für das Rack als auch als Stand-Alone-Lösung.
Da die Thomas-Krenn.AG als Server-Hersteller häufig spezielle Anforderungen ihrer Kunden erfüllt, sind in Hot Fluid Computing zahlreiche Erfahrungen und Ideen aus dem alltäglichen Business eingeflossen. Kombiniert mit einer Portion niederbayerischem Pragmatismus entstand ein praxistaugliches Produkt, das einen genaueren Blick wert ist.
Informieren Sie sich hier über Anwendungsgebiete und Förderungs-Möglichkeiten von Hot Fluid.
(ID:45035050)