Kühler Kopf für heiße Rechner Flüssigkühlung bietet einen Schlüssel für nachhaltige Datacenter-Strategien

Ein Gastbeitrag von Paul Höcherl* 5 min Lesedauer

Anbieter zum Thema

Die digitale Welt wächst und die Infrastruktur gerät ins Schwitzen. Während die Rechenleistung in der KI-Ära neue Höhen erreicht, treiben Prozessoren den Energieverbrauch auf Werte, die früher für ganze Rechenzentren galten. Mit dem Leistungsanstieg muss mehr Hitze aus dem Rechner, dem Rack, den Datacenter. Klassische Luftkühlung stößt dabei an Grenzen.

Direkte Chipkühlung mit warmem Wasser gilt für den Autor als der grüne Erfolgshebel für den Betrieb hochdichter Rechenzentren. (Bild:  Midjourney / KI-generiert)
Direkte Chipkühlung mit warmem Wasser gilt für den Autor als der grüne Erfolgshebel für den Betrieb hochdichter Rechenzentren.
(Bild: Midjourney / KI-generiert)

Die Ausgangslage ist eindeutig. Mit dem Boom von Large Language Models (LLMs), Deep-Learning-Systemen und High Performance Computing (HPC) entstehen massive Anforderungen an IT-Infrastrukturen. GPUs mit einem Leistungsbedarf von 700 Watt und mehr sind keine Ausnahme mehr.

In einem einzigen Rack entstehen heute Wärmemengen von 80 bis 100 Kilowatt (kW), also die thermische Last, die durch den Stromverbrauch der Hardware als Abwärme freigesetzt wird. Zur Erinnerung: Noch vor zehn Jahren galt eine Rack-Dichte von 10 Kilowatt als ambitioniert.

In klassischen Rechenzentren bedeutet das: Um eine solche Wärmemenge per Luftkühlung abzutransportieren, müssen enorme Luftmengen bewegt werden: über leistungsstarke Lüfter, Kühlaggregate und Klima-Anlagen. Das erhöht nicht nur den Stromverbrauch der Kühlung, nicht selten 30 bis 40 Prozent des gesamten Energiebedarfs, sondern schafft auch systemische Ineffizienzen. Denn Luft ist ein schlechter Wärmeträger.

Flüssigkühlung bietet einen Ausweg

Um zum Beispiel 100 kW Abwärme mit klassischer Klimatisierung abzuführen, braucht es rund 43 kW an zusätzlicher Kühlleistung – mit entsprechend hohen Betriebskosten und Platzbedarf für die Infrastruktur. Gleichzeitig stehen Betreiber unter Druck, da die Anforderungen an Nachhaltigkeit steigen. Investoren, Kunden und Regulierer verlangen Transparenz bei CO₂-Emissionen und Ressourceneinsatz. Hier setzt Liquid Cooling an.

Die spezifische Wärmekapazität von Wasser beträgt etwa 4,2 Kilojoule pro Kilogramm und Kelvin, bei Luft liegt sie nur bei rund 1 Kilojoule pro Kilogramm und Kelvin. Gleichzeitig ist die Dichte von Wasser um das 800-Fache höher.(Bild:  Midjourney / KI-generiert)
Die spezifische Wärmekapazität von Wasser beträgt etwa 4,2 Kilojoule pro Kilogramm und Kelvin, bei Luft liegt sie nur bei rund 1 Kilojoule pro Kilogramm und Kelvin. Gleichzeitig ist die Dichte von Wasser um das 800-Fache höher.
(Bild: Midjourney / KI-generiert)

Der Grundgedanke ist einfach: Statt warme Luft durch das System zu pusten, wird Kühlflüssigkeit direkt an die Wärmequellen geführt. Dabei existieren drei technische Ansätze:

  • Direct-to-Chip-Kühlung (D2C): Kühlplatten sitzen direkt auf CPU, GPU oder RAM. Flüssigkeit wird durch mikrostrukturierte Kanäle geführt, die die Hitze unmittelbar aufnehmen und abführen.
  • Immersionskühlung: Serverkomponenten werden vollständig in ein dielektrisches, nichtleitendes Fluid getaucht. Die Wärme wird durch Konvektion oder Pumpen abgeführt.
  • Liquid-Assisted Air Cooling (LAAC): Hybridmodelle, bei denen Flüssigkeit gezielt an Hotspots eingesetzt wird, während weniger Wärme-intensive Komponenten weiter durch Luft gekühlt werden.

Im Vergleich zur Luft hat Flüssigkeit entscheidende Vorteile: Sie transportiert Wärme bis zu 4000-mal besser. Das senkt nicht nur den Kühlbedarf an sich, sondern reduziert auch die interne Luftbewegung. Das Resultat: Weniger Lüfter, geringerer Stromverbrauch, weniger Vibrationen, längere Hardwarelebensdauer.

Flüssigkeit gegen Hitzestau

Physikalisch ausgedrückt: Die spezifische Wärmekapazität von Wasser beträgt etwa 4,2 Kilojoule pro Kilogramm und Kelvin, bei Luft liegt sie nur bei rund 1 Kilojoule pro Kilogramm und Kelvin. Gleichzeitig ist die Dichte von Wasser um das 800-Fache höher. Das erklärt den drastischen Effizienzunterschied.

Dadurch eröffnen sich neue Möglichkeiten für die Systemarchitektur: Höhere Rack-Dichten, kürzere Wege, vertikale Skalierung. Alles, was in luftgekühlten Szenarien zu thermischen Problemen führen würde, wird möglich.

Der grüne Hebel für Rechenzentren

Mit der steigenden Leistungsdichte in Rechenzentren wächst nicht nur der Stromverbrauch – auch der ökologische Fußabdruck wird zum kritischen Faktor. Denn die Kühlung ist heute einer der Hauptverursacher von indirekten CO₂-Emissionen. Klassische Klimatisierung basiert vielfach auf Kältemaschinen und Verdunstungskühlern. Diese benötigen nicht nur viel Strom, sondern auch enorme Mengen Wasser.

Laut Uptime Institute verbraucht ein durchschnittliches Rechenzentrum mit herkömmlicher Kühlung allein zur Wärmeabfuhr bis zu 25,5 Millionen Liter Trinkwasser pro Jahr. Das entspricht dem Bedarf von über 60 Haushalten täglich.

Flüssigkühlung, insbesondere bei Nutzung sog enannter Warmwasserkühlungungen, kehrt das Verhältnis um: Statt kaltes Wasser mit viel Energie-Aufwand zu erzeugen, wird bewusst mit höheren Kühlmitteltemperaturen, zum Beispiel 45–60 Grad, gearbeitet. Das erlaubt den Einsatz von trockenem Rückkühlern, die ohne Verdunstung funktionieren. Die Folge: kein Wasserverlust, keine aufwendige Wasseraufbereitung, keine Emissionen durch Zusatzstoffe. Gleichzeitig erlaubt Flüssigkühlung, die Abwärme sinnvoll zu nutzen, etwa zur Gebäudebeheizung oder Einspeisung in kommunale Wärmenetze.

Kühlung nicht länger nur ein Technikthema

Die Kühlstrategie eines Rechenzentrums ist längst keine rein technische Entscheidung mehr. Sie ist Teil strategischer ESG-Berichtspflichten (Environmental, Social, Governance). Energie-Effizienz, CO₂-Ausstoß und Wasserverbrauch fließen heute in Nachhaltigkeitsratings ein, beeinflussen Investitionsentscheidungen und Ausschreibungen.

Hyperscaler veröffentlichen mittlerweile jährlich detaillierte Nachhaltigkeitsberichte, in denen sie Werte wie die Energie-Effizienz, CO₂-Äquivalente und den Wasserverbrauch pro Kilowattstunde offenlegen. Betreiber von Co-Location-Rechenzentren stehen unter wachsendem Druck, ähnliche Metriken vorzuweisen.

Flüssigkühlung bietet dabei drei konkrete ESG-Vorteile:

  • 1. Energie-Effizienz (PUE): Durch Vermeidung Energie-intensiver Klimatisierung lässt sich der Gesamtenergieverbrauch um bis zu 30 Prozent senken. Werte unter 1,2 PUE sind realistisch.
  • 2. Wasserverbrauch (WUE): Durch den Verzicht auf Verdunstungskühlung sinkt der Wasserverbrauch auf nahezu null. Das reduziert die WUE (Water Usage Effectiveness) drastisch, ein zentrales Kriterium in Wassermangelregionen.
  • 3. CO2-Bilanz: Geringerer Strombedarf der Kühlung führt zu weniger indirekten Emissionen. Das ist besonders relevant, wenn der Strom aus fossilen Quellen stammt.

Flüssigkühlung ist damit nicht nur ein Mittel zur Effizienzsteigerung; sie wird zur Visitenkarte nachhaltiger IT-Infrastruktur. Insbesondere in Europa, wo die EU-Taxonomie konkrete Umweltkriterien für Rechenzentren festschreibt, kann sie zum Wachstumsfaktor werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die Energie steckt im Algorithmus

Hardwareseitig bringt Flüssigkühlung bereits deutliche Effizienzvorteile. Doch das volle Potenzial entfaltet sich erst im Zusammenspiel mit intelligenter Softwaresteuerung und genau hier setzt moderne Energie-Management-Software an.

Solche Systeme überwachen in Echtzeit, wie stark einzelne Anwendungen die verfügbaren Rechenressourcen beanspruchen, etwa Prozessoren, Grafikkarten, Speicher oder Datentransfers. Anhand dieser Daten berechnet die Software, wie viel Energie ein bestimmter Rechenjob tatsächlich benötigt und passt automatisch die Taktrate der jeweiligen Komponenten an.

So läuft die Hardware nicht dauerhaft unter Volllast, wenn es gar nicht nötig ist. Der Effekt: weniger Stromverbrauch, weniger Abwärme, längere Lebensdauer der Geräte.

Es braucht ein Management

Auch bei komplexen KI- und HPC-Anwendungen lassen sich so deutliche Einsparungen erzielen. In Tests mit Hochleistungs-GPUs vom Typ „Nvidia A100“ oder „H100“ konnten durch intelligentes Frequenz-Management bis zu 20 Prozent Energie eingespart werden, ohne dass sich die Rechenzeit spürbar verlängert.

Ein weiterer Vorteil: Die Software dokumentiert den Energieverbrauch einzelner Rechenvorgänge, die auf dem System ausgeführt werden. So lässt sich genau nachvollziehen, wie viel Strom für welche Anwendung benötigt wurde. Das schafft Transparenz, erleichtert die interne Verrechnung von IT-Ressourcen und liefert eine fundierte Datenbasis für Nachhaltigkeitsberichte oder Effizienzanalysen.

Im Zusammenspiel mit Flüssigkühlung entsteht so ein Betriebskonzept, das nicht nur technisch effizient ist, sondern auch klare Vorteile für ESG-Ziele, Berichtspflichten und die Wirtschaftlichkeit bringt.

*Der Autor
Paul Höcherl ist Product Manager bei Lenovo ISG. Geboren ist er 1968 in München und hat Mathematik und Physik an der LMU studiert. Er ist in seiner Freizeit für die Grünen München seit 2020 Mitglied des Bezirksausschusses 16 in Ramerdorf-Perlach und dort Vorsitzender des Unterausschusses Mobilität.

Bildquelle: Paul Höcherl

Artikelfiles und Artikellinks

(ID:50595735)