Heiß gerechnet Wie KI-Rechenzentren die Wärmeplanung verändern

Ein Gastbeitrag von Johanna Eickholt* 5 min Lesedauer

Anbieter zum Thema

Mit KI-Workloads steigen die Leistungsdichten in Rechenzentren deutlich. Damit verändern sich die Anforderungen an die Infrastruktur. Kühlung, Energiebedarf und Anlagenbewertung müssen neu gedacht werden. In den Fokus rückt dabei ein Faktor, der lange als bloßes Nebenprodukt galt: die Abwärme.

Das Bild soll veranshaulichen, wie heiß ein Server werden kann. Das Metall der Münzen schmilzt zwar nicht, doch es kommt zur Rauchentwicklung. (Bild: ©  newlifestock - stock.adobe.com / KI-generiert)
Das Bild soll veranshaulichen, wie heiß ein Server werden kann. Das Metall der Münzen schmilzt zwar nicht, doch es kommt zur Rauchentwicklung.
(Bild: © newlifestock - stock.adobe.com / KI-generiert)

Stefan Frenzel, Geschäftsführer und unabhängiger Berater bei DME, sagt: „Durch KI-Anwendungen oder High Performance Computing im Allgemeinen nimmt die Dichte im Rack zu. Eine reine Luftkühlung reicht nicht mehr aus.“

Während klassische Enterprise-Anwendungen meist bei fünf bis 15 Kilowatt pro Rack lagen, erreichen speziell für KI ausgelegte Racks heute Leistungsdichten von 80, 120 oder sogar 150 Kilowatt. Ein Rack mit 150 Kilowatt Leistungsaufnahme verwandelt diese Energie nahezu vollständig in Abwärme um. Das entspricht rund 150 Kilowatt thermischer Leistung.

Ab etwa 25 bis 30 Kilowatt stößt reine Luftkühlung an physikalische Grenzen, so Frenzel. Oberhalb dieses Schwellenwerts seien alternative Konzepte erforderlich.

Von der Luft- zur Flüssigkühlung

In bestehenden Rack-Formaten etabliert sich derzeit vor allem Direct-to-Chip-Kühlung. Sie skaliert, weil sie das mechanische Grunddesign weitgehend beibehält und sich vergleichsweise gut in bestehende Strukturen integrieren lässt.

Stefan Frenzel hat in den vergangenen 20 Jahren für verschiedene IT-Unternehmen gearbeitet, mit besonderem Fokus auf Unternehmen aus der Datacenter-Industrie in der DACH Region (Deutschland, Österreich & Schweiz). Zudem ist er für die Repräsentanz der Open Compute Project Foundation (OCP) in diesen Ländern bekannt. Diese wurde 2011 ins Leben gerufen und ist eine  Gemeinschaft, die sich auf die Neugestaltung von Datacenter-(Hardware-)Technologien konzentriert, um die wachsenden Anforderungen an die Compute-Infrastruktur effizient zu unterstützen. Darüber hinaus ist er auch Teil des Advisory Board der Sustainable Digital Infrastructure Alliance (SDIA).(Bild:  DME)
Stefan Frenzel hat in den vergangenen 20 Jahren für verschiedene IT-Unternehmen gearbeitet, mit besonderem Fokus auf Unternehmen aus der Datacenter-Industrie in der DACH Region (Deutschland, Österreich & Schweiz). Zudem ist er für die Repräsentanz der Open Compute Project Foundation (OCP) in diesen Ländern bekannt. Diese wurde 2011 ins Leben gerufen und ist eine Gemeinschaft, die sich auf die Neugestaltung von Datacenter-(Hardware-)Technologien konzentriert, um die wachsenden Anforderungen an die Compute-Infrastruktur effizient zu unterstützen. Darüber hinaus ist er auch Teil des Advisory Board der Sustainable Digital Infrastructure Alliance (SDIA).
(Bild: DME)

Noch konsequenter ist die Immersionskühlung. „Wenn man vom klassischen Rack-Format abrückt und den gesamten Server in eine dielektrische Flüssigkeit eintaucht, ist das die bessere Technologie“, erläutert Frenzel. Die Wärme wird direkt im Fluid aufgenommen, ohne primäre Luftführung. Das reduziert die thermische Komplexität und ermöglicht sehr hohe Leistungsdichten bei stabilen Betriebsbedingungen.

Gleichzeitig dominiert in den bestehenden Rechenzentren bislang weiterhin die Luftkühlung. „98 oder teilweise 99 Prozent der Rechenzentren weltweit sind immer noch luftgekühlt“, schätzt Frenzel. Der strukturelle Wandel betrifft daher vor allem neu geplante, speziell für KI ausgelegte Infrastrukturen.

Wenn Wärme zum Wert wird

Denn Flüssigkühlung verändert nicht nur die Effizienz der Wärme-Abfuhr, sondern vor allem das Temperaturniveau der abgeführten Energie. Genau hier beginnt die infrastrukturelle Relevanz. „Die Abwärme ist einfach eine Energiequelle, die einen gewissen Wert hat“, sagt Frenzel. In klassischen Rechenzentren-Umgebungen werde sie jedoch häufig ungenutzt an die Umwelt abgegeben.

Luftgekühlte Systeme liefern typischerweise Rücklauftemperaturen von 25 bis 35 Grad Celsius. Für viele bestehende Fernwärmenetze mit Vorlauftemperaturen von 90 bis 100 Grad reicht das nicht aus. In solchen Fällen sind Wärmepumpen erforderlich, was, neben den Investitionskosten, zusätzlichen Energieeinsatz bedeutet.

Ziel ist daher eine möglichst direkte Nutzung. „Eins zu eins, ohne den Einsatz von Wärmepumpen, um die Temperaturen der thermalen Energie zu erhöhen, wäre wirklich gut“, so Frenzel.

Auch auf der Energieseite zeigt sich Bewegung. Die Netzbetreiber werden zunehmend flexibler in der Bereitstellung von Leistung, beobachtet Frenzel. Bei den Temperaturanforderungen zeige sich ein Umdenken: Viele Versorger bestünden nicht mehr strikt auf 90 oder 100 Grad Vorlauftemperatur. „Da wird man inzwischen kulanter und kommt den Rechenzentrumsbetreibern entgegen.“

So wachsen die Realisierungschancen. Die technische und wirtschaftliche Ausgangslage für Wärmenutzung verbessert sich spürbar.

Technik trifft Standortrealität

Ob dieses Potenzial tatsächlich realisiert wird, ist weniger eine rein technische als eine planerische Frage. Entscheidend sei, so Frenzel, die frühzeitige Einbindung möglicher Wärmenutzer: „Du musst schauen, welche Abnehmer hast du bei dir in der Nähe, wenn du so ein Rechenzentrum planst.“

In der Praxis entstehe hier häufig ein strukturelles Problem. Viele große Anlagen würden weiterhin auf der „grünen Wiese“ gebaut, wo Grundstücke günstiger und Energie-Anschlüsse unter Umständen leichter verfügbar seien. „Aber natürlich hast du da niemanden, der die Abwärme abnimmt“, sagt Frenzel.

Mit höheren Leistungsdichten verändert sich jedoch die Flächenlogik. „Wenn du diese hochperformanten Racks jetzt mit 120 oder 150 Kilowatt hast, brauchst du weniger Fläche“, so Frenzel.

KI-Infrastruktur für die Wärmerückgewinnung auf der Data Centre World, Frankfurt am Main

KI-Infrastruktur auf der Data Centre World

Da die Arbeitslasten künstlicher Intelligenz exponentiell zunehmen, ist die Energie-Intensität von KI-Rechenzentren zu einer entscheidenden Herausforderung für Betreiber und politische Entscheidungsträger geworden. Die Konvergenz von Hochleistungsrechnen, fortschrittlichen Kühltechnologien und Nachhaltigkeitszielen bietet eine dringende Chance – und Verantwortung –, die KI-Infrastruktur für eine dekarbonisierte Zukunft neu zu konzipieren.

Diese Frage steht auch im Mittelpunkt des Panel „How to Optimise AI Infrastructure for Heat Reuse and Decarbonisation?“ auf der Tech Show Frankfurt 2026. Stefan Frenzel und David Gyulnazaryan, ehemalige EMEA-OCP-Community-Leads und Gründer des DataCenter Decarbonisation Project (DDP), diskutieren dort mit weiteren Experten, wie sich Hochleistungsrechenzentren systemisch für Wärmenutzung und Dekarbonisierung optimieren lassen.

Die Tech Show Frankfurt 2026, DataCenter-Insider ist Medienpartner, findet am 6. und 7. Mai auf dem Messegelände Frankfurt am Main statt.

Damit eröffnen sich neue Standortoptionen: Kompaktere, leistungsstarke KI-Cluster lassen sich näher an industrielle Verbraucher oder kommunale Wärmenetze rücken. Voraussetzung bleibt, dass Wärmenutzung von Beginn an in die Planung einbezogen wird.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Systemarchitektur statt Gebäudelogik

Auch die Reihenfolge der Planung kehrt sich um. „Die Applikation bestimmt den Server, die Server bestimmen dann die Dichte im Rack, die bestimmen dann die Kühlmethode und irgendwann mal kommt dann das Gebäude“, beschreibt Frenzel die neue Logik. Früher habe der Baukörper im Zentrum gestanden, die IT sie gefolgt. Mit KI-Workloads verschiebe sich der Fokus auf Systemarchitektur und Energiedesign. Kühlkonzept, Leistungsbereitstellung und thermische Integration ergeben sich aus der Anwendung.

Wärmenutzung rückt somit in die frühe Konzeptphase. „Die Nutzung der Abwärme ist ein wichtiger Baustein“, so Frenzel.

Regulierung macht Abwärme messbar

Neben technischen Entwicklungen wächst auch der regulatorische Druck. Die überarbeitete EU-Energie-Effizienzrichtlinie (Directive (EU) 2023/1791) verpflichtet große Rechenzentren dazu, Energie- und Nachhaltigkeitskennzahlen systematisch zu erfassen und zu melden. Ab 2026 fließen diese Daten in eine europäische Berichtsdatenbank ein.

In Deutschland konkretisiert das Energie-Effizienzgesetz (EnEfG) die Anforderungen. Betreiber müssen Abwärmemengen und Temperaturniveaus erfassen, Energie- oder Umweltmanagementsysteme etablieren und schrittweise einen Teil ihrer Abwärme nutzbar machen. „Neue, aber auch bestehende Rechenzentren müssen künftig mindestens 10 Prozent ihrer Abwärme nutzen, später 20 Prozent, jeweils unter bestimmten Voraussetzungen und mit Übergangsfristen“, erinnert Frenzel. Aus einer Option wird zunehmend eine Erwartung.

Vom Nebenprodukt zum Planungsparameter

Für Frenzel ist die Entwicklung eindeutig: „KI-Rechenzentren spielen der Nutzung der Abwärme in die Karten.“ Mit steigenden Leistungsdichten entstehen kontinuierliche, planbare Wärmeströme auf einem höheren Temperaturniveau. Dadurch verändert sich die Rolle von Rechenzentren im Energiesystem. Sie sind nicht mehr nur Stromverbraucher, sondern potenzielle Wärmeproduzenten.

Ob daraus ein relevanter Beitrag zur Wärmewende entsteht, hängt jedoch nicht allein von der Kühltechnologie ab. Eine große Rolle spielen Standortintegration, Netzstruktur und regulatorische Anforderungen. Und nicht zuletzt die Bereitschaft, thermische Qualität als Infrastrukturgröße mitzudenken.

*Die Autorin
Johanna Eickholt ist Mutlimedia-Journalistin beim DCW-Veranstalter Closer Still Media.

Bildquelle: Closer Still Media

(ID:50770443)