Immersionskühlung ist in puncto Energie-Effizienz unschlagbar Alles fließt. Das immersive Rechenzentrum

Von CTO und CISO Anna Kobylinska und Filipe Pereira Martins 13 min Lesedauer

Anbieter zum Thema

Kühlung mit Flüssigkeiten entwickelt sich rasant vom Nischenthema zum strategischen Schlüsselkonzept, eine, nein, vielfältige Technologie am Puls der Zeit. Ganz ohne „heiße Luft“ - und immer öfter auch ganz ohne Wasser. Schon in die Problematik einmal eingetaucht?

Immersionskühlungsspezialist Zutacore kann auf über 40 Installationen weltweit verweisen, unter den Kunden sind Equinix, Softbank und die Universität Münster.(Bild:  Zutacore)
Immersionskühlungsspezialist Zutacore kann auf über 40 Installationen weltweit verweisen, unter den Kunden sind Equinix, Softbank und die Universität Münster.
(Bild: Zutacore)

Explosionsartig wachsende KI-Workloads und steigende HPC-Anforderungen mit bislang untragbaren thermischen Lasten katapultieren Flüssigkühltechnologien aus der Exoten-Ecke in den Mainstream. Hyperscaler und Enterprise-Rechenzentren bauen ihre Kapazitäten mit Flüssigkühlung als Grundvoraussetzung aus.

Ganz ohne „heiße Luft“: Marktdynamik und Wachstumsrate

Der globale Markt für Flüssigkühlung in Rechenzentren wächst rasant. Für 2025 reichen die Bewertungen je nach Definition und Messmethode von rund 2,84 bis 5,52 Milliarden Dollar (Mordor Intelligence versus Allied Market Research); bis Mitte der 2030er Jahre werden Spannweiten zwischen etwa 15,75 und 44,39 Milliarden Dollar erwartet (Future Market Insights beziehungsweise Market Research Future). Gemeinsamer Nenner der Prognosen ist ein zweistelliges Wachstum, meist jenseits von 20 Prozent CAGR, teils bis über 30 Prozent (Markets and Markets und Market Research Future).

Der KI-bezogene Markt für Liquid Cooling wächst laut Future Market Insights von 3,2 Milliarden Dollar im Jahr 2025 auf etwa 15,7 Milliarden Dollar im Jahr 2035. Das entspricht einem durchschnittlichen jährlichen Wachstum (CAGR) von rund 17 Prozent über einen beeindruckenden Zeitraum von einer Dekade.

Der globale Markt für Immersionskühlung lag 2024 bei 1,52 Milliarden Dollar, könnte jedoch laut Precedence Research bis 2034 auf etwa 8,52 Milliarden Dollar anwachsen. Das entspricht einem durchschnittlichen jährlichen Wachstum (CAGR) von 18,8 Prozent.

In China en vogue

Ein wichtiger Treiber für dieses Wachstum ist China, wo Hyperscaler und KI-Unternehmen Immersionssysteme in großem Stil einsetzen, um Digitalisierung, E-Commerce und KI-Forschung thermisch abzusichern. Analysten zufolge dürfte die frühe Adoptionsphase von Immersionskühlung nun abgeschlossen sein.

Moderne KI-Trainings-Cluster bündeln GPU-Server mit 30 bis 100 Kilowatt (kW) je Rack – eine Klasse, in der Immersion mit direkter Wärmeabfuhr an das Fluid ihre Stärken ausspielt. Die durchschnittliche Rack-Leistungsdichte stieg von 2022 bis 2024 um 38 Prozent, mit dem stärksten Zuwachs in AI- und Hyperscale-Umgebungen. Was früher bei 15 kW pro Rack endete, bewegt sich heute in AI-Clustern regulär bei 80 bis 120 kW.

Aktuell setzen rund 22 Prozent der Rechenzentren bereits Flüssigkühlung ein, ein Meilenstein auf dem Weg in den Mainstream. Analysten erwarten, dass bis 2027 mehr als die Hälfte der neuen Hyperscale-Kapazitäten Flüssigkühltechnologien integriert.

Allein KI-Workloads könnten bis 2028 weltweit zusätzlich rund 15 GW an flüssiggekühlter Rechenzentrumskapazität erfordern. Es fragt sich nur, was jetzt genau.

Motivair by Schneider Electric

Nach dem Einstieg bei Motivair, einer Spezialistin für Hochleistungs-Flüssigkühlsysteme aus Buffalo im U.S.-Bundesstaat New York, kann Schneider Electric im September 2025 ein ganzheitliches Flüssigkühlungsportfolio für Rechenzentren mit hohen Leistungsdichten präsentieren. Die Technik von Motivair adressiert KI-Fabriken, HPC und andere hochverdichtete Rechenzentren, Supercomputer und industrielle Hochleistungsanwendungen.

Die Coolant Distribution Units (CDUs) von Motivair by Schneider Electric skalieren laut Angaben des Anbieters von etwa 105 kW bis 2,5 MW und integrieren sich nahtlos in bestehende Infrastrukturen. Sie finden Einsatz bei mindestens sechs der Top 10 Supercomputer der Welt. (Bild:  Motivair by Schneider Electric)
Die Coolant Distribution Units (CDUs) von Motivair by Schneider Electric skalieren laut Angaben des Anbieters von etwa 105 kW bis 2,5 MW und integrieren sich nahtlos in bestehende Infrastrukturen. Sie finden Einsatz bei mindestens sechs der Top 10 Supercomputer der Welt.
(Bild: Motivair by Schneider Electric)

Die Motivair Coolant Distribution Units (CDUs) sind das thermische Herzstück der Flüssigkühlung im Portfolio von Schneider Electric. Sie steuern, überwachen und stabilisieren den gesamten Flüssigkeitskreislauf zwischen den IT-Racks, ob mit Direct-to-Chip-Kühlung, Coldplates oder Rear-Door-Heat-Exchanger, und der gebäudeseitigen Infrastruktur (Chiller, TCS-Loops, Kühltürme). Die CDUs von Motivair by Schneider Electric skalieren laut Angaben des Anbieters von etwa 105 Kilowatt (kW) bis 2,5 Megawatt (MW). Sie finden bereits Einsatz bei mindestens sechs der weltweiten Top 10 Supercomputer.

Der Wärmetauscher „Chilled Door RDHx“ (Chilled Door Rear Door Heat Exchanger) ist für Rack-Leistungsdichten von bis zu rund 75 kW ausgelegt. Der Wärmetauscher dient der Rack-nahen Wärme-Abgabe und macht sich hierzu Wasser oder eine andere Flüssigkeit statt reiner Luftkühlung zu Nutze.

Unter der Bezeichnung Liquid-to-Air vermarktet Schneider Electric eine so genannte Heat Dissipation Unit (HDU) mit einer Wärme-Abgabe von 100 kW bei einem Platzverbrauch von nur 600 Millimeter Breite. Die Technik lässt eine Wasserschleife (Loop) von bis zu etwa 132 kW zu.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Serviert als kalte Platte

Ergänzt wird das Portfolio durch kalte Platten der Serie „Dynamic Cold Plates“ für direkte Chip- oder Komponentenflüssigkühlung, beispielsweise für GPUs oder sonstige Beschleuniger, sowie durch luftgekühlte Closed-Loop-Chiller und Technology Cooling System Loops (TCS). Die Software- und Management-Schicht deckt Schneider Electric mit seinem „Ecostruxure“-Portfolio ab, um den Betreibern die Planung, Simulation, Überwachung und Steuerung von Flüssig- und Luftkühlarchitekturen zu erleichtern.

Gekoppelt mit der Ecostruxure-Software entsteht ein durchgängiges End-to-End-Angebot, das Planung, Simulation, Rollout und Betrieb beim Übergang von luft- zu flüssigbasierten Kühlarchitekturen deutlich vereinfachen soll. Mit dieser strategischen Neuausrichtung wagt Schneider Electric einen klaren Schritt in die Zukunft.

Die Kombination aus bewährter Luft- und neuer Flüssigkühltechnik, integriert in eine Software-getriebene Betriebsumgebung, ermöglicht Anlagenbetreibern den gezielten Übergang zu höheren Leistungsdichten – und damit eine nachhaltige, effiziente Kühlarchitektur im KI-Zeitalter. Für Betreiber bedeutet dies: nicht nur eine Technologie-Ergänzung, sondern ein vollständiger Wandel im Kühlkonzept.

Zentralisieren statt duplizieren: wasserlose EOR-CDUs von Zutacore

Mit einer neuen End-of-Row-CDU-Familie drückt Zutacore ordentlich aufs Innovationspedal: Die im September 2025 vorgestellten wasserlosen 1,2-MW- und 2-MW-Systeme adressieren die nächste Ausbaustufe von KI- und HPC-Rechenzentren: hochdicht, effizient und mit klarer Nachhaltigkeitsagenda.

Kein Druck: Der Server „Nvidia HGX B300“, ein flüssiggekühlter Rechner von ASRock Rack, kommt ohne Wasser aus.(Bild:  Zutacore)
Kein Druck: Der Server „Nvidia HGX B300“, ein flüssiggekühlter Rechner von ASRock Rack, kommt ohne Wasser aus.
(Bild: Zutacore)

Statt auf klassische Wasserkreisläufe setzt der Anbieter konsequent auf sein zweiphasiges, direkt-am-Chip arbeitendes Kühlverfahren mit einer dielektrischen Low-GWP-Flüssigkeit. Die dielektrische Kühlflüssigkeit von „Hypercool“ ist betriebssicher für Elektronikbauteile, hat keine negativen Auswirkungen auf die Ozonschicht und unterstützt einen rekordverdächtigen PUE-Wert von 1,04. Durch das geschlossene Kreislaufsystem kann die erzeugte Wärme innerhalb des Rechenzentrums oder in angrenzenden Gebäuden zu 100 Prozent wiederverwendet werden, verspricht der Anbieter.

Die Abwärme wird über eine zentrale EOR-Einheit aus dem White Space heraus aggregiert und ins Facility-System übergeben – ohne Leckagerisiken und ohne Kondensationsproblematik. Für Betreiber bedeutet das eine höhere thermische Effizienz, weniger Energie-Einsatz und eine deutliche Vereinfachung der Betriebsführung.

Eine CDU für mehrere Racks

Der Launch markiert für Zuttacore einen Paradigmenwechsel. Das neue Motto lautet: Zentralisieren und aggregieren statt verteilen und duplizieren. Eine einzelne EOR-CDU kann mehrere Racks bedienen und bietet trotzdem Monitoring und -Steuerung auf Rack-Ebene.

Genau dieser Ansatz adressiert die drängendsten Herausforderungen moderner KI-Layouts, in denen Compute-Cluster immer dichter zusammenrücken. Die Zentralisierung reduziert Infrastruktur-Redundanzen, senkt den TCO und schafft Potenzial für nachhaltige Skalierbarkeit.

Mit Hot-Swap-Komponenten und mehreren Varianten der Bereitstellung, vom kosteneffizienten Single-System bis zur klassischen Active-Standby-Konfiguration, deckt Zutacore unterschiedliche Verfügbarkeitsanforderungen ab. Über RESTful APIs sind alle Betriebsdaten sämtlicher installierten Einheiten in Echtzeit verfügbar.In hochdynamischen KI-Umgebungen, in denen Workload-Profile praktisch im Stundentakt variieren, kommt diese Transparenz wie gerufen.

Zur rechten Zeit

Dass der Ansatz den Nerv der Zeit trifft, zeigt ein prominentes Beispiel: EGIL Wings will die neuen EOR-Systeme unmittelbar in die eigene 15-MW-„AI-Vault“-Plattform integrieren. Der Zusammenschluss aus nachhaltiger Energie- Infrastruktur und wasserloser Direkt-Chip-Kühlung beschleunigt Deployments und soll die Energie-Effizienz künftiger Generationen von KI-Rechenzentren weiter verbessern können.

„Hyper-Cool“-Architektur von Zutacore ist längst kein Experiment mehr: Über 40 Installationen weltweit, darunter Equinix, Softbank und die Universität Münster, dienen als Referenz. Das Unternehmen baut sein Ökosystem kontinuierlich aus, mit Partnern wie Mitsubishi Heavy Industries, Carrier und ASRock Rack Inc. Diese Company integriert die Zutacore-Technik in vorgefertigte Nvidia-HGX-B300-Serverplattformen und liefert diese schon ab Werk mit wasserloser Direkt-zu-Chip-Kühlung aus.

Kein Druck: Der Server „Nvidia HGX B300“, ein flüssiggekühlter Rechner von ASRock Rack, kommt ohne Wasser aus.(Bild:  Zutacore)
Kein Druck: Der Server „Nvidia HGX B300“, ein flüssiggekühlter Rechner von ASRock Rack, kommt ohne Wasser aus.
(Bild: Zutacore)

Diese Company integriert die Zutacore-Technik in vorgefertigte Nvidia-HGX-B300-Serverplattformen und liefert diese schon ab Werk mit wasserloser Direkt-zu-Chip-Kühlung aus. Damit schärft Zutacore sein Profil als Anbieter für KI-Skalierung der nächsten Generation – dort eben, wo traditionelle Kühltechnologien an physikalische und energetische Grenzen stoßen.

Zutacores zweiphasiger Side-Car-Ansatz

Das zweiphasige Sidecar von Zutacore ist eine eigenständige, modulare Flüssigkühlungseinheit, die neben bestehenden luftgekühlten Racks in einem Rechenzentrum installiert wird, ohne dafür eine traditionelle Facility-Wasserschleife zu benötigen.

Das zweiphasige Sidecar liefert bis zu 240 kW Kühlleistung für bestehende luftgekühlte Flächen. Das entspricht etwa zwei Racks zu je 120 kW oder vier Racks zu je 60 kW. Dank sehr geringer Volumenströme benötigt das System aber rund 80 Prozent weniger Pumpenleistung als einphasige Lösungen.

Leichte Aluminium-Mikrokanal-Kondensatoren ersetzen schwere Kupferradiatoren und erhöhen die Tauscherleistung um 20 Prozent bis 40 Prozent. In Referenzimplementierungen erreichte die Lösung ein pPUE von 1,01 auf Rack-Ebene. (pPUE, kurz für „partielles PUE“, quantifiziert die Energie-Effizienz eines Subsystems der Facility.)

Umbau in Bestand

Das Sidecar-Konzept adressiert den aktuellen Transformationsbedarf vieler Bestandsrechenzentren: Hohe Leistungsdichten stoßen sehr oft auf eine begrenzte Facility-Wasserversorgung.

Mit dem zweiphasigen Sidecar lassen sich AI- und HPC-Racks flankierend betreiben, ohne die eigentliche Luft-Kühlinfrastruktur umfassend zu verändern. Die Technik stellt damit eine pragmatische Brücke zwischen klassischen luftgekühlten Umgebungen und flüssigkeitsbasierten Architekturen dar.

Chipcool von Infiniflux

Warum zwischen GPU-Auslastung und GPU-Lebensdauer wählen, wenn man beides haben kann? Diese Frage stellten sich auch Bernard Cooper und Marc Ottolini, Gründer des britischen Startups Infiniflux.

„Wärme ist das zentrale Problem für die Rechenleistung der Zukunft“, sagen Marc Ottolini, Mitgründer und CEO. In der Abbildung: Bernard Cooper (l.), CTO und Marc Ottolini (r.), CEO von Infiniflux.(Bild:  Infiniflux)
„Wärme ist das zentrale Problem für die Rechenleistung der Zukunft“, sagen Marc Ottolini, Mitgründer und CEO. In der Abbildung: Bernard Cooper (l.), CTO und Marc Ottolini (r.), CEO von Infiniflux.
(Bild: Infiniflux)

Infiniflux tritt mit einer ambitionierten Mission an: Die Energieverschwendung der KI- und Hochleistungsrechenzentren eindämmen: Mit einer eigenen patentierten zweiphasigen Direct-to-Chip (D2C)-Kühlungslösung mit der Bezeichnung „Chipcool“. Die Lösung adressiert KI-GPUs und 3D-Stacked Microchips.

Chipool führt die Wärme direkt von der Chip-Oberfläche über ultradünne, mechanisch stabile Kühlplatten mit einem PFAS-freien, speziell entwickelten Kältemittel ab. Der Kältemittelkreislauf ist komplett hermetisch abgeschlossen. Dadurch kann laut Infiniflux keine Kreuzkontamination oder Biofouling durch Wasser auftreten (siehe auch: „Mehr Datacenter-Effizienz über längeres Overclocking Microsoft: Mikrofluidik reduziert Chip-Erwärmung um zwei Dritte“.

Im Unterschied zu herkömmlichen einphasigen Systemen nutzt „Infiniflux.cool“ die Verdampfung und anschließende Kondensation des Kältemittels, um deutlich mehr Wärme auf kleinem Raum abzuführen. Das patentierte zweiphasige Design ermöglicht eine ultra-niedrige thermische Widerstandsfähigkeit (nur 0,009 K/W) und arbeitet nahezu wartungsfrei sowie mit drastisch reduziertem Pumpenenergiebedarf. Dieser ist laut Anbieter fünf- bis zwanzigmal energiesparsamer als im Falle von klassischen Direct-Liquid-Cooling-Lösungen.

Die zweiphasige Flüssigkühlung von Infiniflux überträgt die Abwärme an Facility-Wasserkreisläufe.(Bild:  Infiniflux)
Die zweiphasige Flüssigkühlung von Infiniflux überträgt die Abwärme an Facility-Wasserkreisläufe.
(Bild: Infiniflux)

GPUs bleiben bei etwa 40 Grad, selbst bei 1.000 Watt pro Chip. Das Ergebnis: bis zu 15 Prozent mehr Rechenleistung, deutlich geringere Energie- und Wartungskosten und mindestens doppelt so lange Chip-Lebensdauer im Vergleich zu den besten einphasigen Kühlsystemen, lautet das Versprechen.

Das eingesetzte Kältemittel ist frei von Treibhauspotenzial (zero-GWP) und frei von PFAS. Das System hat einen um 80 Prozent geringeren Wasserverbrauch im Vergleich zu etablierten Alternativen und soll sich zudem unkompliziert in existierende Infrastrukturen über ein Retrofit zu Facility-Wasserkreisläufen integrieren lassen.

Das britische Startup Infiniflux.cool suchte Partner für seine zweiphasige Direct-to-Chip-Flüssigkühlung auf dem „Web Summit 2025“ in Lissabon. In der Abbildung: Eröffnungszeremonie der „Startup-Olympiade“ am ersten Tag der Mega-Messe. (Bild:  Web Summit)
Das britische Startup Infiniflux.cool suchte Partner für seine zweiphasige Direct-to-Chip-Flüssigkühlung auf dem „Web Summit 2025“ in Lissabon. In der Abbildung: Eröffnungszeremonie der „Startup-Olympiade“ am ersten Tag der Mega-Messe.
(Bild: Web Summit)

Das britische Startup Infiniflux.cool suchte Partner für seine zweiphasige Direct-to-Chip-Flüssigkühlung auf dem „Web Summit 2025“ in Lissabon. Das Jungunternehmen wurde für seine innovative Lösung zum „Impact“- und „Alpha“-Startup gekürt.

Wenn Hyperscaler (keinen) Dampf ablassen…

Google hat TPU-Pods mit Flüssigkühlung bereits seit rund sieben Jahren im produktiven Betrieb und betreibt heute über 2000 solcher Pods mit wasserbasierten Kühlkreisläufen in hyperskalaren Rechenzentren. Die aktuelle Generation erreicht eine Zuverlässigkeit von 99,999% (das entspricht maximal ca. sechs Minuten Ausfall im Jahr).

Auf dem „OCP Summit 2025“ stellte Google „Project Deschutes“ vor, eine CDU (Coolant Distribution Unit), die mit ihrer Kühlleistung von 2 Megawatt neue Maßstäbe setzt. Die CDU demonstriert geringe Annäherungstemperaturen (Approach Temperature Difference, ATD) von nur 3 Grad und hohe verfügbare Drücke von 80 PSI (~5,5 bar Pound per Square Inch)).

Da der Temperaturunterschied zwischen Vor- und Rücklauf gering ist, kann Google die Rücklauftemperatur trotzdem relativ hoch halten. Das ist zum Beispiel für Fernwärme-Einspeisung oder industrielle Restwärmenutzung von Vorteil.

Direct-to-Chip- versus Immersionskühlung

Unter dem Dach „Flüssigkühlung“ dominieren zwei Architekturen mit unterschiedlichen Stärken.

Direct-to-Chip-Kühlung (D2C) führt das Kühlmedium über Coldplates oder Mikrokanäle direkt an die Hauptwärmequellen: die CPUs und GPUs. Zum Einsatz kommt Wasser oder ein spezialisierter Kühlträger.

Wasserbasierte Medien übertragen Wärme wesentlich besser als dielektrische Fluide der Immersion. Der Haken: D2C adressiert primär die Hotspots. Für übrige Komponenten wie Speicher oder Laufwerke bleibt ergänzende Luftkühlung nötig. Dieser hybride Ansatz mindert einen Teil der Effizienzgewinne, bleibt aber klassischen Luftsystemen deutlich überlegen.

Immersionskühlung taucht komplette Server in elektrisch nichtleitende, wärmeleitfähige Fluide - es sei denn bei Airsys:, siehe: „Airsys und der Datacenter Liquid Cooling Market Report 2024 bis 2032; Der Markt für Flüssigkühlung in Rechenzentren “. Alle Komponenten werden gleichzeitig temperiert, Lüfter entfallen, Rack-Dichten steigen.

Flüssigkühlungssysteme gibt es im Grunde genommen in zwei Varianten:

Single-Phase-Immersion hält das Fluid im gesamten Kreislauf flüssig. Die Wärme wird ins Fluid übertragen, über externe Wärmetauscher abgeführt und das Fluid zirkuliert aufs Neue. Diese Bauart gilt als einfach und betriebssicher. Die Effizienzgewinne sparen 30–40 % Energie ein. Die Kompatibilität mit Standard-IT und die Wartungsfreundlichkeit bleibt gewahrt.

Two-Phase-Immersion nutzt den Siedevorgang: Das Fluid verdampft am heißen Bauteil, kondensiert am Wärmetauscher und fließt passiv zurück. Die Methode kann den Energiebedarf der Kühlung um bis zu 50 % senken und benötigt kaum Pumpenleistung. Die größten Herausforderungen liegen in der Auswahl und Handhabung maßgeschneiderter Fluide, ihrem Umweltprofil und in Lieferkettenfragen.

Eine Einführung in dielektrische Flüssigkeiten; Fluide zur Immersionskühlung von Servern in Rechenzentren

'Mal unter uns: Wasserkühlung einfach erklärt; Die Unterschiede zwischen Direct-to-Chip, einphasiger und zweiphasiger Kühlung

Die Flüssigkühlung hat es Google erlaubt, die Gehäusedichte im Vergleich zu luftgekühlten Pods zu vervielfachen; der Verzicht auf dicke Kühlkörper und große Lüfter machte den Platz frei.

AWS setzt auf ein vollständig geschlossenes Direct-to-Chip-System. Der Hyperscaler hat binnen elf Monaten ein eigenes D2C-System mit proprietären Coldplates und CDU vom Design in den Produktionsbetrieb überführt: geschlossen, ohne Mehrverbrauch an Prozesswasser, mit „Whirlpool-Temperaturen“ (typisch >40 °C) für hohe Effizienz. Das System ist (anders als jenes von Google) mit minimalen Eingriffen in Bestandsrechenzentren nachrüstbar.

Microsoft rollt D2C über dedizierte Sidekicks in luftgekühlten Brownfields aus und erweitert die Thermalinfrastruktur in Partnerschaft mit der Industrie. Mit “Brownfields” sind bereits bestehende Anlagen, Infrastrukturen und Gebäude gemeint, die schon in Betrieb sind und typischerweise klassische (in diesem Fall luftgekühlte) Technik nutzen.

Eingehaust: Der Mikrofluidik-Chip von Microsoft besitzt angeschlossene Leitungen, damit das Kühlmittel im Chip zirkulieren kann.(Bild:  Dan DeLong/Microsoft)
Eingehaust: Der Mikrofluidik-Chip von Microsoft besitzt angeschlossene Leitungen, damit das Kühlmittel im Chip zirkulieren kann.
(Bild: Dan DeLong/Microsoft)

Microsoft ergänzt D2C um modulare Heat Exchanger Units (HXU) auf Rack-Ebene. Racks in Azures Fairwater-Datacentern erreichen Leistungsdichten bis etwa 140 kW pro Rack und mehr als 1 MW pro Reihe.

Microsoft hat eine neue Methode zur Kühlung von Siliziumchips mit Hilfe von Mikrofluidik demonstriert. Dabei werden Kanäle direkt in das Silizium geätzt, so dass die Kühlflüssigkeit unmittelbar über den Chip fließen und die Wärme effizienter abführen kann.

Das Team verwendet zudem KI, um die einzigartigen Wärmesignaturen eines Chips zu erkennen und das Kühlmittel mit hoher Präzision dorthin zu lenken, wo es am meisten gebraucht wird. Ein Fokus liegt auf der Modularisierung/Standardisierung für OCP-Designs und Nachhaltigkeit ohne neue Infrastrukturvorgaben für einzelne Standorte.

Ein KI-Agent auf Basis von „Discovery-AI“ in einer Forschungssparte von Microsoft soll im Jahre 2025 innerhalb von rund 200 Stunden ein vielversprechendes, PFAS-freies Immersionsfluid als Prototyp identifiziert; die Synthese gelang in weniger als vier Monaten. Neue Thermofluide gelten als Hoffnungsträger für zweiphasige Immersion jenseits regulativer Beschränkungen (siehe: Kasten)

Was läuft in China?

Chinesische Cloud-Provider setzen Immersion Campus-weit ein, frei nach dem Motto 'Klotzen statt kleckern'. Co-Location-Anbieter dürften bald in die Fußstapfen der Hyperscaler folgen, sobald Technik und Ökosysteme soweit gereift sind.

Neue Kältemittel

Mit „Chemours Opteon 2P50“ wird ein zweiphasiges, Hydrofluorolefine-basiertes Fluid mit sehr niedrigem GWP (AR6: 10) im großen Maßstab erprobt – nach Labortests nun im Feldversuch mit Industriepartnern. Das Ziel besteht in der Entwicklung eines PFAS-freien Alternativmediums, das Kühlenergie um bis zu 90 Prozent senken soll, um den Gesamtenergieverbrauch deutlich zu reduzieren, den Wasserverbrauch nahezu eliminieren und zugleich Lärm und Flächenbedarf spürbar zu verringern. Der passive Siede-/Kondensationskreislauf stabilisiert die Temperaturen auch bei unternehmenskritischen AI- und HPC-Lasten.

Intel hat 2025 Shells Immersionsfluide für Xeon-Plattformen zertifiziert, ein wichtiger Adoptionshebel für OEMs und Betreiber. Die Single-Phase-Systeme laufen als geschlossene Flüssigkreisläufe über Wärmetauscher und sekundäre Wasserkreise, können den Strombedarf der Kühlung fast halbieren und den Wasserverbrauch gegenüber Luftkühlung um bis zu 99 Ürozent drücken. Shell erweitert parallel das Portfolio um Direct-Liquid-Cooling-Fluide und engagiert sich in Energiepartnerschaften rund um Rechenzentrumsstandorte.

Teurer als „heiße Luft“

Vorerst bleibt Flüssigkühlung teurer als Luft, doch Betriebsvorteile und Verdichtung führen in der Regel bereits innerhalb von zwei bis vier Jahren zum ROI. Dies trifft insbesondere bei Neubauten und KI-Fabriken mit hohen Rack-Dichten zu.

Regulatorik und Chemie sind im Fluss: PFAS-Beschränkungen beschleunigen PFAS-freie Alternativen, für die es jedoch noch keine Langzeitdaten gibt.

Fachliches Know-how wird zum entscheidenden Erfolgsfaktor: Betrieb, Reinheit, Fluid-Handling und Entlüftung unterscheiden sich deutlich von luftgekühlten Setups. Spezialisierte Service-Portfolios schließen diese Lücke.

*Das Autorenduo

Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.

Ihr Fazit lautet: Bis 2030 dürfte sich die Immersion für KI- und HPC-Zonen als Standard etablieren; vorerst bleibt sie aber noch eingebettet in gemischte Campus-Einrichtungen, in denen Luftkühlung klassische Enterprise-Lasten trägt.

Mittel- bis langfristig verändert Immersion das physische Rechenzentrumsdesign grundlegend: weniger Luftführung, kompaktere Bauten, höhere Dichten und damit geringerer Flächen- und Energiebedarf. Angesichts von KI-Wachstum, ESG-Vorgaben und Wasserknappheit wird Flüssigkühlung zur Notwendigkeit.

Wer die Umstellung verpasst, riskiert thermische Grenzen und verfehlt Nachhaltigkeitsziele. Die Abkehr von reiner Luftkühlung ist damit weniger eine Option als ein Strukturwandel in der Thermomanagement-Architektur der KI-Ära.

(ID:50647279)