Kühlung mit Flüssigkeiten entwickelt sich rasant vom Nischenthema zum strategischen Schlüsselkonzept, eine, nein, vielfältige Technologie am Puls der Zeit. Ganz ohne „heiße Luft“ - und immer öfter auch ganz ohne Wasser. Schon in die Problematik einmal eingetaucht?
Immersionskühlungsspezialist Zutacore kann auf über 40 Installationen weltweit verweisen, unter den Kunden sind Equinix, Softbank und die Universität Münster.
(Bild: Zutacore)
Explosionsartig wachsende KI-Workloads und steigende HPC-Anforderungen mit bislang untragbaren thermischen Lasten katapultieren Flüssigkühltechnologien aus der Exoten-Ecke in den Mainstream. Hyperscaler und Enterprise-Rechenzentren bauen ihre Kapazitäten mit Flüssigkühlung als Grundvoraussetzung aus.
Ganz ohne „heiße Luft“: Marktdynamik und Wachstumsrate
Der globale Markt für Flüssigkühlung in Rechenzentren wächst rasant. Für 2025 reichen die Bewertungen je nach Definition und Messmethode von rund 2,84 bis 5,52 Milliarden Dollar (Mordor Intelligence versus Allied Market Research); bis Mitte der 2030er Jahre werden Spannweiten zwischen etwa 15,75 und 44,39 Milliarden Dollar erwartet (Future Market Insights beziehungsweise Market Research Future). Gemeinsamer Nenner der Prognosen ist ein zweistelliges Wachstum, meist jenseits von 20 Prozent CAGR, teils bis über 30 Prozent (Markets and Markets und Market Research Future).
Der KI-bezogene Markt für Liquid Cooling wächst laut Future Market Insights von 3,2 Milliarden Dollar im Jahr 2025 auf etwa 15,7 Milliarden Dollar im Jahr 2035. Das entspricht einem durchschnittlichen jährlichen Wachstum (CAGR) von rund 17 Prozent über einen beeindruckenden Zeitraum von einer Dekade.
Der globale Markt für Immersionskühlung lag 2024 bei 1,52 Milliarden Dollar, könnte jedoch laut Precedence Research bis 2034 auf etwa 8,52 Milliarden Dollar anwachsen. Das entspricht einem durchschnittlichen jährlichen Wachstum (CAGR) von 18,8 Prozent.
In China en vogue
Ein wichtiger Treiber für dieses Wachstum ist China, wo Hyperscaler und KI-Unternehmen Immersionssysteme in großem Stil einsetzen, um Digitalisierung, E-Commerce und KI-Forschung thermisch abzusichern. Analysten zufolge dürfte die frühe Adoptionsphase von Immersionskühlung nun abgeschlossen sein.
Moderne KI-Trainings-Cluster bündeln GPU-Server mit 30 bis 100 Kilowatt (kW) je Rack – eine Klasse, in der Immersion mit direkter Wärmeabfuhr an das Fluid ihre Stärken ausspielt. Die durchschnittliche Rack-Leistungsdichte stieg von 2022 bis 2024 um 38 Prozent, mit dem stärksten Zuwachs in AI- und Hyperscale-Umgebungen. Was früher bei 15 kW pro Rack endete, bewegt sich heute in AI-Clustern regulär bei 80 bis 120 kW.
Aktuell setzen rund 22 Prozent der Rechenzentren bereits Flüssigkühlung ein, ein Meilenstein auf dem Weg in den Mainstream. Analysten erwarten, dass bis 2027 mehr als die Hälfte der neuen Hyperscale-Kapazitäten Flüssigkühltechnologien integriert.
Allein KI-Workloads könnten bis 2028 weltweit zusätzlich rund 15 GW an flüssiggekühlter Rechenzentrumskapazität erfordern. Es fragt sich nur, was jetzt genau.
Motivair by Schneider Electric
Nach dem Einstieg bei Motivair, einer Spezialistin für Hochleistungs-Flüssigkühlsysteme aus Buffalo im U.S.-Bundesstaat New York, kann Schneider Electric im September 2025 ein ganzheitliches Flüssigkühlungsportfolio für Rechenzentren mit hohen Leistungsdichten präsentieren. Die Technik von Motivair adressiert KI-Fabriken, HPC und andere hochverdichtete Rechenzentren, Supercomputer und industrielle Hochleistungsanwendungen.
Die Coolant Distribution Units (CDUs) von Motivair by Schneider Electric skalieren laut Angaben des Anbieters von etwa 105 kW bis 2,5 MW und integrieren sich nahtlos in bestehende Infrastrukturen. Sie finden Einsatz bei mindestens sechs der Top 10 Supercomputer der Welt.
(Bild: Motivair by Schneider Electric)
Die Motivair Coolant Distribution Units (CDUs) sind das thermische Herzstück der Flüssigkühlung im Portfolio von Schneider Electric. Sie steuern, überwachen und stabilisieren den gesamten Flüssigkeitskreislauf zwischen den IT-Racks, ob mit Direct-to-Chip-Kühlung, Coldplates oder Rear-Door-Heat-Exchanger, und der gebäudeseitigen Infrastruktur (Chiller, TCS-Loops, Kühltürme). Die CDUs von Motivair by Schneider Electric skalieren laut Angaben des Anbieters von etwa 105 Kilowatt (kW) bis 2,5 Megawatt (MW). Sie finden bereits Einsatz bei mindestens sechs der weltweiten Top 10 Supercomputer.
Der Wärmetauscher „Chilled Door RDHx“ (Chilled Door Rear Door Heat Exchanger) ist für Rack-Leistungsdichten von bis zu rund 75 kW ausgelegt. Der Wärmetauscher dient der Rack-nahen Wärme-Abgabe und macht sich hierzu Wasser oder eine andere Flüssigkeit statt reiner Luftkühlung zu Nutze.
Unter der Bezeichnung Liquid-to-Air vermarktet Schneider Electric eine so genannte Heat Dissipation Unit (HDU) mit einer Wärme-Abgabe von 100 kW bei einem Platzverbrauch von nur 600 Millimeter Breite. Die Technik lässt eine Wasserschleife (Loop) von bis zu etwa 132 kW zu.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Serviert als kalte Platte
Ergänzt wird das Portfolio durch kalte Platten der Serie „Dynamic Cold Plates“ für direkte Chip- oder Komponentenflüssigkühlung, beispielsweise für GPUs oder sonstige Beschleuniger, sowie durch luftgekühlte Closed-Loop-Chiller und Technology Cooling System Loops (TCS). Die Software- und Management-Schicht deckt Schneider Electric mit seinem „Ecostruxure“-Portfolio ab, um den Betreibern die Planung, Simulation, Überwachung und Steuerung von Flüssig- und Luftkühlarchitekturen zu erleichtern.
Gekoppelt mit der Ecostruxure-Software entsteht ein durchgängiges End-to-End-Angebot, das Planung, Simulation, Rollout und Betrieb beim Übergang von luft- zu flüssigbasierten Kühlarchitekturen deutlich vereinfachen soll. Mit dieser strategischen Neuausrichtung wagt Schneider Electric einen klaren Schritt in die Zukunft.
Die Kombination aus bewährter Luft- und neuer Flüssigkühltechnik, integriert in eine Software-getriebene Betriebsumgebung, ermöglicht Anlagenbetreibern den gezielten Übergang zu höheren Leistungsdichten – und damit eine nachhaltige, effiziente Kühlarchitektur im KI-Zeitalter. Für Betreiber bedeutet dies: nicht nur eine Technologie-Ergänzung, sondern ein vollständiger Wandel im Kühlkonzept.
Zentralisieren statt duplizieren: wasserlose EOR-CDUs von Zutacore
Mit einer neuen End-of-Row-CDU-Familie drückt Zutacore ordentlich aufs Innovationspedal: Die im September 2025 vorgestellten wasserlosen 1,2-MW- und 2-MW-Systeme adressieren die nächste Ausbaustufe von KI- und HPC-Rechenzentren: hochdicht, effizient und mit klarer Nachhaltigkeitsagenda.
Kein Druck: Der Server „Nvidia HGX B300“, ein flüssiggekühlter Rechner von ASRock Rack, kommt ohne Wasser aus.
(Bild: Zutacore)
Statt auf klassische Wasserkreisläufe setzt der Anbieter konsequent auf sein zweiphasiges, direkt-am-Chip arbeitendes Kühlverfahren mit einer dielektrischen Low-GWP-Flüssigkeit. Die dielektrische Kühlflüssigkeit von „Hypercool“ ist betriebssicher für Elektronikbauteile, hat keine negativen Auswirkungen auf die Ozonschicht und unterstützt einen rekordverdächtigen PUE-Wert von 1,04. Durch das geschlossene Kreislaufsystem kann die erzeugte Wärme innerhalb des Rechenzentrums oder in angrenzenden Gebäuden zu 100 Prozent wiederverwendet werden, verspricht der Anbieter.
Die Abwärme wird über eine zentrale EOR-Einheit aus dem White Space heraus aggregiert und ins Facility-System übergeben – ohne Leckagerisiken und ohne Kondensationsproblematik. Für Betreiber bedeutet das eine höhere thermische Effizienz, weniger Energie-Einsatz und eine deutliche Vereinfachung der Betriebsführung.
Eine CDU für mehrere Racks
Der Launch markiert für Zuttacore einen Paradigmenwechsel. Das neue Motto lautet: Zentralisieren und aggregieren statt verteilen und duplizieren. Eine einzelne EOR-CDU kann mehrere Racks bedienen und bietet trotzdem Monitoring und -Steuerung auf Rack-Ebene.
Genau dieser Ansatz adressiert die drängendsten Herausforderungen moderner KI-Layouts, in denen Compute-Cluster immer dichter zusammenrücken. Die Zentralisierung reduziert Infrastruktur-Redundanzen, senkt den TCO und schafft Potenzial für nachhaltige Skalierbarkeit.
Mit Hot-Swap-Komponenten und mehreren Varianten der Bereitstellung, vom kosteneffizienten Single-System bis zur klassischen Active-Standby-Konfiguration, deckt Zutacore unterschiedliche Verfügbarkeitsanforderungen ab. Über RESTful APIs sind alle Betriebsdaten sämtlicher installierten Einheiten in Echtzeit verfügbar.In hochdynamischen KI-Umgebungen, in denen Workload-Profile praktisch im Stundentakt variieren, kommt diese Transparenz wie gerufen.
Zur rechten Zeit
Dass der Ansatz den Nerv der Zeit trifft, zeigt ein prominentes Beispiel: EGIL Wings will die neuen EOR-Systeme unmittelbar in die eigene 15-MW-„AI-Vault“-Plattform integrieren. Der Zusammenschluss aus nachhaltiger Energie- Infrastruktur und wasserloser Direkt-Chip-Kühlung beschleunigt Deployments und soll die Energie-Effizienz künftiger Generationen von KI-Rechenzentren weiter verbessern können.
„Hyper-Cool“-Architektur von Zutacore ist längst kein Experiment mehr: Über 40 Installationen weltweit, darunter Equinix, Softbank und die Universität Münster, dienen als Referenz. Das Unternehmen baut sein Ökosystem kontinuierlich aus, mit Partnern wie Mitsubishi Heavy Industries, Carrier und ASRock Rack Inc. Diese Company integriert die Zutacore-Technik in vorgefertigte Nvidia-HGX-B300-Serverplattformen und liefert diese schon ab Werk mit wasserloser Direkt-zu-Chip-Kühlung aus.
Kein Druck: Der Server „Nvidia HGX B300“, ein flüssiggekühlter Rechner von ASRock Rack, kommt ohne Wasser aus.
(Bild: Zutacore)
Diese Company integriert die Zutacore-Technik in vorgefertigte Nvidia-HGX-B300-Serverplattformen und liefert diese schon ab Werk mit wasserloser Direkt-zu-Chip-Kühlung aus. Damit schärft Zutacore sein Profil als Anbieter für KI-Skalierung der nächsten Generation – dort eben, wo traditionelle Kühltechnologien an physikalische und energetische Grenzen stoßen.
Zutacores zweiphasiger Side-Car-Ansatz
Das zweiphasige Sidecar von Zutacore ist eine eigenständige, modulare Flüssigkühlungseinheit, die neben bestehenden luftgekühlten Racks in einem Rechenzentrum installiert wird, ohne dafür eine traditionelle Facility-Wasserschleife zu benötigen.
Das zweiphasige Sidecar liefert bis zu 240 kW Kühlleistung für bestehende luftgekühlte Flächen. Das entspricht etwa zwei Racks zu je 120 kW oder vier Racks zu je 60 kW. Dank sehr geringer Volumenströme benötigt das System aber rund 80 Prozent weniger Pumpenleistung als einphasige Lösungen.
Leichte Aluminium-Mikrokanal-Kondensatoren ersetzen schwere Kupferradiatoren und erhöhen die Tauscherleistung um 20 Prozent bis 40 Prozent. In Referenzimplementierungen erreichte die Lösung ein pPUE von 1,01 auf Rack-Ebene. (pPUE, kurz für „partielles PUE“, quantifiziert die Energie-Effizienz eines Subsystems der Facility.)
Umbau in Bestand
Das Sidecar-Konzept adressiert den aktuellen Transformationsbedarf vieler Bestandsrechenzentren: Hohe Leistungsdichten stoßen sehr oft auf eine begrenzte Facility-Wasserversorgung.
Mit dem zweiphasigen Sidecar lassen sich AI- und HPC-Racks flankierend betreiben, ohne die eigentliche Luft-Kühlinfrastruktur umfassend zu verändern. Die Technik stellt damit eine pragmatische Brücke zwischen klassischen luftgekühlten Umgebungen und flüssigkeitsbasierten Architekturen dar.
Chipcool von Infiniflux
Warum zwischen GPU-Auslastung und GPU-Lebensdauer wählen, wenn man beides haben kann? Diese Frage stellten sich auch Bernard Cooper und Marc Ottolini, Gründer des britischen Startups Infiniflux.
„Wärme ist das zentrale Problem für die Rechenleistung der Zukunft“, sagen Marc Ottolini, Mitgründer und CEO. In der Abbildung: Bernard Cooper (l.), CTO und Marc Ottolini (r.), CEO von Infiniflux.
(Bild: Infiniflux)
Infiniflux tritt mit einer ambitionierten Mission an: Die Energieverschwendung der KI- und Hochleistungsrechenzentren eindämmen: Mit einer eigenen patentierten zweiphasigen Direct-to-Chip (D2C)-Kühlungslösung mit der Bezeichnung „Chipcool“. Die Lösung adressiert KI-GPUs und 3D-Stacked Microchips.
Im Unterschied zu herkömmlichen einphasigen Systemen nutzt „Infiniflux.cool“ die Verdampfung und anschließende Kondensation des Kältemittels, um deutlich mehr Wärme auf kleinem Raum abzuführen. Das patentierte zweiphasige Design ermöglicht eine ultra-niedrige thermische Widerstandsfähigkeit (nur 0,009 K/W) und arbeitet nahezu wartungsfrei sowie mit drastisch reduziertem Pumpenenergiebedarf. Dieser ist laut Anbieter fünf- bis zwanzigmal energiesparsamer als im Falle von klassischen Direct-Liquid-Cooling-Lösungen.
Die zweiphasige Flüssigkühlung von Infiniflux überträgt die Abwärme an Facility-Wasserkreisläufe.
(Bild: Infiniflux)
GPUs bleiben bei etwa 40 Grad, selbst bei 1.000 Watt pro Chip. Das Ergebnis: bis zu 15 Prozent mehr Rechenleistung, deutlich geringere Energie- und Wartungskosten und mindestens doppelt so lange Chip-Lebensdauer im Vergleich zu den besten einphasigen Kühlsystemen, lautet das Versprechen.
Das eingesetzte Kältemittel ist frei von Treibhauspotenzial (zero-GWP) und frei von PFAS. Das System hat einen um 80 Prozent geringeren Wasserverbrauch im Vergleich zu etablierten Alternativen und soll sich zudem unkompliziert in existierende Infrastrukturen über ein Retrofit zu Facility-Wasserkreisläufen integrieren lassen.
Das britische Startup Infiniflux.cool suchte Partner für seine zweiphasige Direct-to-Chip-Flüssigkühlung auf dem „Web Summit 2025“ in Lissabon. In der Abbildung: Eröffnungszeremonie der „Startup-Olympiade“ am ersten Tag der Mega-Messe.
(Bild: Web Summit)
Das britische Startup Infiniflux.cool suchte Partner für seine zweiphasige Direct-to-Chip-Flüssigkühlung auf dem „Web Summit 2025“ in Lissabon. Das Jungunternehmen wurde für seine innovative Lösung zum „Impact“- und „Alpha“-Startup gekürt.
Wenn Hyperscaler (keinen) Dampf ablassen…
Google hat TPU-Pods mit Flüssigkühlung bereits seit rund sieben Jahren im produktiven Betrieb und betreibt heute über 2000 solcher Pods mit wasserbasierten Kühlkreisläufen in hyperskalaren Rechenzentren. Die aktuelle Generation erreicht eine Zuverlässigkeit von 99,999% (das entspricht maximal ca. sechs Minuten Ausfall im Jahr).
Auf dem „OCP Summit 2025“ stellte Google „Project Deschutes“ vor, eine CDU (Coolant Distribution Unit), die mit ihrer Kühlleistung von 2 Megawatt neue Maßstäbe setzt. Die CDU demonstriert geringe Annäherungstemperaturen (Approach Temperature Difference, ATD) von nur 3 Grad und hohe verfügbare Drücke von 80 PSI (~5,5 bar Pound per Square Inch)).
Da der Temperaturunterschied zwischen Vor- und Rücklauf gering ist, kann Google die Rücklauftemperatur trotzdem relativ hoch halten. Das ist zum Beispiel für Fernwärme-Einspeisung oder industrielle Restwärmenutzung von Vorteil.
Direct-to-Chip- versus Immersionskühlung
Unter dem Dach „Flüssigkühlung“ dominieren zwei Architekturen mit unterschiedlichen Stärken.
Direct-to-Chip-Kühlung (D2C) führt das Kühlmedium über Coldplates oder Mikrokanäle direkt an die Hauptwärmequellen: die CPUs und GPUs. Zum Einsatz kommt Wasser oder ein spezialisierter Kühlträger.
Wasserbasierte Medien übertragen Wärme wesentlich besser als dielektrische Fluide der Immersion. Der Haken: D2C adressiert primär die Hotspots. Für übrige Komponenten wie Speicher oder Laufwerke bleibt ergänzende Luftkühlung nötig. Dieser hybride Ansatz mindert einen Teil der Effizienzgewinne, bleibt aber klassischen Luftsystemen deutlich überlegen.
Flüssigkühlungssysteme gibt es im Grunde genommen in zwei Varianten:
Single-Phase-Immersion hält das Fluid im gesamten Kreislauf flüssig. Die Wärme wird ins Fluid übertragen, über externe Wärmetauscher abgeführt und das Fluid zirkuliert aufs Neue. Diese Bauart gilt als einfach und betriebssicher. Die Effizienzgewinne sparen 30–40 % Energie ein. Die Kompatibilität mit Standard-IT und die Wartungsfreundlichkeit bleibt gewahrt.
Two-Phase-Immersion nutzt den Siedevorgang: Das Fluid verdampft am heißen Bauteil, kondensiert am Wärmetauscher und fließt passiv zurück. Die Methode kann den Energiebedarf der Kühlung um bis zu 50 % senken und benötigt kaum Pumpenleistung. Die größten Herausforderungen liegen in der Auswahl und Handhabung maßgeschneiderter Fluide, ihrem Umweltprofil und in Lieferkettenfragen.
Die Flüssigkühlung hat es Google erlaubt, die Gehäusedichte im Vergleich zu luftgekühlten Pods zu vervielfachen; der Verzicht auf dicke Kühlkörper und große Lüfter machte den Platz frei.
AWS setzt auf ein vollständig geschlossenes Direct-to-Chip-System. Der Hyperscaler hat binnen elf Monaten ein eigenes D2C-System mit proprietären Coldplates und CDU vom Design in den Produktionsbetrieb überführt: geschlossen, ohne Mehrverbrauch an Prozesswasser, mit „Whirlpool-Temperaturen“ (typisch >40 °C) für hohe Effizienz. Das System ist (anders als jenes von Google) mit minimalen Eingriffen in Bestandsrechenzentren nachrüstbar.
Microsoft rollt D2C über dedizierte Sidekicks in luftgekühlten Brownfields aus und erweitert die Thermalinfrastruktur in Partnerschaft mit der Industrie. Mit “Brownfields” sind bereits bestehende Anlagen, Infrastrukturen und Gebäude gemeint, die schon in Betrieb sind und typischerweise klassische (in diesem Fall luftgekühlte) Technik nutzen.
Eingehaust: Der Mikrofluidik-Chip von Microsoft besitzt angeschlossene Leitungen, damit das Kühlmittel im Chip zirkulieren kann.
(Bild: Dan DeLong/Microsoft)
Microsoft ergänzt D2C um modulare Heat Exchanger Units (HXU) auf Rack-Ebene. Racks in Azures Fairwater-Datacentern erreichen Leistungsdichten bis etwa 140 kW pro Rack und mehr als 1 MW pro Reihe.
Microsoft hat eine neue Methode zur Kühlung von Siliziumchips mit Hilfe von Mikrofluidik demonstriert. Dabei werden Kanäle direkt in das Silizium geätzt, so dass die Kühlflüssigkeit unmittelbar über den Chip fließen und die Wärme effizienter abführen kann.
Das Team verwendet zudem KI, um die einzigartigen Wärmesignaturen eines Chips zu erkennen und das Kühlmittel mit hoher Präzision dorthin zu lenken, wo es am meisten gebraucht wird. Ein Fokus liegt auf der Modularisierung/Standardisierung für OCP-Designs und Nachhaltigkeit ohne neue Infrastrukturvorgaben für einzelne Standorte.
Ein KI-Agent auf Basis von „Discovery-AI“ in einer Forschungssparte von Microsoft soll im Jahre 2025 innerhalb von rund 200 Stunden ein vielversprechendes, PFAS-freies Immersionsfluid als Prototyp identifiziert; die Synthese gelang in weniger als vier Monaten. Neue Thermofluide gelten als Hoffnungsträger für zweiphasige Immersion jenseits regulativer Beschränkungen (siehe: Kasten)
Was läuft in China?
Chinesische Cloud-Provider setzen Immersion Campus-weit ein, frei nach dem Motto 'Klotzen statt kleckern'. Co-Location-Anbieter dürften bald in die Fußstapfen der Hyperscaler folgen, sobald Technik und Ökosysteme soweit gereift sind.
Neue Kältemittel
Mit „Chemours Opteon 2P50“ wird ein zweiphasiges, Hydrofluorolefine-basiertes Fluid mit sehr niedrigem GWP (AR6: 10) im großen Maßstab erprobt – nach Labortests nun im Feldversuch mit Industriepartnern. Das Ziel besteht in der Entwicklung eines PFAS-freien Alternativmediums, das Kühlenergie um bis zu 90 Prozent senken soll, um den Gesamtenergieverbrauch deutlich zu reduzieren, den Wasserverbrauch nahezu eliminieren und zugleich Lärm und Flächenbedarf spürbar zu verringern. Der passive Siede-/Kondensationskreislauf stabilisiert die Temperaturen auch bei unternehmenskritischen AI- und HPC-Lasten.
Intel hat 2025 Shells Immersionsfluide für Xeon-Plattformen zertifiziert, ein wichtiger Adoptionshebel für OEMs und Betreiber. Die Single-Phase-Systeme laufen als geschlossene Flüssigkreisläufe über Wärmetauscher und sekundäre Wasserkreise, können den Strombedarf der Kühlung fast halbieren und den Wasserverbrauch gegenüber Luftkühlung um bis zu 99 Ürozent drücken. Shell erweitert parallel das Portfolio um Direct-Liquid-Cooling-Fluide und engagiert sich in Energiepartnerschaften rund um Rechenzentrumsstandorte.
Teurer als „heiße Luft“
Vorerst bleibt Flüssigkühlung teurer als Luft, doch Betriebsvorteile und Verdichtung führen in der Regel bereits innerhalb von zwei bis vier Jahren zum ROI. Dies trifft insbesondere bei Neubauten und KI-Fabriken mit hohen Rack-Dichten zu.
Regulatorik und Chemie sind im Fluss: PFAS-Beschränkungen beschleunigen PFAS-freie Alternativen, für die es jedoch noch keine Langzeitdaten gibt.
Fachliches Know-how wird zum entscheidenden Erfolgsfaktor: Betrieb, Reinheit, Fluid-Handling und Entlüftung unterscheiden sich deutlich von luftgekühlten Setups. Spezialisierte Service-Portfolios schließen diese Lücke.
Ihr Fazit lautet: Bis 2030 dürfte sich die Immersion für KI- und HPC-Zonen als Standard etablieren; vorerst bleibt sie aber noch eingebettet in gemischte Campus-Einrichtungen, in denen Luftkühlung klassische Enterprise-Lasten trägt.
Mittel- bis langfristig verändert Immersion das physische Rechenzentrumsdesign grundlegend: weniger Luftführung, kompaktere Bauten, höhere Dichten und damit geringerer Flächen- und Energiebedarf. Angesichts von KI-Wachstum, ESG-Vorgaben und Wasserknappheit wird Flüssigkühlung zur Notwendigkeit.
Wer die Umstellung verpasst, riskiert thermische Grenzen und verfehlt Nachhaltigkeitsziele. Die Abkehr von reiner Luftkühlung ist damit weniger eine Option als ein Strukturwandel in der Thermomanagement-Architektur der KI-Ära.