Extreme Verdichtung, Gigawatt-Skalierung und Rechenzentren als Recheneinheiten Strombedarf und adaptive Flüssigkeitskühlung prägen 2026 die Datacenter

Quelle: Pressemitteilung Vertiv GmbH 4 min Lesedauer

Anbieter zum Thema

Der „Vertiv Frontiers“-Bericht, der auf dem Fachwissen des Unternehmens basiert, beschreibt detailliert die Technologietrends, die aktuelle und zukünftige Innovationen vorantreiben, von der Leistungssteigerung für KI über digitale Zwillinge bis hin zur adaptiven Flüssigkeitskühlung.

Der Trend geht zu mehr Eigenverantwortung der Rechenzentrumsbetreiber für die Stromversorgung und zu neuen Konzepten mit diversen Formen der Flüssigkühlung. Aus dem Bid zu sehen sind ein Rechenzentrumsdach, das mit PV-Anlagen bestückt sind, sowie unter anderem ein Kühlturm. (Bild: ©  kanpisut - stock.adobe.com)
Der Trend geht zu mehr Eigenverantwortung der Rechenzentrumsbetreiber für die Stromversorgung und zu neuen Konzepten mit diversen Formen der Flüssigkühlung. Aus dem Bid zu sehen sind ein Rechenzentrumsdach, das mit PV-Anlagen bestückt sind, sowie unter anderem ein Kühlturm.
(Bild: © kanpisut - stock.adobe.com)

Scott Armul, Chief Product and Technology Officer bei Vertiv, fasst die wesentlichen Entwicklungen zusammen: „Die Rechenzentrumsbranche entwickelt die Art und Weise, wie sie Rechenzentren entwirft, baut, betreibt und wartet, als Reaktion auf die Dichte und Geschwindigkeit der Bereitstellungsanforderungen von KI-Fabriken rasant weiter. Bei Vertiv sähe man Technologie-übergreifende Kräfte, darunter eine extreme Verdichtung, die transformative Trends wie Hochspannungs-Gleichstromarchitekturen und fortschrittliche Flüssigkeitskühlung vorantreiben.“

Aus einer Präsentation von Makro-Tremds der „Vertiv Week“ im November 2025, Padua. (Bild:  Vertiv)
Aus einer Präsentation von Makro-Tremds der „Vertiv Week“ im November 2025, Padua.
(Bild: Vertiv)

Diese seien wichtig , um die für KI-Innovationen entscheidende Gigawatt-Skalierung zu erreichen. Auch die Energie-Erzeugung vor Ort und Digital-Twin-Technologien dürften dazu beitragen, den Umfang und die Geschwindigkeit der KI-Einführung voranzutreiben, so Amul.

Der Vertiv Frontiers-Bericht baut auf den früheren jährlichen Prognosen von Vertiv zu Trends in Rechenzentren auf und erweitert diese:

  • extreme Verdichtung zum Beispiel wird durch KI- und HPC-Workloads beschleunigt;
  • schnelle Gigawatt-Skalierung bedeutet, dass Rechenzentren heute schnell und in beispiellosem Umfang bereitgestellt werden können;
  • Rechenzentren als Recheneinheit heißt im KI-Zeitalter: Einrichtungen müssen als ein einziges System gebaut und betrieben werden;
  • Diversifizierung von Silizium will heißen: Die Infrastruktur von Rechenzentren muss sich an eine zunehmende Bandbreite von Chips und Rechenleistungen anpassen.

Die fünf Wirkungskreise

1. Stromversorgung für KI

Die meisten aktuellen Rechenzentren sind nach wie vor auf eine hybride Wechselstrom-/Gleichstrom-Stromverteilung vom Netz zu den IT-Racks angewiesen, die drei bis vier Umwandlungsstufen und einige Ineffizienzen umfasst. Dieser bestehende Ansatz gerät unter Druck, da die Leistungsdichten steigen, was vor allem auf KI-Workloads zurückzuführen ist.

Die Umstellung auf Gleichstromarchitekturen mit höherer Spannung ermöglicht eine erhebliche Reduzierung des Stroms, der Größe der Leiter und der Anzahl der Umwandlungsstufen, während die Stromumwandlung auf Raumebene zentralisiert wird. Hybride Wechselstrom- und Gleichstromsysteme sind zwar weit verbreitet, aber mit der Weiterentwicklung von vollständigen Gleichstromstandards und -geräten wird sich Gleichstrom mit höherer Spannung wahrscheinlich mit zunehmender Rack-Dichte weiter durchsetzen. Auch die Erzeugung vor Ort und Mikronetze werden die Einführung von Gleichstrom mit höherer Spannung vorantreiben.

2. Verteilte KI

Die Milliarden von Dollar, die bisher in KI-Rechenzentren investiert wurden, um große Sprachmodelle (LLMs) zu unterstützen, zielten darauf ab, die breite Einführung von KI-Tools durch Verbraucher und Unternehmen zu fördern. Doch jetzt geht es auch mehr und mehr um Inferenz.

Aus einer Präsentation zur „Vertiv Week“ 2025. (Bild:  Vertiv/uo)
Aus einer Präsentation zur „Vertiv Week“ 2025.
(Bild: Vertiv/uo)

Wie und von wo aus diese Inferenzdienste bereitgestellt werden, hängt von den spezifischen Anforderungen und Bedingungen der Organisation ab. Dies wird sich zwar auf Unternehmen aller Art auswirken, aber stark regulierte Branchen wie Finanzen, Verteidigung und Gesundheitswesen müssen aufgrund von Anforderungen an Datenresidenz, Sicherheit oder Latenz möglicherweise private oder hybride KI-Umgebungen über lokale Rechenzentren aufrechterhalten. Flexible, skalierbare Stromversorgungs- und Flüssigkeitskühlsysteme mit hoher Dichte könnten die Kapazität durch Neubauten oder die Nachrüstung bestehender Anlagen ermöglichen.

3. Energie-Autonomie beschleunigt sich

Die kurzfristige Energie-Erzeugungskapazität vor Ort ist seit Jahrzehnten für die meisten eigenständigen Rechenzentren von entscheidender Bedeutung, um die Ausfallsicherheit zu gewährleisten. Die weit verbreiteten Herausforderungen bei der Stromversorgung schaffen jedoch die Voraussetzungen für eine erweiterte Energie-Autonomie, insbesondere für KI-Rechenzentren.

Investitionen in die Stromerzeugung vor Ort mittels (Erd-)Gasturbinen und anderer Technologien haben zwar mehrere inhärente Vorteile, werden jedoch in erster Linie durch Herausforderungen bei der Stromverfügbarkeit vorangetrieben. Technologiestrategien wie „Bring Your Own Power (and Cooling)” werden wahrscheinlich Teil der laufenden Pläne zur Energie-Autonomie sein (siehe: „Eine unheilige Allianz; Vertiv, die Datacenter-Branche und die Atomkraft“).

4. Digital Twin-gesteuertes Design und Betrieb

Mit immer dichteren KI-Workloads und leistungsfähigeren GPUs steigt auch die Nachfrage nach einer schnellen Bereitstellung dieser komplexen KI-Fabriken. Mithilfe von KI-basierten Tools können Rechenzentren über digitale Zwillinge virtuell abgebildet und spezifiziert werden.

Die IT- und kritischen digitalen Infrastrukturen können in Form von vorgefertigten, modularen Designs integriert werden und als Recheneinheiten bereitgestellt werden, wodurch die Time-to-Token um bis zu 50 Prozent reduziert wird. Dieser Ansatz wird wichtig sein, um die für zukünftige KI-Fortschritte erforderlichen Ausbauten im Gigawatt-Maßstab effizient zu realisieren.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

5. Adaptive, robuste Flüssigkeitskühlung

KI-Workloads und -Infrastrukturen haben die Einführung der Flüssigkeitskühlung beschleunigt. Umgekehrt kann KI aber auch dazu genutzt werden, Flüssigkeitskühlsysteme weiter zu verfeinern und zu optimieren. Die Flüssigkeitskühlung ist für immer mehr Betreiber zu einer geschäftskritischen Komponente geworden, aber KI könnte Möglichkeiten bieten, ihre Leistungsfähigkeit weiter zu verbessern.

In Verbindung mit zusätzlichen Überwachungs- und Steuerungssystemen hat KI das Potenzial, Flüssigkeitskühlsysteme intelligenter und noch robuster zu machen, indem sie potenzielle Ausfälle vorhersagt und Flüssigkeiten und Komponenten effektiv verwaltet. Dieser Trend dürfte zu einer höheren Zuverlässigkeit und Verfügbarkeit von hochwertiger Hardware und den damit verbundenen Daten/Workloads führen.

Artikelfiles und Artikellinks

(ID:50690448)