Zeithorizont 5 Jahre: Vom herkömmlichen Co-Location zu Build-to-Suit-Services Die KI-Datacenter-Planung braucht neue Entwicklungspartner

Ein Gastbeitrag von Dominic Lees* 5 min Lesedauer

Anbieter zum Thema

Die Hyperscaler befinden sich in einem Skalierungswettlauf, bei dem es vor allem auf Geschwindigkeit ankommt. Um ihre Anforderungen zu erfüllen, braucht es ein Entwickler-Partner-Modell, das es so bisher noch nicht gibt.

Wasserkühlung gilt für viele als Voraussetzung für die hohe Last, die KI-Hardware bewältigen muss; denn die Dichte der aktiven Komponeten und die erzeugte Hitze fordern neue Kühlkonzepte. Wird ein Rechenzentrum für Flüssigkühlung umgebaut, braucht es einen zweiten Wasserkreislauf. (Bild:  NDC-Garbe)
Wasserkühlung gilt für viele als Voraussetzung für die hohe Last, die KI-Hardware bewältigen muss; denn die Dichte der aktiven Komponeten und die erzeugte Hitze fordern neue Kühlkonzepte. Wird ein Rechenzentrum für Flüssigkühlung umgebaut, braucht es einen zweiten Wasserkreislauf.
(Bild: NDC-Garbe)

Die Ausgangslage: Die Rechenzentrumsbranche hat in den vergangenen Jahren ein explosives Wachstum erlebt. Die ständig steigende Nachfrage nach Cloud-Diensten und die globale Nutzung Web-fähiger Geräte waren die Haupttreiber. Derzeit führt der exponentielle Fortschritt der Künstlichen Intelligenz (KI) und des Maschinellen Lernens zu einem grundlegenden Wandel bei der Konzeption von Rechenzentren und der Auswahl von Standorten.

Die Veränderungen in der Branche werden mit hoher Wahrscheinlichkeit zu verstärkten Investitionen in selbst gebaute Rechenzentren als zu einem traditionellen Co-Location-Modell führen. Das ist eine Verschiebung, die dem Vorentwicklungsprozess größere Bedeutung beimisst.

Die derzeit prognostizierte Hyperscale-Nachfrage kann mit der bisherigen Lieferkette nicht mehr befriedigt werden. Folglich müssen die Entwicklungspartner ihr Service-Angebot umgestalten, um die spezifische Nachfrage und den Umfang der KI-Entwicklungen in den nächsten fünf Jahren zu erfüllen.

Energie ist der Schlüssel

Im Jahr 2023 hatte die Gesamtmenge der globalen Hyperscale-Kapazität 15,5 Gigawatt (GW) an operativer Kapazität erreicht. Etwa 73 Prozent dieser Kapazität entfallen auf die vier größten Hyperscale-Plattformen der Welt: AWS, Microsoft Azure, Google Cloud und Meta. Es überrascht daher nicht, dass die Strategie der Entwicklerpartner als Antwort auf die aktuellen Trends weitgehend von den Anforderungen dieser Hyperscaler getrieben wird.

Im Mittelpunkt des Wandels steht der Bedarf an immer mehr erneuerbarer und nachhaltigerer Energie. So kann eine Suchanfragen mit generativer KI, die inzwischen in den meisten Geräten und Anwendungen integriert ist, bis zu 15-mal mehr Energie verbrauchen als eine herkömmliche Suchmaschinenanfrage.

Ein einziges KI-generiertes Bild kann 50 Prozent der gesamten Akkuladung eines Telefons verbrauchen.

Bisher haben Cloud- und Co-Location-Betreiber ihre Gebäude in der Regel mit etwa 3 Kilowatt pro Quadratmeter (kW/qm) ausgelegt. Wenn es jedoch um die neuen KI-Spezifikationen geht, müssen die Planer mit etwa 10 kW/qm und mehr arbeiten.

Die gestiegenen Ansprüche der IT fordern andere Datacenter

Um diesem Anstieg gerecht zu werden, müssen auch die Gebäude generell größer geplant werden. Das historische Effizienzverhältnis zwischen der Infrastrukturfläche und der IT-Fläche liegt in Cloud-Rechenzentren typischerweise bei etwa 60:40. Mit KI liegt dieses Verhältnis jetzt bei etwa 80:20. Das bedeutet, dass sich bei der neuen Art von Rechenzentren nicht nur das Design, der Flächen- und Energiebedarf, sondern auch der erforderliche Investitionsansatz grundlegend ändert.

Für Hyperscaler wird dieses High-Density-Design wahrscheinlich den Übergang vom Co-Location-Modell zum Eigenbau beschleunigen.

Dank des enormen Investitionsbedarfs in den nächsten fünf Jahren ziehen Hyperscaler nun das Leasing von Powered-Shell-and-Core-Facilities in Betracht, um schnell und effektiv einen Bestand an zukunftsfähigen KI-Kapazitäten in neuen Gebieten zu schaffen. Um den dynamischen Anforderungen dieser neuen Welt gerecht zu werden, müssen Entwicklungspartner nicht nur Powered-Shell-and-Core-Produkte, sondern auch Build-to-Suit-Services anbieten.

Neue Regionen auf dem Schirm

Die Ansiedlung von Cloud-Rechenzentren folgt der Bevölkerungsdichte und dem Grad der Konnektivität, wie sie in den traditionellen Tier-1-Märkten in Europa – Frankfurt, London, Amsterdam, Paris und Dublin (FLAPD) – zu finden sind. Diese Faktoren passen gut zu dem bewährten Co-Location-Entwicklungsmodell.

Bei KI-Rechenzentren sieht das anders aus. Sie siedeln sich zunehmend an Orten mit großer nachhaltiger Energiekapazität und Zugang zu wichtigen Daten-Clustern an. Dies rückt zugleich die Frage der Datensouveränität in den Fokus, insbesondere die Notwendigkeit einer Datenspeicherung im eigenen Land.

Da der Energiebedarf für Rechenzentren exponentiell wächst, entsteht eine Verknappung des Co-Location-Angebots in den Tier-1-Märkten (FLAPD), die durch regionale Beschränkungen der Strom- und Wasserversorgung bedingt ist. Die Kommunen reagieren auf diese Beschränkungen in der Regel mit starken Einschränkungen für die Errichtung neuer Rechenzentren an den traditionellen Tier-1-Standorten.

Dadurch werden KI-Standorte aus den Ballungszentren verdrängt und der gesellschaftliche Nutzen der Wiederverwendung der entstehenden Abwärme verringert. Darüber hinaus steht das Wachstum von Rechenzentren in erheblichem Wettbewerb mit anderen Energieverbrauchern wie der Infrastruktur für Elektrofahrzeuge und der modernen Fertigung.

Hyperscaler und ihre Investitionspartner müssen Optionen für Grundstücke in Betracht ziehen, von denen sie wissen, dass sie innerhalb eines Zeitfensters von fünf Jahren mit Strom versorgt werden können. Diejenigen Entwickler, die über ein Netzwerk lokaler Grundstücksoptionen verfügen, werden daher sehr wahrscheinlich in Tier-1-Randgebieten und Tier-2- und -3-Gebieten am attraktivsten für die Auftraggeber sein.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Gemeinsame Planung

Die EU Kommission schätzt, dass der Stromverbrauch bis zum Jahr 2030 um 60 Prozent steigen wird. Gleichzeit erfordert die Erhöhung der Stromerzeugungskapazität erhebliche Investitionen – auch um die Ziele für erneuerbare Energien zu erreichen.

Die derzeitige Strategie für den Netzausbau ist jedoch nicht zweckmäßig. Rechenzentren werden nun mehr und mehr zu einer kritischen Infrastruktur und können nicht ohne Bezug auf Wasser, Glasfaser, Wiederverwendung von Abwärme und nachhaltigen Stromnetzstrategien geplant werden. Um dies zu erreichen, bedarf es eines koordinierten Ansatzes, damit die Planung von Rechenzentren in die nationalen Strategien für nachhaltige Infrastrukturen integriert wird.

Die globale Rechenzentrumsbranche hat heute ungefähr den gleichen CO2-Fußabdruck wie die gesamte Luft- und Raumfahrtindustrie, nämlich zwischen zwei bis drei Prozent der gesamten weltweiten Emissionen. In fünf Jahren wird sich dieser Fußabdruck voraussichtlich verdoppeln. Wir müssen jetzt den Ausbau von Rechenzentren als Teil eines vernetzten nachhaltigen Energiesystems planen.

Die Planungsrichtlinien müssen mit der Infrastrukturplanung verknüpft werden. Mit diesem Ansatz lässt sich der Nutzen für die Gesellschaft maximieren, einschließlich der möglichen Beheizung von Wohnungen, Schulen und Krankenhäusern durch die Abwärme der Rechenzentren.

Neue Art von Entwicklungspartnern

Die Nachfrage nach neuen Rechenzentrumsstandorten bringt auch erhöhte Entwicklungsrisiken mit sich. Entwicklungspartner müssen deshalb ihre Erfahrungen einbringen, um die Hyperscaler bestmöglich bei der Planung, Standortauswahl und der Vorentwicklungsphase eines jeden Projekts in neuen Gebieten zu unterstützen.

Ein möglicher Weg ist die Einführung eines ‚Team-of-Teams‘-Ansatzes. Während der Entwicklungspartner weiterhin die zentrale Beziehung zu einem bestimmten Hyperscaler betreut, wird die Fähigkeit, den Zugang zu Expertenwissen zu vermitteln, entscheidend sein. Hyperscaler werden hochqualifizierte lokale Beratung in Bereichen wie Grundstückserwerb, Energieversorgung, Bau und Planung von Rechenzentren, Pre-Construction-Planung und Genehmigungsprozessen, Kapital- und Investitionsfinanzierung sowie Verwaltung des Grundstücksportfolios benötigen.

Die Entwicklungspartner müssen besonders in den neueren Märkten (Tier 2 und Tier 3) ihr Fachwissen vor Ort unter Beweis stellen und sich auf fundierte Kenntnisse der lokalen politischen und betrieblichen Gegebenheiten stützen.

Es ist von entscheidender Bedeutung, dass die Rechenzentrumsbranche den richtigen Weg einschlägt. Alle wollen die Vorteile, die KI mit sich bringt nutzen – angefangen bei der medizinischen Forschung über die smarte Auswertung von Energiesystemen bis hin zu Leitsystemen für Straße und Schiene. Aber daraus entsteht ein Dilemma: Je besser und nützlicher unsere Daten werden, desto intensiver wollen wir sie nutzen.

Entwicklungspartner müssen daher in der Lage sein, die Hyperscaler in vollem Umfang zu unterstützen, indem sie die Prozesse, die mit der wachsenden Nachfrage nach neuen Standorten verbunden sind, möglichst risikolos gestalten.

*Der Autor
Dominic Lees ist Managing Director and Chief Development Officer bei NDC-Garbe. Er sagt: Letztendlich ist die Bereitstellung der erforderlichen digitalen Infrastruktur – nachhaltig und innerhalb des vorgegebenen Zeitrahmens – der einzige Weg, wie die globale Wirtschaft von KI profitieren und ihr volles Potenzial entfalten kann.

Bildquelle: NDC-Garbe

(ID:50274603)