Nachhaltigkeit bei maximaler Leistung Rechenzentren fehlt die Vorbereitung auf das KI-Zeitalter

Ein Gastbeitrag von Corey Needles* 4 min Lesedauer

Anbieter zum Thema

Je effizienter Rechenzentren Energie und Wasser verbrauchen, desto geringer sind die Fixkosten. Wer also für seine Cloud-Infrastruktur Anbieter nutzt, die besonders effizient arbeiten, hilft nicht nur der eigenen Klimabilanz, sondern spart auch Geld. Eine Binsenwahrheit? Eine Selbstverständlichkeit?

Für das Modell-Training in Datacenter werden derzeit vonehmlich Grafikprozessoren zur Beschleunigung benötigt. Die jüngste GPU-Spezifikation von Nvidia benötigt bis zu 1000 Watt. Welches Rechenzentrum, welche Stromversorgung und welche Kühlung kann das bewältigen?(Bild:  frei lizenziert: Brian Penny  /  Pixabay)
Für das Modell-Training in Datacenter werden derzeit vonehmlich Grafikprozessoren zur Beschleunigung benötigt. Die jüngste GPU-Spezifikation von Nvidia benötigt bis zu 1000 Watt. Welches Rechenzentrum, welche Stromversorgung und welche Kühlung kann das bewältigen?
(Bild: frei lizenziert: Brian Penny / Pixabay)

Rechenzentren verursachen derzeit etwa 1,5 Prozent des weltweiten Energieverbrauchs. Dieser Anteil scheint auf den ersten Blick gering, aber wird in der Zukunft wegen der rasant wachsenden Nachfrage nach Cloud-Computing- und KI-Services noch weiter ansteigen.

Laut des Reports „Electricity 2024“ der International Energy Agency’s Electricity 2024 könnte sich der weltweite Energiebedarf von Rechenzentren, KI-Services und Krypto-Mining zusammengenommen schon bis 2026 verdoppeln – auf mehr als 1.000 Terawattstunden (TWh). Das entspräche etwa dem jährlichen Stromverbrauch von Japan.

Prognosen zufolge wird die gesammelte Workload von GenAI-Anwendungen in den kommenden sechs Jahren eine Verdreifachung der globalen Hyperscale-Kapazitäten benötigen. Und das ist ein Problem.

Betreiber von Rechenzentren sind auf KI unvorbereitet

Denn im Moment entsprechen weder die vorhandene noch die geplante Rechenzentrumskapazität dem Umfang, der nötig wäre, um den Bedarf zu decken. Beispiel Leistungsdichte: früher galten 10 bis 15 Kilowatt (kW) als ein hoher Wert, heute sind es 50 kW. In fünf Jahren könnten es genauso 550 kW sein. Folglich könnte die benötigte Kapazität eines vor drei Jahren geplanten Rechenzentrums bei Inbetriebnahme schon zu gering sein.

Zwar schneidet Deutschland, was die Ausbaupläne betrifft, im europäischen Vergleich sehr gut ab. Doch schätzt etwa das Analystenhaus Savills, dass sich allein der europäische Bestand an Rechenzentren bis 2025 mehr als verdoppeln muss, um die prognostizierte Nachfrage zu decken. Traditionelle Hyperscaler verlassen sich für ihre Planung auf einen Just-in-Time-Lieferansatz, der auf Bedarfsprognosen basiert, und dabei anfallende Kosten wie auch den Zeitaufwand minimiert. Jedoch ist dieses Modell im KI-Zeitalter nahezu obsolet.

Doch hinzu kommt: Der Bau moderner Rechenzentren dauert vom ersten Entwurf bis zur Inbetriebnahme derzeit mindestens drei bis fünf Jahre. Es gehen also noch immer Rechenzentren online, die entworfen wurden ohne Berücksichtigung des kommenden KI-Trends – auch wenn nicht wenige Betreiber im Extremfall noch während des Baus eine Rekonzeption angestoßen haben.

Und das liegt nicht nur daran, dass sich die physische Gestalt der Chips ständig ändert. Auch ist mittlerweile eine hochmoderne Flüssigkeitskühlung essenziell, um die bei Rechenprozessen entstehende Abwärme zu bewältigen.

Ohne Strom nichts los

An diesem kritischen Punkt ist die Zukunft der Rechenzentrumstechnologie also von infrastruktureller Weiterentwicklung abhängig. Und ohne ein gehöriges Maß von Agilität wird es nicht funktionieren. Für die nahe Zukunft gewinnen deshalb kleinere Co-Location-Rechenzentren an Bedeutung, die Flexibilität, geringere Latenzzeiten und Kosteneinsparungen bieten. Gleichzeitig könnten sich mittelgroße Anbieter, mit einer passenden Strategie für den nächsten Hype-Zyklus, zu Hyperscalern entwickeln.

Doch sogar die größten Hyperscaler haben Probleme, ihren Energieverbrauch und damit verbunden ihren ökologischen Fußabdruck unter Kontrolle zu bekommen. Microsoft selbst etwa schätzt im hauseigenen 2024 Environmental Sustainability Report, dass die eigenen CO2-Emissionen seit 2020 um 30 Prozent gestiegen sind – fast ausschließlich aufgrund neu gebauter Rechenzentren.

Die Stabilität des Stromnetzes, Lärmemissionen (vor allem, wenn ein Zentrum in der Nähe einer Gemeinde liegt), die Kreislaufwirtschaft durch Abwärmenutzung und vieles mehr verlangen eine ganzheitliche Betrachtung der Nachhaltigkeit von Rechenzentren bei. Das Konzept der „grünen“ Rechenzentren ist zum Glück dank Innovationen in Bereichen Energie-Effizienz, Kühltechnologien und der zunehmenden Verfügbarkeit erneuerbarer Energien auch bei der durch Cloud-Dienste und GenAI angetriebenen Marktexpansion zunehmend realisierbar.

Und das muss es auch sein: So erfordert die Corporate Sustainability Reporting Directive (CSRD) der EU genaueste Messungen, die einige Aspekte des Ressourcenverbrauchs und der IT-Ausrüstung abdecken.

Effizienz spart Geld

Den Fokus auf einen möglichst ressourcenschonenden Betrieb zu legen ist unerlässlich, aber nicht nur, um gesetzliche Aufgaben zu erfüllen. Es geht auch um handfeste finanzielle Vorteile. Doch wie lässt sich die Effizienz von Rechenzentren überhaupt bewerten?

Dies geschieht anhand des Power-Usage-Effectiveness-(PUE-)Wertes, der sich aus dem Verhältnis zwischen dem Gesamtenergieverbrauch eines Zentrums und der an die Rechenanlagen gelieferten Energie ergibt. Der derzeitige Branchenstandard liegt bei etwa 1,5, der theoretische Idealwert wäre 1. Als äußerst effizient gelten Werte im Bereich von 1,1 bis 1,2 – das muss das Ziel sein.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Innovationen wie fortschrittliche Kühltechniken, zum Beispiel Flüssigkeitskühlung und Immersionskühlung, KI-gesteuerte Energie-Management-Systeme und die Entwicklung Energie-effizienterer Hardware sind wichtige Schritte in die richtige Richtung. Diese Technologien zielen darauf ab, den Energieverbrauch zu senken und es den Rechenzentren gleichzeitig zu ermöglichen, ihre Dienstleistungen zu erweitern. Steigende Energiepreise können abgefedert werden, indem man vor Ort erneuerbare Energien erzeugt und speichert.

Hohe Energiepreise werden kleinere Rechenzentren wahrscheinlich stärker treffen als Hyperscale-Einrichtungen. Die Riesenrechenzentren können Größenvorteile nutzen, um in Energie-effiziente Technik zu investieren und bessere Energietarife auszuhandeln. Betreiber kleinerer Rechenzentren dagegen könnten Schwierigkeiten haben, die für solche Technologien erforderlichen Investitionen zu tätigen.

Und es geht nicht einmal nur um Strom. Rechenzentren verbrauchen auch riesige Mengen an Wasser, vor allem für Kühlung. Der Bedarf eines großen Rechenzentrums kann bis zu fünf Millionen Liter Wasser pro Tag betragen – äquivalent zu einer Stadt mit 50.000 Einwohnern. Es gilt also, dafür zu sorgen, dass das genutzte Wasser wiederverwendbar wird – etwa durch die Nutzung von recyceltem Wasser oder Regenwasser. Und natürlich ist auch hier ein möglichst hoher Effizienzgrad von Vorteil.

*Der Autor
Corey Needles, Managing Director Ardent Data Centers, Teil der Northern Data Group, ist ein anerkannter Marktführer für innovative Technologiestrategien mit über 25 Jahren Erfahrung in den Bereichen Daten-Colocation, Cloud-Services und Kryptowährungs-Mining. Er verfügt über eine nachgewiesene Erfolgsbilanz bei der Umgestaltung von Unternehmen in den Bereichen Daten-Co-Location, Cloud und Konnektivität, bei der Leitung von Investitionsprojekten in Höhe von mehreren Millionen Dollar und bei der Erstellung langfristiger Technologie- und Geschäftspläne, die zu einem erheblichen Umsatzwachstum führen.
Needles war zuletzt als SVP und General Manager für Inap USA tätig, einem globalen Anbieter von IT-Infrastruktur- und Rechenzentrumsdiensten. Davor war er SVP of Operations, Engineering und Construction bei zColo, einer Tochtergesellschaft der Zayo Group, und leitete ein umfangreiches Tier-III-Rechenzentrumsportfolio weltweit.

Bildquelle: Northern Data Group

(ID:50186228)