Podcast-Diskussion mit drei Perspektiven auf Optimierung, PUE und KI-Hunger Energie-Effizenz - „super möglich“ oder „eine hehre Aufgabe“?

Von Daniel Schrader 6 min Lesedauer

Anbieter zum Thema

Effizienter und nachhaltiger sollen Rechenzentren werden und dabei wirtschaftlich bleiben. Wie? Drei Experten, ein Rechenzentrumsbetreiber ein -planer und ein Professor, erörtern verschiedene Perspektiven auf PUE-Vorgaben, Kühlung und Energieversorgung, Optimierung von Bestandsbauten und den anhaltenden Strom- und Hardwarehunger durch KI-Lasten.

Wie können Datacenter effizienter und nachhaltiger werden und dabei wirtschaftlich und technologisch attraktiv bleiben? Drei Branchenexperten stellen ihre Perspektiven vor.(Bild:  Midjourney / KI-generiert)
Wie können Datacenter effizienter und nachhaltiger werden und dabei wirtschaftlich und technologisch attraktiv bleiben? Drei Branchenexperten stellen ihre Perspektiven vor.
(Bild: Midjourney / KI-generiert)

In einer Grundsatzdiskussion bei dem Podcast „DataCenter-Diaries“ haben drei Branchenexperten trotz einer guten Portion Übereinstimmung deutlich verschiedene Perspektiven auf die Herausforderungen der Datacenter-Branche entwickelt. Dabei ging es um ein breites Themenspektrum – vom Wasserverbrauch in Rechenzentren, Wasserkühlung und Adiabatik bis zu Deutschlands internationaler Wettbewerbslage bei Stromquellen, Förderungen, KI-Modellen und Halbleitern. Der Schwerpunkt der Diskussion lag aber deutlich auf den Herausforderungen der Energie-Effizienz, der Planung und der Modernisierung von Rechenzentren.

Wie können Rechenzentren effizienter und nachhaltiger werden und dabei wirtschaftlich sein? Im DataCenter-Diaries Podcast #47 diskutiert Chefredakteurin Ulrike Ostler mit den Branchenexperten Ulrich Terrahe (DC-CE RZ-Beratung GmbH & Co. KG ), Professor Adrian Altenburger (Hochschule Luzern) und Michael Sauerzapf (Rewe International) über PUE-Ziele von 1,2 und darunter, Vorgaben des Energie-Effizienz-Gesetzes und modulare Optimierungen für Bestandsrechenzentren.

Zudem geht es um die Auswirkungen des KI-Booms auf Energiebedarf und Hardware, um Wasserkühlung und Adiabatik sowie um die Frage, wie viel Verantwortung das Facility Management an die IT abgeben sollte. Außerdem: Wie steht Deutschland im internationalen Vergleich bei Strom, Förderung und technischem Know-how da?

Die Podcast-Folge #47 von DataCenter Diaries findet sich auf Spotify, Apple Podcasts, Deezer und Amazon Musik.

Ulrich Terrahe, Rechenzentrumsplaner und Leiter der DC-CE RZ-Beratung, betonte dabei insbesondere die Herausforderungen für Unternehmen, regulatorische Vorgaben einzuhalten, Bestandsrechenzentren zu optimieren und zugleich Überkapazitäten zu vermeiden. PuE-Werte (Power Usage Effectivness) von unter 1,2 seien für viele Rechenzentren kaum erreichbar.

Adrian Altenburger, Professor und Co-Institutsleiter für Gebäudetechnik und Energie an der Hochschule Luzern, argumentierte dagegen, mit sorgfältiger Planung und modularer Optimierung seien die Vorgaben auch für Bestandsrechenzentren realisierbar.

Michael Sauerzapf, Rechenzentrumsbeauftragter bei Rewe International, lenkte die Aufmerksamkeit auf die komplexen und risikobehafteten unternehmerischen Entscheidungen über Investitionen in die Optimierung von Rechenzentren.

„Win-Win“ mit niedrigen PUE-Werten?

Entschlossen vertrat Altenburger als Mitleiter des Instituts für Gebäudetechnik an der Hochschule Luzern den Standpunkt, PUE-Optimierung sei deutlich mehr als regulatorische Fleißarbeit, sondern ermögliche „Win-Win“-Situationen bei geringeren Investitionen, solange „man Dinge weglässt, die es dann nicht mehr braucht, wenn man es intelligent macht“. Zwei solche Rechenzentren in der Schweiz habe Altenburger bereits seit zehn Jahren geplant. Sie seien auch heute mit PUE-Werten von 1,09 und 1,15 in Betrieb.

Unter idealen Bedingungen, „beispielsweise wenn ein Data Center neben einem See steht, der genutzt werden kann“, sei auch „100 Prozent Free Cooling“ möglich. Aber selbst in weniger günstigen Lagen, darunter auch „in großen Teilen Deutschlands“, könne man „jedes Rechenzentrum, auch die Hochleistungsrechenzentren, ohne Kältemaschinen“ bauen.

„Utopische“ Vorgaben?

Dem Frankfurter Planerkollegen des Luzerner Professors, Ulrich Terrahe, erschien dieses Bild deutlich zu optimistisch. Nicht nur sei „das Wetter ein bisschen wärmer in Deutschland“. Auch erhöhe moderne Monitoring- und Automatisierungstechnik den Strombedarf deutlich und mache teils bis zu zehn Prozent des PUE-Wertes aus.

Ein grundsätzlicheres Problem sei aber die Anwendung des PUE-Wertes im Energie-Effizienzgesetz. So würden einerseits Effizienz-Zugewinne auf der Seite der IT-Lasten gerade negativ berücksichtigt und andererseits sämtliche Nebenverbraucher mit einbezogen. „Damit wird es sehr, sehr schwierig, einen PUE von 1,2 zu bekommen“.

Auch Sauerzapf äußerte die Befürchtung, PUE-Werte von 1,09 bräuchten „Laborbedingungen“ mit der Gefahr, „utopische Werte“ in regulatorischen Anforderungen zu verankern. Altenburger blieb jedoch vehement: Er rede nicht von Laborbedingungen. „Selbst wenn ich kein Seewasser und keine Wärmesenke habe: Ich baue in der Schweiz jedes Datacenter ohne Kältemaschine“.

„Im Schnitt fast 50 Prozent Überdimensionierung“

Aus der Perspektive eines Betreibers von Enterpreise-Datacenter bei Rewe International lenkte Sauerzapf die Diskussion auf Bestandsrechenzentren. Auch hier böten intelligente Strategien zur Kühlung und Wärmerückgewinnung Optimierungspotenziale, die Kosten-Nutzen-Abwägung unterscheide sich aber deutlich von Neuprojekten. Dem pflichteten alle Diskussionspartner bei. Laut Terrahe sei dabei ein Kernproblem, dass deutsche Rechenzentren „im Schnitt fast 50 Prozent Überdimensionierung“ aufweisen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Es ginge dabei nicht um notwendige Redundanzen, sondern darum, dass Datacenter-Planer von der „extremen Verbesserung“ der IT-Effizienz der letzten Jahre überholt wurden. Verglichen mit 2015 benötige ein Betreiber heute für die gleichen Aufgaben regulär 15 Prozent der Fläche und ein Drittel der Energie. So könnten Effizienzsteigerung auf der IT-Seite zu deutlich schlechteren PUE-Werten führen.

Co-Location-Anbietern sei es dabei noch relativ einfach, freigewordene Flächen zu besetzen. Bei Enterprise-Rechenzentren hingegen, so Terrahe und Sauerzapf übereinstimmend, würden oft der Bedarf oder die Investitionsmittel fehlen. So treffe Terrahe „immer mehr [auf] Rechenzentren, wo 50 Prozent der Racks leer“ stünden.

Rechenzentrumsregister funktioniert„nicht so richtig“

Auf der anderen Seite schaffe es auch der Staat, so Terrahe, bislang nicht, gesetzlichen Effizienzanforderungen genügend Nachdruck zu verleihen. Das eingerichtete Rechenzentrumsregister funktioniere „nicht so richtig“.

Er sagt: „Es haben wohl nur 40 Prozent der Rechenzentrumsbetreiber ihre Daten abgeliefert und der Staat kommt nicht hinterher, da Druck aufzubauen“. Selbst zwischen den Rechenzentren, die Bericht erstattet haben, läge der PUE-Durchschnitt über 1,4 – „weit weg von diesen 1,2, die man anstrebt“.

Auch Ankündigungen der EU, Firmen stärker bei Transformationsauflagen zu entlasten, hätten viele Firmen zu dem falschen Schluss bewegt, Themen der „Nachhaltigkeit und Effizienz […] fallen[zu]lassen“. Bei anderen Unternehmen fehle zwar nicht die Bereitschaft. Doch diese hätten schlicht „nicht das Know-how“ und würden „die Migration nicht hinbekommen“. Das technisch Mögliche sei damit, so Terrahe, alles andere als das, „was tatsächlich im Markt umgesetzt wird“.

„Die Latte hochhalten“

Als Professor für Gebäudetechnik plädierte Altenburger hingegen für eine andere Perspektive. Tatsächlich sei es eine komplexe Aufgabe, effizientere Ansätze im wirtschaftlichen Alltag zu verankern. Es sei auch aus unternehmerischer Sicht nachvollziehbar, dass viele Firmen bei hohen Vorinvestitionen abwarten. Doch sei es Altenburgers Ambition, „die Latte hochzuhalten“.

Die IT-Industrie hätte etwa zu lange „ihre Server nicht standardmäßig mit Wärmetauschern auf den CPUs und heute GPUs ausgerüstet“. Ein Umdenken finde erst jetzt statt, das Effizienzpotenzial wassergekühlter Wärmetauscher in Kombination mit dem sinnvollen Einsatz von Abwärme sei aber weiterhin enorm. „Wir sind da [noch] am Anfang“.

Modular optimieren – ein unternehmerischer Balance-Akt

Ein weiterer Hebel für bessere PUE-Werte auch für Bestandsrechenzentren sei laut Altenburger mehr Modularität bei Modernisierungsmaßnahmen. Auch diese hätte einen zusätzlichen Preis. Doch mit modularen Erweiterungen, etwa mit nach Bedarf zuschaltbaren USV-Anlagen, könnten Unternehmer sich Leistungskapazitäten offenhalten, ohne ihre PUE-Werte wegen Überdimensionierung zu gefährden. Gleiches gelte für die Kälteerzeugung.

Dem widerspricht auch Sauerzapf nicht, verweist aber aufgrund seiner Erfahrung mit Enterprise-Rechenzentren auf den schwierigen Balance-Akt für Verantwortliche, langfristige bauliche Lebenszyklen und kurzfristige Technologiesprünge unter einen Hut zu bringen und dann noch Investoren einen attraktiven Business Case vorzulegen. Dies gelte insbesondere gegenüber Chefetagen, die teils „weder Technologie- noch IT-affin“ seien.

Der KI-Hunger wird kurzfristig deutlich zunehmen

Trotz dramatischen Effizienzsteigerungen und verfügbaren Kapazitäten würde mit dem andauernden KI-Boom der Hardwarehunger vieler Rechenzentren kurzfristig weiter zunehmen, so die Expertenrunde übereinstimmend. In Altenburgers Formulierung sei die aktuell stark nachgefragte KI-Hardware wie die Nvidia-GPUs eine „Cash Cow und die wird solange betrieben, bis irgendein Konkurrent mit einem Durchbruch deutlich effizienter sein wird“. Gerade photonische Chips böten mittelfristig ein solches Effizienzpotenzial.

Kurzfristigeres Potenzial für Effizienzsteigerungen habe laut Sauerzapf das chinesische Large Language Model „DeepSeek“ gezeigt. Auch die französischen Open Source-Modelle „Mistral“ seien, so Terrahe, ähnlich vielversprechend. Microsoft hätte kürzlich seine geplante Datacenter-Expansion gebremst, gerade weil es solche Effizienzpotenziale erkannt habe.

Viele deutsche Unternehmen demgegenüber seien laut Sauerzapf im KI-Boom „komplett ziellos“ vorgegangen, so dass sie dann „einen wahnsinnigen Datenmüll hatten, nicht richtig viel damit anfangen konnten und quasi ‚from scratch‘ das Ganze jetzt neu aufsatteln müssen“. Auch Terrahe betont, viele Beratungskunden würden besonders große Rechenlasten für KI-Aufgaben anfragen, hätten aber auf die Rückfrage nach ihrer IT-Strategie „keine Antwort“. Es entstünden durch ungeschickte Planungen für KI-Lasten so teils zehnfache Überdimensionierungen und somit katastrophale PUE-Werte.

Langfristig würde die Energienachfrage in Deutschland dennoch zwar mit zunehmender Digitalisierung weiter steigen, allerdings ausbalanciert durch eine ebenfalls zunehmende IT-Effizienz. Mit Beispielen aus den Bereichen des autonomen Fahrens und IT/OT Convergence stimmten auch Altenburger und Sauerzapf vorbehaltlos zu. Dieser optimistische Konsens der Expertenrunde kontrastierte so deutlich mit den divergierenden Einschätzungen dazu, wie denn auch Rechenzentren effizienter werden können.

(ID:50367993)