Ulrich Terrahe: „Die Bundesregierung baut ein neues Bürokratiemonster auf.“ Das EnEfG aus Datacenter-Planer-Perspektive

Von Technischer Redakteur M.A. Harald Lutz Lesedauer: 8 min |

Anbieter zum Thema

Die Schlacht ist geschlagen. Nach großen Aufregungen und vielem Hin- und Her wird nach der Sommerpause wohl endlich das hart umkämpfte Energie-Effizienzesetz (EnEfG) vom Deutschen Bundestag verabschiedet werden. Mit größeren Änderungen gegenüber dem aktuellen Stand ist nicht mehr zu rechnen.

Spätestens mit dem Energie-Effizienzgesetz müssen sich Rechenzentrumsplaner nicht nur damit auseinandersetzen, wie viel Strom zu welcher Verfügbarkeit ins Rechenzentrum gelangt und dort verteilt wird, Hotspots ausschließen und für Kühlung, für Brandschutz und Sicherheitsmecahnismen sorgen, sie müssen auch die Vorgaben bezüglich der Nachnutzung von Abwärme und der Energie-Effizienz umsetzen.
Spätestens mit dem Energie-Effizienzgesetz müssen sich Rechenzentrumsplaner nicht nur damit auseinandersetzen, wie viel Strom zu welcher Verfügbarkeit ins Rechenzentrum gelangt und dort verteilt wird, Hotspots ausschließen und für Kühlung, für Brandschutz und Sicherheitsmecahnismen sorgen, sie müssen auch die Vorgaben bezüglich der Nachnutzung von Abwärme und der Energie-Effizienz umsetzen.
(Bild: Fabian - stock.adobe.com)

Auffällig an der zurückliegenden Debatte: Während Branchen- und Umweltverbände sich nahezu im wöchentlichen Rhythmus mit aktuellen Wasserstandsmeldungen ins Spiel brachten, war die Stimme der Rechenzentrumsplaner zu diesem wegweisenden Klimaschutzgesetz kaum zu vernehmen. Im Auftrag von Datacenter-Insider fragte Harald Lutz beim Geschäftsführer der DC-CE-Rechenzentrumsberatung und langjährigen Initiator des in der Branche wohl bekannten ehemaligen „Future-Thinking“-Kongresses, Ulrich Terrahe, nach.

Branchen- und Lobbyverbände wie Bitkom, GDA und Eco prognostizierten im Zuge des ‚geleakten‘ ersten öffentlichen Entwurfs für ein EnEfG kaum Geringeres als den Untergang des Datacenter-Standortes Deutschland und haben entsprechend intensiv reagiert. Umweltverbände wie das Umweltinstitut München zeigen sich aufgrund der mittlerweile vollzogenen „Weichspülung“ des ursprünglich ambitionierten Klimaschutzvorhabens vom aktuellen Stand doch eher ernüchtert.

Neben dem Verband innovativer Rechenzentren (VIRZ e.V.) haben sich vor allem auch die Rechenzentrumsplaner offenbar weitgehend aus der öffentlichen Debatte herausgehalten oder zumindest nicht dagegen polemisiert. Trügt dieser Anschein?

Ulrich Terrahe: „Ein PUE-Wert von 1,3 liest sich auf dem Papier unproblematisch; das Schwierige ist jedoch, diesen Normwert auch im realen Praxisbetrieb zu erzielen. Das funktioniert nur, wenn die installierte IT-Leistung tatsächlich annähernd erreicht wird.“
Ulrich Terrahe: „Ein PUE-Wert von 1,3 liest sich auf dem Papier unproblematisch; das Schwierige ist jedoch, diesen Normwert auch im realen Praxisbetrieb zu erzielen. Das funktioniert nur, wenn die installierte IT-Leistung tatsächlich annähernd erreicht wird.“
(Bild: DC-CE-Rechenzentrumsberatung GmbH & Co. KG)

Ulrich Terrahe: So ganz stimmt ihr Eindruck nicht. Unsere Büros sind hier von mehreren beteiligten Parteien angesprochen worden und haben Aussagen zu den entsprechenden Ausformulierungen des EnEfG gemacht. Auch andere Planungsbüros und Branchenexperten wie Dr. Hintemann sind vom Bundeswirtschafts- und Klimaschutzministerium zu ihren Einschätzungen befragt worden.

Ein Teil des Gesetzes mit Vor-gaben zu Energie-Effizienz, Best Practices usw. ist bereits in die Norm EN 50600 eingeflossen. Von daher kann man wirklich nicht sagen, dass die fachliche Perspektive im Gesetz nicht berücksichtigt wurde.

Die lautstarken Lobby-Verbände der Datacenter-Betreiber versuchen natürlich, so viel für sich herauszuholen beziehungsweise so wenige Auflagen zu bekommen wie möglich. Das ist in der Marktwirtschaft soweit auch legitim.

Natürlich haben auch wir als Rechenzentrumsplaner unsere Organisationen wie den Verband beratender Ingenieure (VBI) und den VDI, die sich zu gesetzgeberischen Vorhaben äußern. Grundsätzlich stehen wir aber zwischen den Fronten.

Was in Berlin verabschiedet wird, müssen wir als Planer und Ingenieure dann hinterher umsetzen. Daher nehmen wir in dem von Ihnen skizzierten Spannungsfeld eine mehr oder weniger neutrale Position ein. Das mag der Grund dafür sein, dass wir in diesem Diskussionsprozess nur wenig wahrgenommen wurden.

Zentrale Klimaziele wurden gegenüber den ursprünglichen Entwürfen abgeschwächt oder ganz herausgenommen. Wie bewerten Sie den zurückliegenden Gesetzgebungsprozess mit seinen zwischenzeitlichen Wendungen?

Ulrich Terrahe: In der Praxis lässt sich vieles von dem, was im ersten Anlauf noch formuliert wurde, gar nicht umsetzen. Wir haben in die Entwürfe hineingeschaut und nachgefragt: Wie soll das denn überhaupt funktionieren? Jüngste Änderungen sind also auch darauf zurückzuführen, dass Fachplaner und Ingenieure sich eingemischt und die praxiskonforme Umsetzbarkeit der Vorgaben im EnEfG eingefordert haben.

Ich denke, alles in allem ist der Gesetzgebungsprozess in normalen Bahnen mit dem typischen Muster von Reaktion, Gegenreaktion und Kompromiss verlaufen. Von großer Verwässerung kann man aus unserer Sicht nicht sprechen.

Zunächst wurden vom Ministerium gefühlte Maximalforderungen vorgeschlagen, die in vielen Dingen noch nicht mit der praktischen Umsetzung und Realität konform gingen. Das hat für große Aufregung in der Branche und zu heftiger Gegenwehr der Verbände geführt. Aus dieser Gegenreaktion hat der Gesetzgeber nun sowohl berechtigte Forderungen als auch einige pure Abwehrhaltungen der Lobby-Verbände aufgenommen und nachjustiert. Ein typischer demokratischer Prozess eben.

Umweltverbände sprechen davon, dass vom ursprünglichen ambitionierten Vorhaben nur noch eine Hülle übriggeblieben sei: Lediglich die ganz Großen, weniger als ein Prozent der deutschen Datacenter, würden zu Energie-Einsparungen in die Pflicht genommen. Was bringt so ein Gesetz, wie es nun vorliegt, überhaupt noch?

Ulrich Terrahe: Das Gesetz ist im Laufe des Verfahrens abgeschwächt worden und manche wünschenswerten Klimaziele werden damit noch nicht erreicht. Es wurden aber auch richtungsweisende Kompromisse gefunden, die einen gangbaren Weg aufzeigen.

Es stimmt aber definitiv nicht, dass – wie hier und da zu lesen ist – nur noch die ganz großen Datacenter beim neuen EnEfG überhaupt gefordert werden. Bereits Kleinstrechenzentren mit einer Anschlussleistung der Informationstechnik ab 50 Kilowatt müssen zukünftig jährlich ihre Daten an eine Behörde übermitteln.

Damit wurde für die aller-meisten Rechenzentren die Grundlage geschaffen, sich ernsthaft mit dem Thema Energie-Effizienz auseinanderzusetzen. Kritisch anzumerken bleibt aber die derzeit noch offene Frage: Wer soll denn diese Daten überhaupt interpretieren und aufarbeiten? Die Bundesregierung baut damit wieder ein neues Bürokratiemonster auf, und Unternehmen müssen eine Lösung finden, wie sie diesen Anforderungen gerecht werden können.

Welche eventuell branchen- und praxisfremden Zumutungen und Regularien haben Sie neben der zunehmenden Bürokratisierung am meisten gestört?

Ulrich Terrahe: Mit der IT haben wir eine dynamische, sich ständig weiter entwickelnde Technologie aus verschiedenen Komponenten. Das Gesetz tut nun so, als ob der Stand der Technik für alle Zeiten in Stein gemeißelt wäre. Das ist meiner Meinung nach ein falscher Ansatz. Wir müssen gemeinsam mit der IT-Industrie unter Energie-effizienten Gesichtspunkten, die Rahmenbedingungen festlegen. Denn der größere Hebel der Energie-Einsparung liegt in der optimalen Betriebsweise der IT-Technik.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Ist beispielsweise ein Server-Raum mit Quantencomputern kein Rechenzentrum mehr? Diese zukunftsträchtige Technologie arbeitet mit Tiefsttemperaturen von > minus 200 Grad. Daraus folgt, dass das mit Sicherheit zukünftig auch im Datacenter-Umfeld vermehrt zum Einsatz kommende Quantencomputing im EnEfG noch gar nicht berücksichtigt wurde.

Ein Gesetz versucht halt immer, die aktuellen, teilweise zurückliegenden Mängel zu regulieren und die komplexe Realität etwas zu vereinfachen. Es gibt aber mittlerweile so vielfältige technische Lösungen und clevere Weiterentwicklungen, dass ein solches Vorgehen nahezu unmöglich macht.

Den Wert der Abwärme realisieren

Am heftig diskutierten Punkt einer verpflichtenden Abwärme-Abgabe wurde das Gesetz um einiges entschärft. Jetzt ist es so, dass nur noch nachgewiesen werden muss, dass die Abwärme angeboten wurde und dass es überhaupt möglich ist, sie am Standort aufzunehmen.

Ulrich Terrahe: Fakt ist, dass die IT-Hardware in den Datacenter eine hohe Abwärme erzeugt. Diese Energie muss nicht sinnlos in die Luft geblasen werden, wie heute noch weitgehend üblich, und könnte stattdessen auch für andere, sinnvolle Zwecke gut verwendet werden. Ich bin daher ein großer Freund davon, die Rechenzentrumsbetreiber dazu zu bewegen, stärker über die Weiternutzung der Abwärme nachzudenken.

Zukünftig muss bereits bei der Planung und Bau neuer Datacenter ein Hauptaugenmerk auf die Abgabe und Weiternutzung der Abwärme gelegt werden. Das sollte auch im ureigenen Geschäftsinteresse der Branche liegen, da diese Energie auch einen Wert besitzt. Und dieser Wert wird sich bei Einsatz von wassergekühlten Servern mit einem Abwärmeniveau von 50 bis 60 Grad erhöhen und sich so zu einem lukrativen Produkt entwickeln.

Ist es nicht ein Armutszeugnis, dass das mit dem Projekt „Peer DC“ angestoßene öffentliche Energie-Effizienzregister und die damit mögliche Vergleichbarkeit einzelner Datacenter und Betreiber geopfert wurden?

Ulrich Terrahe: Die entscheidenden Punkte sind auch hier: Die Datacenter-Betreiber befinden sich als Wirtschaftsunternehmen im Wettbewerb, und es gibt einen Datenschutz. In die Entwicklung eines hochmodernen, effizienten Datacenter muss viel Geld investiert werden.

Wenn alle Daten und Pläne anschließend für die Öffentlichkeit völlig transparent zur Verfügung stünden, wäre die geleistete Forschungsarbeit sofort kopierbar. Wo sind hier die Grenzen zu ziehen?

Ich gehe fest davon aus, dass die nun von einer Behörde eingesammelten Daten guten zusätzlichen Aufschluss geben werden – nur eben neutralisiert. Es werden deutliche Tendenzen und Effizienzeigenschaften abzuleiten sein, die ineffiziente Rechenzentren unter Druck setzen. Die Datacenter-Kunden werden ihrer Schlüsse daraus ziehen können. Aber ja, aus dem Register heraus können keine Rechenzentren mehr unmittelbar miteinander verglichen werden.

Last, but not least sind auf den letzten Drücker durchaus anspruchsvolle PUE-Ziele sowohl für neue Datacenter als auch für Bestandsrechenzentren verankert worden, die zumindest mittelfristig die Co-Location-Branche zu größeren Investitionen in neue Technik, insbesondere in der Kühlung, bewegen werden. Ab 01.07.2026 sollen neue Rechenzentren ab einer Nennanschlussleistung von 300 kW einen PUE-Wert von kleiner gleich 1,5 Energieverbrauchseffektivität einhalten [Stand Juli 2023], ab 2030 kleiner oder gleich 1,3 . Ab 2030 wird auch für die Bestandsrechenzentren die Messlatte auf 1,3 hochgelegt.

Erwarten Sie für Ihre Zunft daher schon das große Geschäft mit Umbauten und auch Neubauten, die in der Lage sind, diese Werte auch einzuhalten?

Ulrich Terrahe: Bei diesen neuen Zielvorgaben des Gesetzes sind auch die Ingenieurbüros intensiv mit einbezogen worden. Der Hauptunterschied zu früheren Entwürfen besteht darin, dass ein planerischer Ansatz einen effektiven Ansatz ersetzt. Das heißt: Jetzt müssen sich die Datacenter-Betreiber in der Tat intensiv mit der IT-Auslastung ihres Rechenzentrums auseinandersetzen, weil sie garantieren müssen, diese Zielvorgaben auch wirklich zu erreichen.

Ein PUE-Wert von 1,3 liest sich auf dem Papier unproblematisch; das Schwierige ist jedoch, diesen Normwert auch im realen Praxisbetrieb zu erzielen. Das funktioniert nur, wenn die installierte IT-Leistung tatsächlich annähernd erreicht wird. Im Schwachlastbetrieb sind häufig die Wirkungsgradverluste in der Elektroversorgung so unverhältnismäßig hoch, dass die gewünschten PUE-Werte unerreichbar sind.

Neben einer perfekten Klimatisierung muss also auch die Stromversorgung auf die genauen Anforderungen angepasst werden. Des Weiteren gehört dazu die Konformität mit gesetzlichen Anforderungen wir die F-Gas Vorordnung, PFAS, BimSchV etc.

Damit werden für viele Datacenter in der Tat prinzipiell jede Menge Anpassungen notwendig, die richtig Geld kosten werden. Als Planungsbüro sehen wir natürlich durchaus Chancen, hierüber auch an Aufträge zu kommen. Die neuen Vorgaben des EnEfG bedeuten aus unserer Sicht aber nicht zwingend, auf Wasserkühlung umsteigen zu müssen. Wer über ein modern gekühltes Rechenzentrum verfügt, das bereits mit Kreuz-, Rotationswärmetauschertechnik oder direkter freier Kühlung ausgestattet ist, wer höhere Raumtemperaturen (27-30°C) zulässt, erreicht schon heute die geforderten Werte.

Auch klassische Kühlsysteme, die optimal einreguliert sind und auf dynamischen Änderungen der IT-Last reagieren können, schaffen einen PUE-Wert von unter 1,3 im Jahresmittel. Aber hier stehen wir vor einem Paradigmenwechsel. Alle diese Lösungen sind auf Energie-Effizienz getrimmt und nicht auf Wärmerückgewinnung.

Sollen diese Systeme mit Wärmerückgewinnungsfunktionen ausgestattet werden, müssen wir teilweise einen schlechteren PUE akzeptieren. Dies muss natürlich dann auch in die Diskussion mit dem Gesetzgeber.

Für ältere Bestandsrechenzentren, die klassisch mit Kältemaschine und zwei oder mehr Wärmetauscherschritten in der Kühlung arbeiten, wird es in der Tat ab 2030 enorm schwer werden, die angelegte Messlatte noch zu überspringen – insbesondere dann, wenn auch die Auslastung zu wünschen übrig lässt. Und das sind meines Erachtens die Mehrzahl der aktuell betriebenen Rechenzentren. Auf jeden Fall lohnt es sich, bei mindestens fünf Jahre alten Bestandsrechenzentren, zügig zu prüfen, ob sich die mit dem verabschiedeten neuen EnEfG absehbar eingeforderten Werte noch erreichen lassen.

Artikelfiles und Artikellinks

(ID:49674270)