Zukunftsthema Energie-Management in Rechenzentren

Die Energiespar-Stellschrauben für Rechenzentren - von USV bis sektorübergreifendenr Weitergabe

| Autor / Redakteur: Astrid Hennevogl-Kaulhausen* / Ulrike Ostler

Viele der Techniken, die ein Energiesparen beziehungsweise sinnvolle Verwendung im Rechenzentrum ermöglichen, gibt es schon. Doch welche Stellschraube sollen ist die richtige? Oder müssen alle zum Einstz kommen?
Viele der Techniken, die ein Energiesparen beziehungsweise sinnvolle Verwendung im Rechenzentrum ermöglichen, gibt es schon. Doch welche Stellschraube sollen ist die richtige? Oder müssen alle zum Einstz kommen? (Bild: achim0164 auf Pixabay)

Die Datacenter-Betreiber sind gefordert, mit dem stetigen Datenwachstum mitzuhalten und gleichzeitig den eigenen Stromverbrauch in den Griff zu bekommen. Astrid Hennevogl-Kaulhausen, Head of Sales Germany bei Eaton, zuständig für USV-Anlagen und Datacenter, sowie Expertin für den effizienten Betrieb von Rechenzentren, zeigt Themen auf, die in diesem Spannungsfeld besonders wichtig werden.

Das Datenwachstum wird Prognosen zufolge in den nächsten Jahren ungebremst weitergehen und sich sogar noch stark steigern. 2018 lag das globale Aufkommen bei 33 Zettabyte (ZB) und 2025 könnte es bereits 175 ZB erreichen, was etwa einer Verfünffachung binnen sieben Jahren entspricht.

Das allein bedeutet schon enorme Herausforderungen für die Betreiber von Rechenzentren. Gleichzeitig sind sie aber auch durch die Energiewende gefordert. In diesem Zuge wird einerseits die Energie-Erzeugung unstetiger, andererseits hinterfragen Verbraucher zunehmend ihren ökologischen Fußabdruck, wozu auch der Energieverbrauch durch die Internet-Nutzung gehört.

Transformation des Stromnetzes

Die EU plant bis zum Jahr 2030, den Anteil an erneuerbaren Energien auf 32 Prozent zu erhöhen. Dies entspricht zwar nicht den Erwartungen vieler Umweltgruppen, zwingt Unternehmen und Anlagenbetreiber jedoch dazu, sich verstärkt mit der Energiewende zu beschäftigen. Der geplante Anstieg erneuerbarer Energien bringt potenzielle Instabilität und neue Herausforderungen mit sich, denen Netzbetreiber entgegentreten müssen.

Netzspannung und -frequenz müssen innerhalb der zulässigen Grenzen gehalten werden. Zusatzdienste könnten hier die erforderliche Stabilität bieten, um den zunehmenden Anteil an erneuerbaren Energien zu bewältigen. Für Rechenzentrumsbetreiber sind daher zwei Aspekte entscheidend: Der Einsatz erneuerbarer Energien könnte das Netz weniger stabil machen und damit die Wahrscheinlichkeit von Ausfällen erhöhen.

Die in großen Rechenzentren gespeicherte Energie könnte für die Bereitstellung dieser Zusatzdienste genutzt werden. Dadurch entsteht eine neue Einnahmequelle und das Risiko für die Primärversorgung wird verringert. Die Energiewende wird also dafür sorgen, dass Rechenzentrumsbetreiber ihre Elektro-Infrastruktur überdenken und möglicherweise in ein Stromnetzwerk mit neuen Funktionen umwandeln werden.

Zunehmende Verlagerung in die Cloud

Viele Anwendungen entstehen und laufen ausschließlich in der Cloud. Entsprechend sind Rechenzentren, die diese Anwendungen hosten, der richtige Ort für Unternehmen, die aus Effizienzgründen planen, in Public oder Private Cloud-Umgebungen zu migrieren.

Neben den Hyperscale-Rechenzentren wächst auch der Sektor der Multi-Tenant-Rechenzentren. Im Jahr 2020 wird sich das Wachstum in beiden Sektoren mit zunehmender Geschwindigkeit fortsetzen, da immer mehr Unternehmen zu „Off-Site“-Strategien tendieren und immer mehr neue Geschäftsmodelle und Prozesse die Effizienz der Cloud nutzen.

Es gibt aber noch einen dritten Rechenzentrumssektor, den nationalen Multi-Tenant-Betreiber, der von Art und Geschäftsmodell her eher lokal ausgerichtet ist. Er bietet lokalen Kunden die Vorteile von Off-Site-Strategien. Gleichzeitig bietet er den IT-Fachleuten im Unternehmen einen umfassenden und erleichterten Zugang, um Arbeiten, Upgrades und den Betrieb im Rechenzentrum durchzuführen.

Ergänzendes zum Thema
 
Zusammenfassung

Viele Unternehmen wollen zudem die Vorteile von Cloud- und kommerziellen Rechenzentren nutzen, aber nicht die Kontrolle über die Anlagen und Daten verlieren. Diese nationalen Rechenzentren sind nicht vergleichbar mit den internationalen Playern unter den Rechenzentrumsbetreibern. Sie sind dennoch zahlreich, bieten einen grundsätzlichen Service und bilden einen wichtigen Teil unserer digitalen Landschaft.

Die digitale Transformation ist grenzenlos und kommt Organisationen jeder Größe zugute. Entsprechend steigt mit ihrem Fortschritt auch der Bedarf an internationalen und nationalen Rechenzentrumskapazitäten.

Mehr Verständnis in Sachen „Edge Computing“

In den vergangenen Jahren war das Thema immer wieder präsent, aber die Wissenslücken rund um die Funktionsweise sind nach wie vor groß. Häufig werden die Begriffe Edge Computing, Cloud Edge und Edge-Rechenzentrum gleichwertig beziehungsweise austauschbar eingesetzt – das ist jedoch nicht richtig.

Die Idee, dass es zunehmend eigenständige Mini-/Micro-Cloud-Rechenzentren auf Nachbarschaftsebene geben wird, entspricht nicht der Realität. Es gibt weiterhin Städte und ganze Länder, in denen es keine Hyperscale-Rechenzentren gibt, obwohl diese in ihren IT-Anforderungen genauso anspruchsvoll sind wie andere.

Edge-Computing führt andere Spielregeln ein; gewiss ist aber, dass Energieverfügbarkeit und Energiesparen immer weider neu justiert werden müssen.
Edge-Computing führt andere Spielregeln ein; gewiss ist aber, dass Energieverfügbarkeit und Energiesparen immer weider neu justiert werden müssen. (Bild: analogicus auf Pixabay)

Entscheidend ist der gut platzierte Einsatz von Co-Location-Rechenzentren, Festnetz- und mobilen Breitbandnetzen. Im Zuge von 5G ist die Telekommunikationsbranche hervorragend positioniert, um Edge Computing in ihre Netzwerke zu integrieren – entweder unabhängig oder mit Cloud/Datacenter-Partnern.

Einige IoT-Architekturen werden möglicherweise für die Datenverarbeitung oder -speicherung eine Verbindung zu einem Zentralrechner erfordern. Andere werden im Gegensatz dazu die Daten an der Quelle erzeugen und verarbeiten. Letzteres begünstigt mehr Bandbreite und eine geringere Netzwerklatenz, was die aktuelle Rechenzentrums- und Telekommunikations-Netzwerkinfrastruktur bereits angemessen bewältigen kann.

5G-Implementierung ermöglicht geringere Latenzzeit und höhere Bandbreite

2020 werden die führenden Telekom-Energieversorger eine neue Energienetzstrategie für die breite Einführung von 5G entwickeln. Sobald dies abgeschlossen ist, wird die Energiestruktur sowohl für den Betreiber als auch das Land selbst grundlegend beeinflusst.

Der Ausgleich von Daten- und Energieverbrauch wird jedoch nicht nur für Betreiber, sondern auch zunehmend für die Verbraucher an Bedeutung gewinnen. Denn der Verbraucher von heute wünscht einen größeren digitalen Fußabdruck, will dabei gleichzeitig jedoch nachhaltig und umweltbewusst bleiben.

Das ideale Szenario ist, dass Rechenzentren und Telekommunikationsbetreiber ihre Elektro-Infrastruktur nutzen, um Netzbetreiber beim Angebot von mehr grüner Energie zu unterstützen. Solche Technologien, die das wachsende Energiebewußtsein unterstützen, gibt es schon; man muss nur den Willen aufbringen, sie in großem Maßstab einzusetzen.

Neue Möglichkeiten zur Kühlung von Rechenzentren

Mit zunehmender Rechenleistung der Rechner steigt auch die erzeugte Wärme. Für jedes verbrauchte Kilowatt an elektrischer Energie in einem Rechenzentrum wird ein weiteres benötigt, um die Geräte zu kühlen und ihre Betriebstemperatur zu halten.

Anstatt den gesamten Raum entweder mit mechanischer oder freier Luftkühlung zu kühlen, ist eine gezieltere, direkte Kühlung möglich. Dies wird durch Immersionskühlung gewährleistet, wobei der ganze Server in einen Tank mit wärme- aber nicht elektrisch leitender Flüssigkeit eingetaucht wird. Eine andere Möglichkeit ist die direkte Flüssigkühlung, bei der die Elektronik und der Kühlkörper auf dem Motherboard in einem Verteiler gekapselt werden und eine Flüssigkeit die Wärme abführt.

Weitere Rechenzentren mit On-Site-Erzeugung

Die Standortauswahl für ein Rechenzentrum ist eine komplexe Aufgabe. Ein wichtiger Parameter dabei ist die Verfügbarkeit von ausreichendem Netzstrom. Ein möglicher Standort mag noch so ideal sein – wenn Strom nicht in der benötigten Menge und Zeit zur Verfügung steht, ist das alles hinfällig. In Zukunft könnten die Betreiber die Erzeugung von Primärstrom vor Ort in Betracht ziehen.

Die Autorin des Artikels Astrid Hennevogel-Kaulhausen arbeitet bei Eaton und ist Head of Sales Germany UPS Systems und Datacenter sowie Expertin für den effizienten Betrieb von Rechenzentren.
Die Autorin des Artikels Astrid Hennevogel-Kaulhausen arbeitet bei Eaton und ist Head of Sales Germany UPS Systems und Datacenter sowie Expertin für den effizienten Betrieb von Rechenzentren. (Bild: Eaton)

Schließlich bieten eigene Mikronetze viele Vorteile: Betreiber sind nicht nur in der Lage den eigenen Energiebedarf zu decken, sondern können darüber hinaus Strom exportieren und die Anlage für weitere Netznebenleistungen nutzen. Diese Vor-Ort-Lösungen können von ergänzenden Photovoltaik-Paneelen bis hin zu großen Gas- oder Dieselturbinen reichen. Es muss jedoch zunächst gründlich eruiert werden, wie diese praktischen Erwägungen mit grünen Energiezielen in Einklang gebracht werden können.

Ergänzendes zum Thema
 
Über Eaton

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46329208 / Design und Umgebung)