Redundanz ist unnötig Wie der Klimawandel Serverdesign und Datacenter-Ausstattung beeinflusst

Von Chris Demers*

Anbieter zum Thema

Mit zunehmendem Bewusstsein für den Klimawandel achten die Betreiber von Rechenzentren mehr und mehr auf die Umweltauswirkungen ihrer Anlagen. Dies führt zum Einsatz effizienterer Hardware und Kühltechnik sowie neuen Designansätzen, um Energieverbrauch und Elektroschrott zu reduzieren.

Die Stromherkunft eines Rechenzentrums hat mehr Einfluss auf den CO2-Fußabdruck als jede andere Entscheidung, die der Betreiber treffen kann.
Die Stromherkunft eines Rechenzentrums hat mehr Einfluss auf den CO2-Fußabdruck als jede andere Entscheidung, die der Betreiber treffen kann.
(Bild: ©Studio-FI - stock.adobe.com)

Grüne Rechenzentren sollen den Energieverbrauch und die Umweltbelastung minimieren. Sie sind so konzipiert, dass sie weniger Strom verbrauchen und erhebliche Kosteneinsparungen gegenüber Rechenzentren im herkömmlichen Design bieten. Grüne Rechenzentren verursachen auch weniger Elektroschrott und tragen so zu einer saubereren Umwelt bei. Sie helfen Unternehmen, Kosten zu senken und gleichzeitig etwas Gutes für die Gesellschaft zu tun.

Total Cost of Ownership (TCO) ist eine Kennzahl, die sowohl die Kapitalkosten als auch die Betriebskosten (CAPEX/OPEX) bewertet. Die Betreiber von Rechenzentren verwenden diesen Wert häufig, um den Erfolg und die Effektivität ihrer Anlage zu bewerten.

TCO lässt jedoch einen wichtigen Vorteil außer Acht, den grüne Rechenzentren bieten: Es fehlt die Komponente der zusätzlichen Auswirkung auf die Umwelt. Der TCE-Wert (Total Cost to the Environment) beinhaltet hingegen Faktoren wie Stromverbrauch und Elektroschrott. Leiter von Rechenzentren sollten daher diese Größe in ihre Strategie aufnehmen, um den Erfolg von Rechenzentren zu messen.

Saubere Energie für Rechenzentren

In fast allen Fällen können Rechenzentren saubere, erneuerbare Energie nutzen und gleichzeitig die Kosten senken. Die Stromherkunft eines Rechenzentrums hat mehr Einfluss auf den CO2-Fußabdruck des Rechenzentrumsbetreibers, also des Dienstanbieters, der das Rechenzentrum nutzt – und auf die Hersteller, die Server im Rechenzentrum installieren – als jede andere Entscheidung, die der Betreiber treffen kann. In der Regel entscheidet ein Rechenzentrumsbetreiber über die Stromherkunft für alle Nutzer seiner Einrichtung.

Heute ist Netzparität erreicht, das heißt: Saubere, erneuerbare Energiequellen wie Wind- und Solarenergie lassen sich genauso günstig installieren oder beziehen wie nicht erneuerbare Quellen. Die meisten Energieversorger bieten gewerblichen Kunden an, saubere Energie als Ersatz für fossile Brennstoffe zu beziehen.

Die dezentrale Erzeugung erneuerbarer Energie, die im Besitz von Rechenzentren ist oder von diesen kontrolliert wird, gilt als optimal. Aber die erneuerbaren Energiequellen vor Ort erfüllen nicht immer den Energiebedarf von Rechenzentren. Hier kann saubere Netzenergie dies ergänzen.

Außerdem gibt es immer effektivere Energiespeicher für den Einsatz vor Ort, deren Kosten mit verbesserten und skalierten Batterietechniken immer weiter sinken. Alle Betreiber von Rechenzentren können die Beschaffung sauberer Energie zu einer grundlegenden Überlegung machen, um ihren CO2-Fußabdruck und ihre Kosten zu reduzieren.

Verringerung des Stromverbrauchs

Die effektivste Möglichkeit, den Stromverbrauch eines Rechenzentrums zu senken, besteht darin, den Kühlbedarf der Server zu verringern. Sie erzeugen viel Wärme und verlieren an Leistung oder fallen aus, wenn sie überhitzen. Um sicherzustellen, dass die Server weiterhin wie vorgesehen arbeiten, müssen Server-Racks und Rechenzentren so konzipiert sein, dass diese Wärme effektiv von den Servern abgeführt wird.

Der Supermicro EMEA Operations Park im niederländischen 's-Hertogenbosch.
Der Supermicro EMEA Operations Park im niederländischen 's-Hertogenbosch.
(Bild: Supermicro)

Das Anpassen des Aufbaus und der Platzierung von Server-Racks kann enormen Einfluss auf die Belüftung und Kühlung der einzelnen Server haben. Durch die Anordnung der Racks nebeneinander und die Unterteilung des Raums in „kalte“ und „warme“ Gänge, können Kühlsysteme effizienter arbeiten. Durch das Umschließen der einzelnen Gänge lässt sich die Wärme-Abfuhr und Kaltluftzufuhr dorthin leiten, wo sie am dringendsten benötigt wird.

Die Optimierung der zugehörigen HLK-Systeme (HLK = Heizung, Lüftung, Klimatechnik) und des Luftstroms senkt die Energiekosten, die zur Kühlung des Rechenzentrums erforderlich sind. Darüber hinaus ermöglicht der priorisierte Betrieb den Unternehmen, Server näher an den maximalen Betriebstemperaturen zu betreiben, was den Kühlbedarf und die Kosten noch weiter reduziert.

Andere Ansätze, um die Energiekosten für die Kühlung zu senken, umfassen den Einsatz größerer Lüfter, die von verschiedenen Servern gemeinsam genutzt werden. Mechanische Lüfter befinden sich normalerweise an der Rückseite der Server und entziehen die warme Luft über der Elektronik. Die meisten Rackmount-Server enthalten zu diesem Zweck jedoch eigene Einzel- oder Doppellüfter.

Diese Redundanz verbraucht unnötig Strom. Heute zeichnet sich eine Zusammenlegung von Serverkomponenten ab, um mehr als einen Rechner zu bedienen. Dies erhöht die Effizienz unterstützender Hardware wie Lüfter.

Umfassende Serviceverträge, ohne den Stromverbrauch zu erhöhen

Die weltweite Pandemie zwingt Unternehmen dazu, die digitale Transformation in Angriff zu nehmen. Moderne Unternehmen und IT-Organisationen erweitern den Zugang der Mitarbeiter auf neue Softwaredienste und Datenplattformen, um die täglichen Arbeitsabläufe aufrechtzuerhalten. Diese zunehmende Nutzung von Rechenleistung führt zu einer höheren Nachfrage nach Rechenzentren, um die Infrastruktur für die „digitale Belegschaft“ zu unterstützen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Diese Nachfrage führt zu mehr Serviceverträgen (SLAs; Service Level Agreements) zwischen Betreibern von Rechenzentren und Dienstanbietern und deren Kunden. Dies treibt die Infrastrukturkapazität in die Höhe.

Da Unternehmen immer mehr Rechenleistung benötigen, müssen Rechenzentren mehr und bessere Server installieren, um die erforderliche Rechenleistung bereitzustellen. Leistungsstärkere Server erhöhen den Energieverbrauch in Rechenzentren. Daher ist eine sorgfältige Planung beim Aufrüsten von Komponenten und Technik von entscheidender Bedeutung.

Notwendige Upgrades und Elektroschrott im Einklang

Kosteneinsparungen und Umweltbedenken hinsichtlich Elektroschrott erhöhen das Interesse an modularen Serverarchitekturen. Diese sind so konzipiert, dass jede einzelne Komponente eines Servers – CPU, GPU, Speicher, Schnittstellen, Stromversorgung, Netzwerkausrüstung oder Massenspeicher – einfach abgetrennt und ausgetauscht werden kann, ohne die anderen Komponenten zu beeinträchtigen.

Dadurch können Betreiber und Anbieter von Rechenzentren auf einfache Weise bestimmte Teile ihrer Server austauschen, sobald sie eine schlechte Leistungsfähigkeit aufweisen, ohne dass die Server oder das gesamte Rack ersetzt werden müssen.

Chris Demers, Supermicro.
Chris Demers, Supermicro.
(Bild: Fotility aka Jerry Roxas Photography)

Schnellere und Energie-effizientere Komponenten lassen sich damit problemlos auswechseln. Die Änderung der Upgrade-Zyklen auf diese Weise senkt die Kosten und den anfallenden Elektroschrott. Wir gehen davon aus, dass Serverdesigns immer stärker modularisiert werden, um die Produktivität zu steigern und die Auswirkungen auf die Umwelt zu verringern.

* * Der Autor Chris Demers ist Sustainability Manager bei Supermicro.

(ID:47395697)