IT-Sizing als Basis zur Rechenzentrumsplanung, Teil 3 Energie-Effizienz im Datacenter erfordert Recherche in der IT

Ein Gastbeitrag von Peter auf dem Graben*

Anbieter zum Thema

Jedes Kilowatt an Leistung, welche im Whitespace verplant wird, verursacht Mehrkosten von 4.000 bis 10.000 Euro. Das gehört zu den Beispielen, die der Autor Peter auf dem Graben, Berater bei der DC-CE RZ-Beratung GmbH & Co.KG. für eine durchdachte Rechenzentrumsplanung anbringt. Wer seine IT kennt, macht weniger und teure Fehler in der Planung und dem Bau von Rechenzentren.

IT und Rechenzentrumsplaner wie -betreiber wollen den Energiebedarf von Rechenzentren soweit wie möglich reduzieren. IT, Datacenter-betrieb, -gebäude und Facility greifen im Idealfall Hand in Hand.
IT und Rechenzentrumsplaner wie -betreiber wollen den Energiebedarf von Rechenzentren soweit wie möglich reduzieren. IT, Datacenter-betrieb, -gebäude und Facility greifen im Idealfall Hand in Hand.
(Bild: gemeinfrei / Pixabay)

Der Bedarf an leistungsstarker und effizienter Hardware wird immer größer. Die hohe Nachfrage wird geprägt durch den rasch steigenden Bedarf von Rechenleistung für Enterprise- und Cloud-Anwendungen, High-Performance-Computing (HPC), Big Data, KI, Automatisierung und IoT beispielsweise. Die Menge der zu bewegenden, zu verarbeitenden und auszuwertenden Daten wird zunehmend größer. Die Hersteller sind also aufgefordert, die steigenden Anforderungen zu bedienen.

Zugleich wird der Druck in der Digitalisierung immer stärker, um dem Klimawandel entgegenzuwirken und den wirtschaftlichen Interessen nachzukommen. Hier werden Hard- und Softwarehersteller gleichzeitig angesprochen, den Anteil an CO2-Emissionen zu reduzieren.

Auf der Seite der Hardware zeichnet sich eine deutlich zunehmende Leistungsverdichtung ab. Auf der anderen Seite steigt trotz der Effizienzsteigerung durch die zunehmende Nachfrage an zentraler Rechenleistung die Gesamtleistungsaufnahme in den Rechenzentren.

Pi mal Daumen

Bisher stellte das Mooresche Gesetz einen Leitfaden dar, der einen linearen Verlauf in der Leistungsverdichtung zeigt. Seit gut 50 Jahren hat sich eine Verdoppelung der Transistoren auf einer zweidimensionalen Fläche etwa alle zwei Jahre bestätigt. Da die Entwicklung nun die physikalischen Grenzen dieser Verdichtung erreicht hat, wechseln die Hersteller auf eine dreidimensionale Architektur im Chipaufbau.

Diese neue Technologie verspricht eine deutlich höhere und schnellere Verdichtung auf einem Chip. Gleichzeitig zeichnet sich, gemessen an der IT-Leistung, eine geringere Stromaufnahme ab. So benötigt ein Prozessorkern einer CPU oder eine SSD, gemessen an einer bestimmten Speicherkapazität, weniger Strom wie die Vorgängermodelle der alten Technologie.

Genau wie bei der Hardware steckt auch in den Softwareprodukten viel Potenzial zur Optimierung, um bei gleichem Funktionsumfang der darunterliegenden Hardware weniger Leistung abzuverlangen. Angefangen bei den Hypervisor- und Serverbetriebssystemen, die ohnehin einer ständigen Weiterentwicklung unterliegen, um zum Beispiel die Verwaltung von Systemressourcen oder Prozessabläufe zu optimieren und Funktionen zu zentralisieren, wird auch hier die Nachfrage nach mehr Effizienz größer.

Emma Collins, Product Manager for Observability and Power Management bei Intel, (links) und Kate Mulhall ,Senior Cloud Software Engineering Manager bei Intel, vergleichen den Energiebedarf unterschiedlicher Programmiersprachen.
Emma Collins, Product Manager for Observability and Power Management bei Intel, (links) und Kate Mulhall ,Senior Cloud Software Engineering Manager bei Intel, vergleichen den Energiebedarf unterschiedlicher Programmiersprachen.
(Bild: Ulrike Ostler/Vogel IT-Medeien GmbH)

Gleiches gilt für die Applikationen. Zu dem Thema, wie Software effizienter und ressourcenschonender betrieben werden kann, hat der Bitkom e. V. einen Leitfaden zur „Ressourcenschonenden Programmierung“ veröffentlicht.

Einige Ressourcen- und Energie-effiziente Produkte lassen sich an dem Siegel „Blauer Engel“ erkennen. Gerade bei Softwareprodukten sind optimierte Produkte ansonsten schwer erkennbar und oftmals ist ein Produktvergleich nicht möglich.

Nutzt man mit der Besiedelung des neuen Rechenzentrums die Möglichkeit und hat den Vorteil der Entscheidungsfreiheit zum Einsatz solch optimierter Produkte, trägt dies dazu bei, die Energieaufnahme und die Gesamtkosten (TCO) im Rechenzentrum zu reduzieren und somit die Effizienz des Rechenzentrums zu steigern.

Die Beobachtung und Recherche der Trends in der IT- und RZ-Branche allgemein und speziell die der Hard- und Softwareentwicklung helfen, neue Technologien zu erkennen und entsprechend den Möglichkeiten in die Konzepte einzubeziehen.

Was liefern die Roadmaps der Hardwarehersteller?

CPUs oder GPUs fallen beim IT-Sizing besonders ins Gewicht, da sie sozusagen zu den Hauptstromverbrauchern im Serversystem zählen. Bei den Chip-Herstellern vergeht viel Zeit von der Entwicklung solcher Produkte bis zur Verfügbarkeit auf dem Markt. Diese Zeit nutzen die Hersteller gerne, um ihre neuen Produkte anzukündigen. Nicht selten lassen sich relativ detaillierte Produktfahrpläne mit einem Vorlauf von zwei Jahren finden.

Die Grafik zeigt am Beispiel der CPU, wie die Energiedichte über die Jahre zunimmt.
Die Grafik zeigt am Beispiel der CPU, wie die Energiedichte über die Jahre zunimmt.
(Bild: Peter auf dem Graben/ DC-CE RZ-Beratung GmbH & Co.KG)

Insbesondere beim IT-Sizing für die Datacenter-Planung, ist der Blick auf die voraussichtlich verfügbaren IT- Systeme zum Zeitpunkt der Inbetriebnahme eines Rechenzentrums erforderlich. Mit den von den Herstellern angekündigten Produktinformationen werden oftmals Leistungsdaten genannt. Daher sind die Informationen, die Hersteller mit ihren Produktankündigungen veröffentlichen und mit welchen innovativen Technologien zu rechnen ist, enorm wichtig. Denn mitunter lassen sich geeignete Produkte finden, die sich einplanen lassen oder es bietet sich die Möglichkeit zur Einschätzung von Leistungsklassen anhand von Trends.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Nicht immer ist es möglich, in den Vorankündigungen Lösungsansätze komplett konfektionierter Systeme zu finden. Somit wird es zum Beispiel unmöglich sein, für eine in zwei Jahren angekündigte CPU ein komplett konfiguriertes Serversystem zu finden. Konzentriert man sich hierbei allerdings auf die Komponenten, die im Wesentlichen ein verantwortlicher Faktor für den Leistungs- und/oder Platzbedarf im Rechenzentrum sind oder sich durch ihre hohen benötigten Stückzahlen im RZ-Betrieb hervorheben, wie CPUs, SSDs und HDDs, lassen sich schon konkretere Annahmen treffen.

Auch die Preisentwicklung spielt bei der Planung eine große Rolle. Neuere Technik kann an einen Punkt ankommen sein, an dem sie auf den ersten Blick vielleicht einen etwas höheren Einkaufspreis haben, aber letztendlich deutlich wirtschaftlicher betrieben werden können und sich somit über die vorgesehene Betriebszeit im TCO wieder rechnen. Dies ist zurzeit derzeit beim Vergleich von HDD‘s und SSD‘s der Fall.

Gerade am Beispiel der Datenspeicher, die in recht großer Stückzahl im Rechenzentrum benötigt werden, lohnt sich eine genaue Betrachtungsweise, bei der die Roadmaps hilfreiche Unterstützung leisten können. So ist zu erkennen, dass beispielsweise die HDDs nach wie vor weiterentwickelt werden und somit in einigen Bereichen ihren Platz im Rechenzentrum behalten werden.

Einfluss von Leistungsverdichtung und Generationswechsel der Hardware im Rechenzentrum

Die Auswirkungen der Leistungsverdichtung bei einem IT-Generationswechsel lassen sich aus zwei Perspektiven betrachten. Bleiben die Applikationen, das Datenvolumen und die Anzahl der Nutzer, also die benötigte IT-Leistung, nahezu gleich, kann von einem reduzierten Strom- und Platzbedarf nach einer Modernisierung ausgegangen werden. Wird dies Anfangs mit eingeplant und das Rechenzentrum entsprechend modular aufgebaut, lassen sich somit Teile der Datacenter-Infrastruktur abschalten oder in anderer Form weiter nutzen.

Werden hingegen die frei gewordenen Kapazitäten zum Beispiel für Wachstum benötigt, lassen sich nun zusätzliche Systemressourcen einplanen und installieren.

Eine Leistungsverdichtung muss bei einem Generationswechsel nicht zwangsläufig auf eine geringere Stromaufnahme, etwa für einen Server, hinweisen. Es wäre durchaus wahrscheinlich, dass sich die IT-Leistung auf deutlich weniger, aber dafür leistungsstärkere Server konzentriert.

Dabei ist zu beachten, dass je nach Anwendungsfall und Aufbau die Leistungsaufnahme per Rack höher liegen könnte. Letztendlich bedeutet dies für das Rechenzentrum: Eine höhere IT-Leistung verteilt sich auf weniger Racks für IT-Equipment bei ähnlicher Gesamtstromaufnahme.

Dies sind lediglich Beispiele, um die Platz- und Leistungsverhältnisse bei einem solchen Umbau zu beschreiben. Welche Möglichkeiten zur Umsetzung sich im Detail tatsächlich anbieten, is individuell zu begutachten. Gerade mit Blick auf die Klimatisierung muss im Fall einer Leistungsverdichtung vermieden werden, dass sich „Hot Spots“ im Whitespace bilden!

Es gibt Vor- und Nachteile beider Varianten

Eine hohe Verdichtung hat in der Regel die Vorteile der besseren Systemauslastung und Effizienz. Weniger Systeme bedeuteten weniger Aufwand in der Administration und dem Management sowie letztendlich weniger Rechenzentrumsfläche. Modernste Hardware lässt sich, je nach Einsatzgebiet, gegebenefalls länger im Einsatz halten, da die Laufzeit für den Support bis zur Abkündigung einer Baureihe von Beginn an genutzt werden kann.

Auf der anderen Seite gibt es Nachteile. Die Rechenzentrumsinfrastruktur muss unter Umständen erst für bestimmte Voraussetzungen modifiziert werden, um die höher verdichteten Racks mit Energie zu versorgen beziehungsweise diese in Form von Wärme wieder abzuführen. Je höher die Leistungsdichte im Rack ist, desto präziser muss die Kühlung sein.

Je nach Verfügbarkeitslevel, Strategie und eingesetzter Technologie können die Serversysteme relativ ausfallsicher ausgelegt werden. Selbst dem Ausfall eines einzelnen oder sogar mehrerer Serversysteme aus einem Verbund (Cluster) wären keine User, Applikationen oder Services betroffen. Ansonsten wird mit zunehmender Leistungsdichte das Risiko größer, dass bei einem Ausfall eines einzelnen Host-Systems oder Racks gleich mehrere Applikationen und User davon betroffen wären. Hier ist erkennbar, dass die Redundanz- und Verfügbarkeitsanforderungen sowie die eingesetzten Technologien einen Einfluss auf die Anzahl der eingesetzten IT-Ressourcen und die Stromaufnahme nehmen.

Peter auf dem Graben: „Eine genaue Abstimmung zwischen der IT- und Datacenter-Infrastruktur ist zwingend zu beachten und muss erhalten bleiben.“
Peter auf dem Graben: „Eine genaue Abstimmung zwischen der IT- und Datacenter-Infrastruktur ist zwingend zu beachten und muss erhalten bleiben.“
(Bild: DC-CE RZ-Beratung GmbH & Co.KG)

Daher sollte eine wirtschaftliche Betrachtung gesamtheitlich erfolgen. Meist liegen die Anschaffungskosten eines leistungsstarken Systems deutlich höher, können sich auf der anderen Seite aber auch schnell wieder relativieren. Betrachtet man dabei aber in der Summe der Systeme die Anschaffungs- und Verbrauchskosten bis hin zur Administration und dem reduzierten Flächenbedarf, also die TCO, kann die Kalkulation für den Einsatz neuester Technologie sprechen.

Werden nun noch Technologien zur Abwärmenutzung im neuen Rechenzentrum berücksichtigt, die ohnehin zumindest in Teilen für Datacenter-Betreiber verpflichtend werden wird, bieten sich andere Lösungsansätze. In der Regel wird heutzutage Luft als Träger für die Abwärme aus dem Rechenzentrum eingesetzt. Beim Einsatz von leistungsstarken Serversystemen, die beispielsweise im Bereich von Cloud- oder High Performance-Computing eingesetzt werden, bietet sich ein Flüssigkeitskühlkonzept an.

Hierbei können relativ hohe Wassertemperaturen von bis zu 60 Grad für eine weitere Nutzung zur Verfügung gestellt werden. Steht ein konstanter Abnehmer zur Verfügung, ließen sich heute etwa 70 bis 80 Prozent der Wärmeenergie aus solchen Systemen im Rechenzentrum weiter nutzen.

Eine Effizienzsteigerung der Hardware zeichnet sich nicht nur bei Serversystemen ab. Gerade bei Storage-Systemen ist durch den Einsatz moderner SSDs und optimiertem Management mit deutlichem Einsparpotenzial zu rechnen.

Auch die Netzwerksysteme werden ständig optimiert, sodass Systeme und einzelne Ports leistungsstärker und im Verhältnis sparsamer im Energieverbrauch werden. Gerade im Bereich der Netzwerksysteme entsteht schnell der Eindruck, dass das Einsparpotenzial nicht so gravierend ins Gewicht fällt, wie bei den anderen beschrieben IT-Systemen. Im Hinblick auf die rasant steigenden Datenmengen, die übertragen werden müssen, sollten die Netzwerkkomponenten unter gleichem Aspekt berücksichtigt werden.

Ein  auf die Bedürfnisse des Betreibers angepasstes Rechenzentrum stellt den Idealfall in der Rechenzentrumsplanung dar.
Ein auf die Bedürfnisse des Betreibers angepasstes Rechenzentrum stellt den Idealfall in der Rechenzentrumsplanung dar.
(Bild: DE-CE RZ-Beratung GmbH & Co.KG)

Es bleibt festzuhalten, dass ein speziell auf die Bedürfnisse des Betreibers angepasstes Rechenzentrum den Idealfall der Rechenzentrumsplanung darstellt. Dies lässt sich erreichen, indem die Anforderungen mit den Strategien definiert werden und der IT-Bedarf schon in der Phase der Konzeptionierung analysiert und bestimmt wird. Somit lassen sich die Ergebnisse in die weiteren Schritte der RZ-Planungs- und Bauphasen einbinden.

Die im IT-Sizing eingesetzten Methoden helfen:

  • den Flächenbedarf für das neue Rechenzentrum zu optimieren
  • die Investitionskosten für die Anlagentechnik der Datacenter-Infrastruktur zu minimieren
  • die Energiekosten für IT- und RZ-Infrastruktur möglichst gering zu halten und damit auch den PUE-Faktor
  • die allgemeinen Betriebskosten durch weniger Administration, Wartung, Instandhaltung und Organisation zu optimieren.

Außerdem kann ein modularer Aufbau bei der Planung Vorteile der Flexibilität mit sich bringen, gerade in Verbindung mit den Einflussfaktoren Wachstum und Leistungsverdichtung. Hiermit kann die Möglichkeit der präzisen Abstimmung, zwischen der IT- und der Datacenter-Intrastruktur geschaffen werden. Diese Vorgehensweise einer Skalierung bildet die Basis zum effizienten und wirtschaftlichen Betrieb des Rechenzentrums.

Berücksichtigung der Einflüsse

Die Einflussfaktoren mit der Auslegung der Leistungsstärke, -Verdichtung und Optimierung bei der Hard- und Software bieten bei einer Modernisierung einen gewissen, nicht zu vernachlässigenden Spielraum. Ein Wachstum der IT-Leistung im gewissen Maße lässt sich im selben Whitespace ohne Flächenzuwachs im Rechenzentrum erreichen. Somit lassen sich unter Umständen bestehende Datacenter-Flächen und -Gebäude länger nutzen.

Berechnungen belegen, dass je nach Verfügbarkeitsklasse und Sicherheitsanforderung für jedes Kilowatt an Leistung, welche zusätzlich im Whitespace verplant wird, mit Mehrkosten zwischen 4.000 und 10.000 Euro zu rechnen ist.

Peter auf dem Graben

Dieses Beispiel verdeutlicht, welchen Einfluss das IT-Sizing beim Rechenzentrumsbau nehmen kann und welches Einsparpotential bereits im Bereich der RZ-Planung vorhanden ist.

Je später nachgesteuert wird und Änderungen vorgenommen werden müssen, sofern überhaupt noch möglich, umso höher wird der Preis, der dafür gezahlt werden muss.

Werden im späteren Betrieb ungenutzte Ressourcen im Rechenzentrum vorgehalten und Systeme nie im dafür vorgesehen Nennlastbereich betrieben, wird dies die laufenden Betriebskosten dauerhaft erhöhen.

* Peter auf dem Graben ist Senior Datacenter Consultant bei der DC-CE RZ-Beratung GmbH & Co.KG.

Artikelfiles und Artikellinks

(ID:48506166)